MatlabTips

Description
آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته
پاسخ به سوالات تخصصی:
@roholazandie
We recommend to visit

?? ??? ?? ????? ?

We comply with Telegram's guidelines:

- No financial advice or scams
- Ethical and legal content only
- Respectful community

Join us for market updates, airdrops, and crypto education!

Last updated 8 months, 3 weeks ago

[ We are not the first, we try to be the best ]

Last updated 11 months, 1 week ago

FAST MTPROTO PROXIES FOR TELEGRAM

ads : @IR_proxi_sale

Last updated 7 months, 1 week ago

6 months ago

🔵نردبان شهود (ادامه)🔵

خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیق‌تر به چگونگی عملکرد مدل‌های زبانی بیندازیم. یکی از بزرگ‌ترین چالش‌های این مدل‌ها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید می‌کند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر می‌توان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام می‌شود.

در اینجا، آنتروپی نشان‌دهندۀ میزان تصادفی بودن یا انعطاف‌پذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدل‌های زبانی از طریق نمونه‌گیری از یک توزیع احتمالاتی، متن تولید می‌کنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی‌ هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوه‌های مختلف فراهم می‌کند. اما این امر به یک بده بستان (trade off) بنیادین منتهی می‌شود:

- آنتروپی پایین‌تر به مدل دقیق‌تری می‌انجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجی‌های متنوع‌تر و خلاقانه‌تر تولید می‌کند، اما احتمال بروز اطلاعات غلط یا بی‌معنا نیز افزایش می‌یابد.

این موضوع پیوند شگفت‌انگیزی میان خلاقیت و تصادفی بودن را نشان می‌دهد — رابطه‌ای که در تفکر انسان نیز وجود دارد. اما واقعاً مدل‌های زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدل‌ها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیده‌اند که آنتروپی آن‌ها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی می‌شود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسان‌ها در گفت‌وگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال می‌توانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدل‌های هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.

برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی می‌شود. یافته‌های روان‌شناختی حاکی از آن است که انسان‌ها گفتار خود را با محیط پیرامون‌شان تطبیق می‌دهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر می‌رود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی می‌تواند به‌شکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشین‌ها، ما موجوداتی زیستی هستیم که پیوسته با شبکه‌ای پیچیده از ورودی‌های حسی، عواطف و تجربیات زیسته سازگار می‌شویم. این غنای ارتباط انسانی — ریشه‌گرفته از پیش‌بینی‌ناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام توانایی‌هایش، هنوز نتوانسته است به‌طور کامل بازتولید کند.

مدل‌های زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجی‌هایی قابل پیش‌بینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی می‌گذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همان‌طور که یک ماشین‌حساب، معنای واقعی ریاضیات را درک نمی‌کند و تنها عملیات از پیش تعیین‌شده را اجرا می‌کند، مدل‌های زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازمان‌دهی و پردازش اطلاعات یاری می‌رسانند.
هنگامی که از شهود سخن می‌گوییم، به چیزی مرموز یا ناملموس اشاره نمی‌کنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کل‌نگر و درک جامع ما از جهان ناشی می‌شود. این فرایند به ما امکان می‌دهد مفاهیمی ظاهراً بی‌ارتباط را به هم ربط دهیم، حتی زمانی که به‌طور خودآگاه از این ارتباط‌ها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمی‌تواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهت‌های سطحی است. توانایی ایجاد بینش‌های عمیق میان‌رشته‌ای، نیازمند تجربه‌ای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین توانایی‌ای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت می‌گیرد — عناصری که هیچ‌یک حقیقتاً در دسترس مدل‌های زبانی بزرگ نیستند.

6 months, 1 week ago

🔵نردبان شهود🔵

جمله ی مشهوری از آلفرد نورث وایتهد می‌گوید: «تمدن با گسترش تعداد عملیاتی که می‌توانیم بدون اندیشیدن دربارهٔ آن‌ها انجام دهیم، پیشرفت می‌کند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک می‌کنند، نقطۀ آغاز این عملیات را در تاریخ رقم می‌زند.

برای مثال، ما در مدرسه با لگاریتم‌ها آشنا می‌شویم بی‌آنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته‌ بودند. لگاریتم به آن‌ها امکان محاسبۀ سریع‌تر برای سفرهای طولانی را می‌داد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نه‌تنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.

دنباله ی چنین ابزارهایی درنهایت با اختراع رایانه‌های دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمی‌پردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده می‌گیرد، ما را از انجام دستی آن‌ها بی‌نیاز کرده و راه را برای پرداختن به اشکال پیچیده‌تر محاسبات هموار می‌کند.

پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات رده‌بالاتر ظهور یافتند. به‌عنوان نمونه، یکی از مهم‌ترین الگوریتم‌های عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهم‌ترین الگوریتم عددی دوران ما می‌داند، چرا که این الگوریتم روش ذخیره‌سازی، انتقال و دستکاری داده‌ها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاه‌های دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایه‌ای از محاسبات پنهان روبرو هستیم که داده‌ها را برای ما پردازش و بهینه می‌کنند.

بیایید لحظه‌ای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آن‌ها بی‌نیاز می‌کنند. این ابزارها همگی از اصلی بنیادین پیروی می‌کنند: آن‌ها داده‌ها را فشرده کرده و در قالبی متراکم‌تر نمایش می‌دهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشرده‌سازی است.

امروزه وارد دورانی شده‌ایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفت‌های پیشین تفاوت اساسی ندارد. مدل‌های هوش مصنوعی در ذات خود ابزارهای تازه‌ای هستند که داده‌ها را در ابعادی بی‌سابقه فشرده می‌کنند. به‌عنوان نمونه، FFT یک تصویر را با تحلیل مؤلفه‌های فرکانسی آن فشرده می‌کند. به همین ترتیب، مدل‌های مدرنِ گفتار و تصویر نیز این اصل را، نه‌تنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعه‌های عظیمی از دیتاست ها اعمال می‌کنند. در خصوص مدل‌های زبانی نیز همین امر صدق می‌کند؛ این مدل‌ها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده می‌سازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدل‌ها چنان گسترده است که گاه به نظر می‌رسد کاری نیست که از عهدۀ آن‌ها برنیاید. آن‌ها شعر می‌سرایند، مقالات علمی را خلاصه می‌کنند، پرونده‌های حقوقی را تحلیل می‌کنند، مسائل ریاضی را حل می‌کنند، دستور پخت غذا می‌سازند، رمان می‌نویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیده‌ایم؛ جایی که ماشین‌ها همۀ وظایف فکری را بر عهده گرفته‌اند و دیگر جایی برای نقش‌آفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه به‌عنوان یک تمدن می‌توانیم همچنان پیش برویم وقتی به نظر می‌رسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟

(ادامه دارد)

6 months, 2 weeks ago

🔵لحظه ی اسپوتنیک یا لحظه ی بوران؟🔵

ورود بازیگر تازه ی میدان هوش مصنوعی یعنی deepseek که ضربه ی بزرگی بر بسیاری از شرکت های تکنولوژی غربی وارد کرد شوک بزرگی برای همه بود. یک شرکت به ظاهر کوچک با سرمایه ای بسیار کمتر توانست همان کاری را بکند که شرکت های بزرگ غربی سالهاست بیلیون ها دلار در آن سرمایه گذاری میکنند! چگونه چنین چیزی ممکن است؟

این البته اولین بار نیست که شاهد چنین جهش های فناوری از سمت قدرت های سیاسی هستیم. در دروان مدرن فناوری و علم همیشه در جبهه نخست برتری بین چنین قدرت هایی بوده و آن ها برای نشان دادن برتری خود بدشان نمی آید که گه گاهی به هم فخر بفروشند. قابل تصور است که احساسات ملی گرایی در چین این روزها در اوج خود باشد. اما وقتی به تاریخ نگاه میکنیم چنین اتفاقی یکتا نیست. بسیاری چنین حرکتی را به «لحظه ی اسپوتنیک» (Sputnik moment) توصیف میکنند. در سال ۱۹۵۷ در میان اوج ناباوری همگانی اتحاد جماهیر شوروی از ماهواره ی اسپوتنیک رونمایی کرد. این در حالی بود که تصور بسیاری در آمریکا این بود که توان فناوری شوروی بسیار عقب تر است. آیزنهاور در خطابه ای ابراز کرد که ایالات متحده باید با سه واقعیت روبرو شود: اول اینکه شوروی از امریکا و بقیه «جهان آزاد» در زمینه ی فناوری و علمی جلوتر افتاده است. دوم اینکه اگر این وضعیت ادامه پیدا کند شوروی قادر خواهد بود که از آن بر علیه آمریکا استفاده کند و رهبری و حیثیت آن را به خطر بیندازد و در نهایت که چنین تفاوتی در نهایت به پیروزی نظامی آنها منجر خواهد شد. چنین زنگ خطری رقابت فضایی و عصر اکتشاف های شگرف علمی از هر دو سو را سبب شد.

با این حال چنین رقابت هایی همیشه سالم ترین رقابت ها نیستند. بعد از مدتی هر دو سو به انواع و اقسام برنامه های جاسوسی برای دست یافتن به رمز و رازهای علمی همدیگر دست زدند. با گذشت زمان و وخیم تر شدن اوضاع اقتصادی و سیاسی در بلوک شرق میزان این برنامه های جاسوسی از سمت شوروی افزایش پیدا کرد. یکی از مثال های آن در برنامه ی بوران است که بعد ها فاش شد تقریبا تمام دیتاشیت ها و جزییات آن از برنامه شاتل آمریکایی دزدیده شده است. شباهت تقریبا کاریکاتوری بوران با شاتل آمریکایی گواه سقوط سیستمی بود که زمانی پرچم دار خلاقیت های درجه ی یکی در علم و تکنولوژی بود.

وضعیت deepseek امروزه چیزی بیشتر شبیه به بوران و نه اسپوتنیک است. قبل از هر چیز باید دقت کرد که در طول بیست سال اخیر تقریبا هیچ کدام از مدل های اساسی از چین بیرون نیامده است. فضای اقتصادی و فناوری چین از ابتدا مشوق «کپی کاری» و تولید در حجم بالا (mass production) بوده که برای اقتصاد اساسی ولی برای برتری فناوری بسیار محدود کننده است. با این حال حتی چنین نیرویی بسیار قابل تقدیر است و قطعا موتور محرکه ی رقابت های بیشتر و فناوری های بهتر هم خواهد بود. چنین وضعیتی کنترل چند شرکت با اسم های جعلی ای مثل OpenAI که تقریبا هیچ چیزی در مورد آنها «باز» نیست را به چالش کشیده و تمام شالوده ی آنها را در طول زمان به از بین برده که چیزی جز سود برای مشتری ها نخواهد بود! فضایی که در بعضی از صنایع مانند غذا و دارو وجود ندارد. شرکت هایی که یک دارو را برای بیست سال تولید میکنند و تمامی رقابت ها را زیر چتر «حقوق معنوی» سرکوب می کنند. به همین دلیل تمام این اتفاقات را باید به فال نیک گرفت اما در مورد آن دچار توهم هم نشد.

8 months, 1 week ago

?نیوتون: آخرین جادوگر و اولین دانشمند!?

امروزه بسیار عادی است که فرض کنیم علم به ما امکاناتی میدهد که می توان با آن نه تنها جهان را درک کرد بلکه بر اساس آن ابزار هایی ساخت که بتوان محیط را کنترل کرد و شکل داد! اما این توانایی دستاوردی بسیار نوین است! در بیشتر تاریخ بشریت، انسان «ارباب طبیعت» نبود، بلکه قربانی آن به شمار می‌رفت. اتفاقات دنیای اطراف او یا نتیجه ی تصادفات یا مشیت الهی بودند! و انسان چاره ای جز پذیرش آن نداشت. امروزه قدرت ما در شکل دهی و پیش بینی محیط به حدی رسیده است که می توانیم طوفان ها را پیش بینی کنیم با عوامل بیماری که با چشم قابل دیدن نیستند وارد مبارزه هایی بسیار پیچیده شویم و حتی با فشار چند دکمه تمام حیات روی کره ی زمین را از بین ببریم!

پیشرفت های علمی بر خلاف باور عامه همیشه به صورت انباشتی اتفاق نمی افتد. آنچه رخ می دهد اما جهش های بسیار عظیمی است که نه تنها تمام جهان بینی ما بلکه شیوه های فکر کردن روزمره ی ما را هم تغییر می دهد! انقلاب علمی ای که با نیوتون آغاز شد نقطه ی شروع چنین تغییراتی بود. اهمیت کار نیوتون در این بود که برای نخستین بار بشریت به نظریه‌ای دست یافت که به‌راستی «کار می‌کرد». ممکن است صدای اعتراض برخیزد که پیش از نیوتون نیز دانشمندانی بودند که نظریات درستی درباره جهان ارائه کرده‌اند. اما باید توجه داشت که این نظریات غالباً پراکنده، ناپیوسته، و در بهترین حالت، محدود به موارد خاصی بودند—برای مثال، ساخت ساعت‌های دقیق، تنظیم تقویم‌ها، یا روش‌های تجربی ذوب فلزات.
آنچه نیوتون به ارمغان آورد، نه صرفاً یک نظریه، بلکه شیوه‌ای نوین از اندیشیدن بود که توانست علمی یکپارچه و جهان‌شمول ارائه دهد؛ شیوه‌ای که پایه و اساس انقلاب علمی مدرن شد و برای همیشه مسیر علم و تفکر بشری را تغییر داد.

نیوتون برای اولین بار دستگاهی را معرفی کرد که جامع و جهانی بود! این دستگاه نه تنها از ریاضیات دقیقی پیروی می کرد بلکه فرضیات کم و عمومیت بی انتهایی داشت. بی اغراق نیست که کشف نیوتون مانند زلزله ای نه تنها علم بلکه فلسفه و حتی سیاست را در اروپا تغییر داد. تغییراتی که چهره ی جهان ما را برای همیشه تغییر داد. در این باب الکساندر پوپ می نویسد: "طبیعت و قوانین طبیعت در تاریکی پنهان بودند: خدا گفت، نیوتن باشد! و همه‌جا روشن شد[1].

پیش از نیوتون مرز های دقیقی بین علم و فلسفه و حتی علوم خفیه (occult)، چیزی که امروزه به اسم شبه علم می شناسیم، وجود نداشت. تصور بسیاری این است که نیوتون روش علمی را به تاسی از گالیله پیش گرفت با این حال مرور زندگی نیوتون چیز دیگری را نشان می دهد. نیوتون برخلاف تقریبا تمام هم عصرانش به علوم خفیه باور داشت! موضوعی که بابت آن همیشه مورد سرزنش و تمسخر قرار می گرفت. با این حال او سالهای زیادی از عمر خود را بر روی موضوعاتی گذارند که باور آن برای بسیاری دشوار است. بسیاری تصور می کنند که کارهای علمی نیوتون را باید از کارهای غیر علمی اش جدا کرد. اما چنین فرضی خیلی هم صحیح نیست!

نیوتون زمان زیادی از عمر خود را صرف کیمیاگری و الهیات کرد. نیوتون باور داشت که درک جهان نیازمند درک قوانین الهی و بازخوانی دقیق انجیل است! برخلاف پیشینیانش نیوتون اعتقاد داشت که تمام جهان از مجموعه ی قوانین یکسانی پیروی می کند. امروزه چنین چیزی برای ما پیش فرض است اما پیش از او اعتقاد بر این بود که مکانیک سماوی (حرکت ستارگان و سیاره ها) از مکانیک زمینی متفاوت است! نظریه ی گرانش نیوتون این دو مکانیک را برای اولین بار متحد کرد. این تغییر ریشه در دیدگاه نیوتون داشت که جهان را همچون ساعتی می دید که توسط خدا (ساعت ساز) ساخته شده و به همین خاطر همه جای آن باید یکسان و باشکوه باشد.
اما جدای از دیدگاه های کلی که هر دانشمندی می تواند داشته باشد نیوتون در نظریه گرانش خود عنصری را وارد کرد که بسیار عجیب بود. او فرض گرفت که اجرام می توانند بدون تماس با همدیگر بر هم نیرو وارد کنند چیزی که به «عمل در فاصله» (action at distance) شناخته می شود. این فرض با دیدگاه های مکانیکی زمان که اثر نیرو را فقط در نتیجه ی یک مدیوم ممکن می دانست در تضاد بود. لایبنیتز در نامه ای به ساموئل کلارک در سال ۱۷۱۵ به شدت به نیوتون حمله کرده و او را متهم به وارد کردن «عملگر های خیالی» (imaginary operations) و «نیروهای خفیه» (occult forces) به فیزیک میکند. پاسخ نیوتون به اعتراضات معمولا با نادیده گرفتن و توضیحات حتی پیچیده تر همراه بود.

8 months, 2 weeks ago

متاسفانه هیچ راه حلی برای محاسبه ی سریع delta وجود نداشت تا اینکه شبکه های عصبی کنونی توانستند مدل هایی بسازند که این مقدار را «تخمین» بزند. به چنین روش های score based که تابعی از t و x هستند (s(x, t)) گفته می شود و تمام کار آن ها این است که این تابع را برای مجموعه ی زیادی از x ها از یک دیتاست حساب کنند. این کار تنها با چنین محاسبه ای در تمامی قدم ها امکان پذیر است. بعد از آنکه مدل توانست نویز های مختلف بر روی عکس های مختلف را در جهت مخالف حدس بزند (از طریق مقایسه با عکس اصلی) کار آموزش تمام و به این ترتیب مدل قادر به ایجاد عکس های جدید است!

ترکیب قدرت شبکه های عصبی مصنوعی با اصول بسیار با شکوه ترمودینامیک این امکان را ایجاد می کند که پیچیده ترین منیفلد های داده ای مثل عکس را با دقت بسیار شگفت انگیز تولید کنیم!

این اما تنها یک شاهکار مهندسی نیست بلکه نتیجه ی استفاده ی درست از قوانین فیزیک ترمودینامیک در یک چارچوب درست است که نشان از عمق آن در نظریه اطلاعات هم می دهد. اینجا یک سوال جدید ایجاد می شود: چرا انرژی باید چیزی شبیه به «طول کد» باشد؟ درکی که از ما از انرژی در فیزیک داریم با طول کد بسیار متفاوت به نظر می رسد. در قسمت های بعدی این موضوع را بیشتر کاوش میکنیم!

8 months, 2 weeks ago

حالا بیایید کمی دقیق تر شویم. اگر شما یک نویز در تابع g و یک کشش (در شکل یک میدان) f داشته باشیم. و آن را بر یک عکس بارها و بارها اعمال کنیم به تدریج این عکس به نویز کامل تبدیل می شود. اما اگر بخواهیم این فرآیند را معکوس کنیم نیاز داریم در جهتی حرکت کنیم میزان شانس ما برای ساختن دوباره ی عکس را بیشتر کند! این جهت در مشتق جهتی (دلتا) مشخص می شود. دقت کنید که این جهت با توجه به قدم ما در فرآیند به سوی عکس تغییر می کند. اما منظور ما از شانس چیست؟ شانس همان احتمال تصویر اولیه است (یا همان حافظه ی ما از اتاق) اما ما با لگاریتم آن کار میکنیم. دلیل این کار این است که وقتی لگاریتم احتمال چیزی را حساب میکنیم در واقع «اندازه ی کد» (code length) لازم برای توصیف آن را محاسبه می کنیم. این «اندازه ی کد» در اصطلاح ترمودینامیکی به معنای «انرژی» هم هست. برای مثال در مورد دو تاس این اندازه ی کد همان تعداد حالات می شود! به صورت کلی ما احتمال یک پیکربندی (configuration) مورد نظر x را به صورت p(x) ~ exp(-E(x)) توصیف میکنیم. به این ترتیب می توان گفت ما در جهتی حرکت میکنیم که «اندازه کد» یا «انرژی» را به حداقل برساند.

12 months ago

بیست راه حل برای مساله ی سه جسم با جرم مساوی

12 months ago

?بی نهایت راه حل برای مساله ی سه جسم ?

آنچه به عنوان سامانه ی خورشیدی (solar system) میشناسیم که خودمان هم در یکی از آن ها هستیم شکل ساده ای است از یک ستاره و چندین سیاره که به دور آن میچرخند بنظر میرسید جهان ما مجموعه ای چنین سیستم هایی باشد و خارج از چنین سیستمی تنها میتوان اجرامی را تصور کرد که یا سر گردانند یا به هم برخورد میکنند بدون آنکه در یک «سیستم پایدار» بتوانند قرار بگیرد. اما چنین چیزی درست نیست!

در سال ۱۸۹۹ هنری پوانکاره به صورت ریاضی اثبات کرد که راه حل های ممکن برای مساله ی سه جسم (که چند جسم مانند سامانه ی خورشیدی ما بخشی از آن است) بی نهایت است! اما شرایط خاصی وجود دارد. اگر سه سیاره درگیر دارای جرم مساوی باشند چنین راه حل هایی پایدار هستند. در طول قرن بیستم ریاضیدانان ابتدا با روش های عددی و بعدها توسط کامپیوتر ها به جستجوی چنین راه حل هایی بر آمدند. در آخرین تلاش در سال ۲۰۲۳ گروهی از پژوهشگران ۱۲۴۰۹ راه حل جدید برای مساله ی سه جسم پیدا کردند که پایدار هستند. در شکل زیر تنها بیست مثال از آن ها را میبینید. اما چرا چنین سامانه هایی را نمیبینم؟ یکی از دلایل آن این است که شرط مساوی بودن جرم بسیار اساسی است اگر جرم ها حتی اگر با هم کمی تفاوت داشته باشند دینامیک در نهایت غیر پایدار است. با این حال می توان انتظار داشت که چنین سیستم هایی در جهان ما وجود دارند و برخی از آن ها هم مشاهده شده اند.

حالا سوال دیگری که پیش می آید این است که آیا سامانه ی خورشیدی ما پایدار است یا خیر؟ در این مورد باید گفت که چنین سامانه ای تا حد بسیار زیادی پایدار است و اندازه گیری ها نشان می دهند که حداقل تا چند میلیارد سال دیگر نگرانی از بابت برخورد سیارات به هم وجود ندارد.

این یافته اما نشان دهنده ی موضوع بسیار عمیقی است که در چند پست اخیر بر روی آن تمرکز بیشتری داشتیم: فهم ما از دینامیک در حال تغییر است و بر خلاف تصور گذشته که قوانین فیزیک تنها راه حل های ساده را نشان می دهند در عمل می توان دید که موسیقی دینامیک بسیار پیچیده تر و زیباتر است و کند و کاو بیشتر در آن سرچشمه هایی از آنچه پیچیدگی میشناسیم را نمایان می کند.

1 year ago

این توضیحات قطعا منشا حیات را توضیح نمی دهد اما دانش ما نسبت به فیزیک و قوانین اطلاعات نشان می دهد که «نظم» نتیجه ی ناگزیر قوانین خود طبیعت هستند! قوانین طبیعت کور نیستند و به صورت فعال الگوهایی می سازند که رویه های (submanifold) دقیقی در فضای فاز ایجاد می کنند! برای چنین نظمی نیازی به ناظم وجود ندارد! چیزی که نیاز است اما مطالعه بیشتر ما برای درک این است که پیچیدگی یک اتفاق در طبیعت نیست بلکه یک قانون است! نگاه کردن به قوانین به تنهایی و به صورت فروکاست گرایی (reductionist) مانند این است که فقط بر روی تک نوت های سمفونی باخ تمرکز کنید و تعجب کنید که موسیقی کجای آن است!

1 year, 2 months ago

نسخه ی اصلی

We recommend to visit

?? ??? ?? ????? ?

We comply with Telegram's guidelines:

- No financial advice or scams
- Ethical and legal content only
- Respectful community

Join us for market updates, airdrops, and crypto education!

Last updated 8 months, 3 weeks ago

[ We are not the first, we try to be the best ]

Last updated 11 months, 1 week ago

FAST MTPROTO PROXIES FOR TELEGRAM

ads : @IR_proxi_sale

Last updated 7 months, 1 week ago