?? ??? ?? ????? ?
We comply with Telegram's guidelines:
- No financial advice or scams
- Ethical and legal content only
- Respectful community
Join us for market updates, airdrops, and crypto education!
Last updated 8 months, 3 weeks ago
[ We are not the first, we try to be the best ]
Last updated 11 months, 1 week ago
FAST MTPROTO PROXIES FOR TELEGRAM
ads : @IR_proxi_sale
Last updated 7 months, 1 week ago
🔵نردبان شهود (ادامه)🔵
خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیقتر به چگونگی عملکرد مدلهای زبانی بیندازیم. یکی از بزرگترین چالشهای این مدلها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید میکند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر میتوان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام میشود.
در اینجا، آنتروپی نشاندهندۀ میزان تصادفی بودن یا انعطافپذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدلهای زبانی از طریق نمونهگیری از یک توزیع احتمالاتی، متن تولید میکنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوههای مختلف فراهم میکند. اما این امر به یک بده بستان (trade off) بنیادین منتهی میشود:
- آنتروپی پایینتر به مدل دقیقتری میانجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجیهای متنوعتر و خلاقانهتر تولید میکند، اما احتمال بروز اطلاعات غلط یا بیمعنا نیز افزایش مییابد.
این موضوع پیوند شگفتانگیزی میان خلاقیت و تصادفی بودن را نشان میدهد — رابطهای که در تفکر انسان نیز وجود دارد. اما واقعاً مدلهای زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدلها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیدهاند که آنتروپی آنها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی میشود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسانها در گفتوگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال میتوانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدلهای هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.
برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی میشود. یافتههای روانشناختی حاکی از آن است که انسانها گفتار خود را با محیط پیرامونشان تطبیق میدهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر میرود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی میتواند بهشکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشینها، ما موجوداتی زیستی هستیم که پیوسته با شبکهای پیچیده از ورودیهای حسی، عواطف و تجربیات زیسته سازگار میشویم. این غنای ارتباط انسانی — ریشهگرفته از پیشبینیناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام تواناییهایش، هنوز نتوانسته است بهطور کامل بازتولید کند.
مدلهای زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجیهایی قابل پیشبینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی میگذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همانطور که یک ماشینحساب، معنای واقعی ریاضیات را درک نمیکند و تنها عملیات از پیش تعیینشده را اجرا میکند، مدلهای زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازماندهی و پردازش اطلاعات یاری میرسانند.
هنگامی که از شهود سخن میگوییم، به چیزی مرموز یا ناملموس اشاره نمیکنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کلنگر و درک جامع ما از جهان ناشی میشود. این فرایند به ما امکان میدهد مفاهیمی ظاهراً بیارتباط را به هم ربط دهیم، حتی زمانی که بهطور خودآگاه از این ارتباطها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمیتواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهتهای سطحی است. توانایی ایجاد بینشهای عمیق میانرشتهای، نیازمند تجربهای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین تواناییای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت میگیرد — عناصری که هیچیک حقیقتاً در دسترس مدلهای زبانی بزرگ نیستند.
🔵نردبان شهود🔵
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک میکنند، نقطۀ آغاز این عملیات را در تاریخ رقم میزند.
برای مثال، ما در مدرسه با لگاریتمها آشنا میشویم بیآنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته بودند. لگاریتم به آنها امکان محاسبۀ سریعتر برای سفرهای طولانی را میداد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نهتنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.
دنباله ی چنین ابزارهایی درنهایت با اختراع رایانههای دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمیپردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده میگیرد، ما را از انجام دستی آنها بینیاز کرده و راه را برای پرداختن به اشکال پیچیدهتر محاسبات هموار میکند.
پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات ردهبالاتر ظهور یافتند. بهعنوان نمونه، یکی از مهمترین الگوریتمهای عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهمترین الگوریتم عددی دوران ما میداند، چرا که این الگوریتم روش ذخیرهسازی، انتقال و دستکاری دادهها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاههای دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایهای از محاسبات پنهان روبرو هستیم که دادهها را برای ما پردازش و بهینه میکنند.
بیایید لحظهای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آنها بینیاز میکنند. این ابزارها همگی از اصلی بنیادین پیروی میکنند: آنها دادهها را فشرده کرده و در قالبی متراکمتر نمایش میدهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشردهسازی است.
امروزه وارد دورانی شدهایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفتهای پیشین تفاوت اساسی ندارد. مدلهای هوش مصنوعی در ذات خود ابزارهای تازهای هستند که دادهها را در ابعادی بیسابقه فشرده میکنند. بهعنوان نمونه، FFT یک تصویر را با تحلیل مؤلفههای فرکانسی آن فشرده میکند. به همین ترتیب، مدلهای مدرنِ گفتار و تصویر نیز این اصل را، نهتنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعههای عظیمی از دیتاست ها اعمال میکنند. در خصوص مدلهای زبانی نیز همین امر صدق میکند؛ این مدلها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده میسازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدلها چنان گسترده است که گاه به نظر میرسد کاری نیست که از عهدۀ آنها برنیاید. آنها شعر میسرایند، مقالات علمی را خلاصه میکنند، پروندههای حقوقی را تحلیل میکنند، مسائل ریاضی را حل میکنند، دستور پخت غذا میسازند، رمان مینویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیدهایم؛ جایی که ماشینها همۀ وظایف فکری را بر عهده گرفتهاند و دیگر جایی برای نقشآفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه بهعنوان یک تمدن میتوانیم همچنان پیش برویم وقتی به نظر میرسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟
(ادامه دارد)
🔵لحظه ی اسپوتنیک یا لحظه ی بوران؟🔵
ورود بازیگر تازه ی میدان هوش مصنوعی یعنی deepseek که ضربه ی بزرگی بر بسیاری از شرکت های تکنولوژی غربی وارد کرد شوک بزرگی برای همه بود. یک شرکت به ظاهر کوچک با سرمایه ای بسیار کمتر توانست همان کاری را بکند که شرکت های بزرگ غربی سالهاست بیلیون ها دلار در آن سرمایه گذاری میکنند! چگونه چنین چیزی ممکن است؟
این البته اولین بار نیست که شاهد چنین جهش های فناوری از سمت قدرت های سیاسی هستیم. در دروان مدرن فناوری و علم همیشه در جبهه نخست برتری بین چنین قدرت هایی بوده و آن ها برای نشان دادن برتری خود بدشان نمی آید که گه گاهی به هم فخر بفروشند. قابل تصور است که احساسات ملی گرایی در چین این روزها در اوج خود باشد. اما وقتی به تاریخ نگاه میکنیم چنین اتفاقی یکتا نیست. بسیاری چنین حرکتی را به «لحظه ی اسپوتنیک» (Sputnik moment) توصیف میکنند. در سال ۱۹۵۷ در میان اوج ناباوری همگانی اتحاد جماهیر شوروی از ماهواره ی اسپوتنیک رونمایی کرد. این در حالی بود که تصور بسیاری در آمریکا این بود که توان فناوری شوروی بسیار عقب تر است. آیزنهاور در خطابه ای ابراز کرد که ایالات متحده باید با سه واقعیت روبرو شود: اول اینکه شوروی از امریکا و بقیه «جهان آزاد» در زمینه ی فناوری و علمی جلوتر افتاده است. دوم اینکه اگر این وضعیت ادامه پیدا کند شوروی قادر خواهد بود که از آن بر علیه آمریکا استفاده کند و رهبری و حیثیت آن را به خطر بیندازد و در نهایت که چنین تفاوتی در نهایت به پیروزی نظامی آنها منجر خواهد شد. چنین زنگ خطری رقابت فضایی و عصر اکتشاف های شگرف علمی از هر دو سو را سبب شد.
با این حال چنین رقابت هایی همیشه سالم ترین رقابت ها نیستند. بعد از مدتی هر دو سو به انواع و اقسام برنامه های جاسوسی برای دست یافتن به رمز و رازهای علمی همدیگر دست زدند. با گذشت زمان و وخیم تر شدن اوضاع اقتصادی و سیاسی در بلوک شرق میزان این برنامه های جاسوسی از سمت شوروی افزایش پیدا کرد. یکی از مثال های آن در برنامه ی بوران است که بعد ها فاش شد تقریبا تمام دیتاشیت ها و جزییات آن از برنامه شاتل آمریکایی دزدیده شده است. شباهت تقریبا کاریکاتوری بوران با شاتل آمریکایی گواه سقوط سیستمی بود که زمانی پرچم دار خلاقیت های درجه ی یکی در علم و تکنولوژی بود.
وضعیت deepseek امروزه چیزی بیشتر شبیه به بوران و نه اسپوتنیک است. قبل از هر چیز باید دقت کرد که در طول بیست سال اخیر تقریبا هیچ کدام از مدل های اساسی از چین بیرون نیامده است. فضای اقتصادی و فناوری چین از ابتدا مشوق «کپی کاری» و تولید در حجم بالا (mass production) بوده که برای اقتصاد اساسی ولی برای برتری فناوری بسیار محدود کننده است. با این حال حتی چنین نیرویی بسیار قابل تقدیر است و قطعا موتور محرکه ی رقابت های بیشتر و فناوری های بهتر هم خواهد بود. چنین وضعیتی کنترل چند شرکت با اسم های جعلی ای مثل OpenAI که تقریبا هیچ چیزی در مورد آنها «باز» نیست را به چالش کشیده و تمام شالوده ی آنها را در طول زمان به از بین برده که چیزی جز سود برای مشتری ها نخواهد بود! فضایی که در بعضی از صنایع مانند غذا و دارو وجود ندارد. شرکت هایی که یک دارو را برای بیست سال تولید میکنند و تمامی رقابت ها را زیر چتر «حقوق معنوی» سرکوب می کنند. به همین دلیل تمام این اتفاقات را باید به فال نیک گرفت اما در مورد آن دچار توهم هم نشد.
?نیوتون: آخرین جادوگر و اولین دانشمند!?
امروزه بسیار عادی است که فرض کنیم علم به ما امکاناتی میدهد که می توان با آن نه تنها جهان را درک کرد بلکه بر اساس آن ابزار هایی ساخت که بتوان محیط را کنترل کرد و شکل داد! اما این توانایی دستاوردی بسیار نوین است! در بیشتر تاریخ بشریت، انسان «ارباب طبیعت» نبود، بلکه قربانی آن به شمار میرفت. اتفاقات دنیای اطراف او یا نتیجه ی تصادفات یا مشیت الهی بودند! و انسان چاره ای جز پذیرش آن نداشت. امروزه قدرت ما در شکل دهی و پیش بینی محیط به حدی رسیده است که می توانیم طوفان ها را پیش بینی کنیم با عوامل بیماری که با چشم قابل دیدن نیستند وارد مبارزه هایی بسیار پیچیده شویم و حتی با فشار چند دکمه تمام حیات روی کره ی زمین را از بین ببریم!
پیشرفت های علمی بر خلاف باور عامه همیشه به صورت انباشتی اتفاق نمی افتد. آنچه رخ می دهد اما جهش های بسیار عظیمی است که نه تنها تمام جهان بینی ما بلکه شیوه های فکر کردن روزمره ی ما را هم تغییر می دهد! انقلاب علمی ای که با نیوتون آغاز شد نقطه ی شروع چنین تغییراتی بود. اهمیت کار نیوتون در این بود که برای نخستین بار بشریت به نظریهای دست یافت که بهراستی «کار میکرد». ممکن است صدای اعتراض برخیزد که پیش از نیوتون نیز دانشمندانی بودند که نظریات درستی درباره جهان ارائه کردهاند. اما باید توجه داشت که این نظریات غالباً پراکنده، ناپیوسته، و در بهترین حالت، محدود به موارد خاصی بودند—برای مثال، ساخت ساعتهای دقیق، تنظیم تقویمها، یا روشهای تجربی ذوب فلزات.
آنچه نیوتون به ارمغان آورد، نه صرفاً یک نظریه، بلکه شیوهای نوین از اندیشیدن بود که توانست علمی یکپارچه و جهانشمول ارائه دهد؛ شیوهای که پایه و اساس انقلاب علمی مدرن شد و برای همیشه مسیر علم و تفکر بشری را تغییر داد.
نیوتون برای اولین بار دستگاهی را معرفی کرد که جامع و جهانی بود! این دستگاه نه تنها از ریاضیات دقیقی پیروی می کرد بلکه فرضیات کم و عمومیت بی انتهایی داشت. بی اغراق نیست که کشف نیوتون مانند زلزله ای نه تنها علم بلکه فلسفه و حتی سیاست را در اروپا تغییر داد. تغییراتی که چهره ی جهان ما را برای همیشه تغییر داد. در این باب الکساندر پوپ می نویسد: "طبیعت و قوانین طبیعت در تاریکی پنهان بودند: خدا گفت، نیوتن باشد! و همهجا روشن شد[1].
پیش از نیوتون مرز های دقیقی بین علم و فلسفه و حتی علوم خفیه (occult)، چیزی که امروزه به اسم شبه علم می شناسیم، وجود نداشت. تصور بسیاری این است که نیوتون روش علمی را به تاسی از گالیله پیش گرفت با این حال مرور زندگی نیوتون چیز دیگری را نشان می دهد. نیوتون برخلاف تقریبا تمام هم عصرانش به علوم خفیه باور داشت! موضوعی که بابت آن همیشه مورد سرزنش و تمسخر قرار می گرفت. با این حال او سالهای زیادی از عمر خود را بر روی موضوعاتی گذارند که باور آن برای بسیاری دشوار است. بسیاری تصور می کنند که کارهای علمی نیوتون را باید از کارهای غیر علمی اش جدا کرد. اما چنین فرضی خیلی هم صحیح نیست!
نیوتون زمان زیادی از عمر خود را صرف کیمیاگری و الهیات کرد. نیوتون باور داشت که درک جهان نیازمند درک قوانین الهی و بازخوانی دقیق انجیل است! برخلاف پیشینیانش نیوتون اعتقاد داشت که تمام جهان از مجموعه ی قوانین یکسانی پیروی می کند. امروزه چنین چیزی برای ما پیش فرض است اما پیش از او اعتقاد بر این بود که مکانیک سماوی (حرکت ستارگان و سیاره ها) از مکانیک زمینی متفاوت است! نظریه ی گرانش نیوتون این دو مکانیک را برای اولین بار متحد کرد. این تغییر ریشه در دیدگاه نیوتون داشت که جهان را همچون ساعتی می دید که توسط خدا (ساعت ساز) ساخته شده و به همین خاطر همه جای آن باید یکسان و باشکوه باشد.
اما جدای از دیدگاه های کلی که هر دانشمندی می تواند داشته باشد نیوتون در نظریه گرانش خود عنصری را وارد کرد که بسیار عجیب بود. او فرض گرفت که اجرام می توانند بدون تماس با همدیگر بر هم نیرو وارد کنند چیزی که به «عمل در فاصله» (action at distance) شناخته می شود. این فرض با دیدگاه های مکانیکی زمان که اثر نیرو را فقط در نتیجه ی یک مدیوم ممکن می دانست در تضاد بود. لایبنیتز در نامه ای به ساموئل کلارک در سال ۱۷۱۵ به شدت به نیوتون حمله کرده و او را متهم به وارد کردن «عملگر های خیالی» (imaginary operations) و «نیروهای خفیه» (occult forces) به فیزیک میکند. پاسخ نیوتون به اعتراضات معمولا با نادیده گرفتن و توضیحات حتی پیچیده تر همراه بود.
متاسفانه هیچ راه حلی برای محاسبه ی سریع delta وجود نداشت تا اینکه شبکه های عصبی کنونی توانستند مدل هایی بسازند که این مقدار را «تخمین» بزند. به چنین روش های score based که تابعی از t و x هستند (s(x, t)) گفته می شود و تمام کار آن ها این است که این تابع را برای مجموعه ی زیادی از x ها از یک دیتاست حساب کنند. این کار تنها با چنین محاسبه ای در تمامی قدم ها امکان پذیر است. بعد از آنکه مدل توانست نویز های مختلف بر روی عکس های مختلف را در جهت مخالف حدس بزند (از طریق مقایسه با عکس اصلی) کار آموزش تمام و به این ترتیب مدل قادر به ایجاد عکس های جدید است!
ترکیب قدرت شبکه های عصبی مصنوعی با اصول بسیار با شکوه ترمودینامیک این امکان را ایجاد می کند که پیچیده ترین منیفلد های داده ای مثل عکس را با دقت بسیار شگفت انگیز تولید کنیم!
این اما تنها یک شاهکار مهندسی نیست بلکه نتیجه ی استفاده ی درست از قوانین فیزیک ترمودینامیک در یک چارچوب درست است که نشان از عمق آن در نظریه اطلاعات هم می دهد. اینجا یک سوال جدید ایجاد می شود: چرا انرژی باید چیزی شبیه به «طول کد» باشد؟ درکی که از ما از انرژی در فیزیک داریم با طول کد بسیار متفاوت به نظر می رسد. در قسمت های بعدی این موضوع را بیشتر کاوش میکنیم!
حالا بیایید کمی دقیق تر شویم. اگر شما یک نویز در تابع g و یک کشش (در شکل یک میدان) f داشته باشیم. و آن را بر یک عکس بارها و بارها اعمال کنیم به تدریج این عکس به نویز کامل تبدیل می شود. اما اگر بخواهیم این فرآیند را معکوس کنیم نیاز داریم در جهتی حرکت کنیم میزان شانس ما برای ساختن دوباره ی عکس را بیشتر کند! این جهت در مشتق جهتی (دلتا) مشخص می شود. دقت کنید که این جهت با توجه به قدم ما در فرآیند به سوی عکس تغییر می کند. اما منظور ما از شانس چیست؟ شانس همان احتمال تصویر اولیه است (یا همان حافظه ی ما از اتاق) اما ما با لگاریتم آن کار میکنیم. دلیل این کار این است که وقتی لگاریتم احتمال چیزی را حساب میکنیم در واقع «اندازه ی کد» (code length) لازم برای توصیف آن را محاسبه می کنیم. این «اندازه ی کد» در اصطلاح ترمودینامیکی به معنای «انرژی» هم هست. برای مثال در مورد دو تاس این اندازه ی کد همان تعداد حالات می شود! به صورت کلی ما احتمال یک پیکربندی (configuration) مورد نظر x را به صورت p(x) ~ exp(-E(x)) توصیف میکنیم. به این ترتیب می توان گفت ما در جهتی حرکت میکنیم که «اندازه کد» یا «انرژی» را به حداقل برساند.
بیست راه حل برای مساله ی سه جسم با جرم مساوی
?بی نهایت راه حل برای مساله ی سه جسم ?
آنچه به عنوان سامانه ی خورشیدی (solar system) میشناسیم که خودمان هم در یکی از آن ها هستیم شکل ساده ای است از یک ستاره و چندین سیاره که به دور آن میچرخند بنظر میرسید جهان ما مجموعه ای چنین سیستم هایی باشد و خارج از چنین سیستمی تنها میتوان اجرامی را تصور کرد که یا سر گردانند یا به هم برخورد میکنند بدون آنکه در یک «سیستم پایدار» بتوانند قرار بگیرد. اما چنین چیزی درست نیست!
در سال ۱۸۹۹ هنری پوانکاره به صورت ریاضی اثبات کرد که راه حل های ممکن برای مساله ی سه جسم (که چند جسم مانند سامانه ی خورشیدی ما بخشی از آن است) بی نهایت است! اما شرایط خاصی وجود دارد. اگر سه سیاره درگیر دارای جرم مساوی باشند چنین راه حل هایی پایدار هستند. در طول قرن بیستم ریاضیدانان ابتدا با روش های عددی و بعدها توسط کامپیوتر ها به جستجوی چنین راه حل هایی بر آمدند. در آخرین تلاش در سال ۲۰۲۳ گروهی از پژوهشگران ۱۲۴۰۹ راه حل جدید برای مساله ی سه جسم پیدا کردند که پایدار هستند. در شکل زیر تنها بیست مثال از آن ها را میبینید. اما چرا چنین سامانه هایی را نمیبینم؟ یکی از دلایل آن این است که شرط مساوی بودن جرم بسیار اساسی است اگر جرم ها حتی اگر با هم کمی تفاوت داشته باشند دینامیک در نهایت غیر پایدار است. با این حال می توان انتظار داشت که چنین سیستم هایی در جهان ما وجود دارند و برخی از آن ها هم مشاهده شده اند.
حالا سوال دیگری که پیش می آید این است که آیا سامانه ی خورشیدی ما پایدار است یا خیر؟ در این مورد باید گفت که چنین سامانه ای تا حد بسیار زیادی پایدار است و اندازه گیری ها نشان می دهند که حداقل تا چند میلیارد سال دیگر نگرانی از بابت برخورد سیارات به هم وجود ندارد.
این یافته اما نشان دهنده ی موضوع بسیار عمیقی است که در چند پست اخیر بر روی آن تمرکز بیشتری داشتیم: فهم ما از دینامیک در حال تغییر است و بر خلاف تصور گذشته که قوانین فیزیک تنها راه حل های ساده را نشان می دهند در عمل می توان دید که موسیقی دینامیک بسیار پیچیده تر و زیباتر است و کند و کاو بیشتر در آن سرچشمه هایی از آنچه پیچیدگی میشناسیم را نمایان می کند.
این توضیحات قطعا منشا حیات را توضیح نمی دهد اما دانش ما نسبت به فیزیک و قوانین اطلاعات نشان می دهد که «نظم» نتیجه ی ناگزیر قوانین خود طبیعت هستند! قوانین طبیعت کور نیستند و به صورت فعال الگوهایی می سازند که رویه های (submanifold) دقیقی در فضای فاز ایجاد می کنند! برای چنین نظمی نیازی به ناظم وجود ندارد! چیزی که نیاز است اما مطالعه بیشتر ما برای درک این است که پیچیدگی یک اتفاق در طبیعت نیست بلکه یک قانون است! نگاه کردن به قوانین به تنهایی و به صورت فروکاست گرایی (reductionist) مانند این است که فقط بر روی تک نوت های سمفونی باخ تمرکز کنید و تعجب کنید که موسیقی کجای آن است!
نسخه ی اصلی
?? ??? ?? ????? ?
We comply with Telegram's guidelines:
- No financial advice or scams
- Ethical and legal content only
- Respectful community
Join us for market updates, airdrops, and crypto education!
Last updated 8 months, 3 weeks ago
[ We are not the first, we try to be the best ]
Last updated 11 months, 1 week ago
FAST MTPROTO PROXIES FOR TELEGRAM
ads : @IR_proxi_sale
Last updated 7 months, 1 week ago