?? ??? ?? ????? ?
We comply with Telegram's guidelines:
- No financial advice or scams
- Ethical and legal content only
- Respectful community
Join us for market updates, airdrops, and crypto education!
Last updated 6 months, 3 weeks ago
[ We are not the first, we try to be the best ]
Last updated 9 months, 1 week ago
FAST MTPROTO PROXIES FOR TELEGRAM
ads : @IR_proxi_sale
Last updated 5 months, 1 week ago
زبان صوتی تعامل هوش مصنوعی: Gibberlink
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعیها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار میکنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا دادهها رو سریع و دقیق بین سیستمهای هوش مصنوعی جابهجا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت میده.
این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف میزنن، میتونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که دادهها رو با امواج صوتی منتقل میکنه—یه چیزی تو مایههای صدای مودمهای قدیمی، ولی خیلی پیشرفتهتر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریعتر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایدهش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیتهاب هم به صورت متنباز منتشرش کردند.
حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودمهای تلفنی که داده رو با صوت میفرستادن، ولی ggwave این کار رو با یه روش مدرنتر و هوشمندانهتر انجام میده.
این سیستم رو یه توسعهدهنده بلغاری اولین بار سال 2020 توی گیتهاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاههایی که نمیتونن با وایفای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ دادهها رو به تکههای کوچیک 4 بیتی تقسیم میکنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری میکنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده میکنه در نتیجه صدایی که برای ما آدما مثل بوقهای عجیب و غریب یا صدای رباتها توی جنگ ستارگانه.
سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیهست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاهها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیهش، نشون دادن که میتونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش میکنه.
از نظر فنی، ggwave انعطافپذیره و روی پلتفرمهای مختلفی کار میکنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشیهای اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که میتونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمیشنویم) و پروتکل انتقال رو میتونی تغییر بدی. مثلاً پروتکلهای "Fastest" یا "Ultrasonic" داره که بسته به نیازت میتونی انتخاب کنی. خلاصه، ggwave یه ابزار جمعوجور و خلاقانهست که نشون میده چطور میشه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابهجا کرد ولی اینجا ازش به عنوان زبان مشترک مدلهای زبانی استفاده شده.
دیشب Sonnet3.7 منتشر شد.🥳
گویا واقعا زمین بازی رو عوض کرده!😊
یک ویژگی خیلی مثبتی که grok 3 داره اینه که در خروجی دادن خسیس نیست.
هر بار ازش میخوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب میده که توضیحاتش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی میخوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
#چالش جدید
من هنوز وقت نکردم جواب سوال قبلی رو بنویسم ولی بذارید یه سوال دیگه مطرح کنم?.
مساله: یک شبکه دارید که روی داده آموزش Overfit میکنه میخواهیم با تغییر در معماری شبکه(نه دادگان) عملکرد شبکه رو بهبود بدهیم:
این دو تا گزاره رو بطور نادقیق از من بپذیرید(ولی اگر میخواهید میتونید نقدش کنید)
1. به طور نادقیق میدونیم که یکی از علل Overfitting روی داده آموزش و عملکرد ضعیف روی داده ولیدیشن زیاد بودن ظرفیت(پارامترهای) شبکه به نسبت تعداد/ابعاد/پیچیدگی نمونه ورودی است.
2. مقالات بسیار نشان دادند هر قدر شبکه عمیقتر(تعداد لایهها بیشتر) باشد بهتر پترنهای داده را یاد میگیرد. علمیترش اینه به طور کلی افزایش عمق شبکه با افزایش expressiveness شبکه همراه است.
حالا با ثابت نگه داشتن شبکهی دستهبند که در انتهای شبکه که بعد از شبکهی Feature Extraction قرار میگیره میخواهیم ببنیم کدوم تغییر در شبکهی feature extraction منجر به رفع مشکل Overfitting میشه؟
1.? افزایش عمق(تعداد لایهها) شبکه با افزایش پارامترهای شبکه ولی کوچک کردن ابعاد فیچر وکتور خروجی شبکه Feature Extraction(تعداد پارامترها و ظرفیت شبکه زیاد میشود)
2.❤️ تعداد لایهها را کم میکنیم ولی ابعاد فیچر وکتور خروجی را افزایش میدهیم(تعداد پارامترها و ظرفیت را کم میکنیم ولی فضای ویژگی را بزرگ میکنیم)
یعنی من میخواهم به trade-off ظرفیت شبکه و expressiveness شبکه فکر کنید.
اگر نظرتون رو توضیح بدید چه بهتر ولی اگر حال ندارید برای گزینه یک ? و برای گزینه دو ❤️ ریاکشن بگذارید.
حقیقتا حس میکنم بقیهی مدلهای زبانی در برابر Sonnet3.5، در تمام موضوعات، یک چیزی در حد بچه ۱۴ ۱۵ ساله در برابر مرد ۴۰ ساله هستند.
کاش میتونستم بوسش کنم:))
طلیعهی جدید تحول در توسعه مدلهای یادگیری ماشین
در حالی که هنوز خیلیها حتی در کامیونیتی AI (چه برسد به بقیهی بچههای فنی) با تأثیر ابزارهایی مانند Cursor، Cline و GitHub Copilot در افزایش ویژه بهرهوری در برنامهنویسی آشنا نیستند، ما در آستانه ورود به دوره جدیدی از توسعه مدلهای یادگیری ماشین به صورت End2End و مبتنی بر ایجنت هستیم.
من درباره سیستمهایی صحبت میکنم مقالاتشون به تازگی منتشر شده و میشه و محصولاتشون هنوز در مرحله waitlist هستند. برای شروع برای اینکه بفهمید دارم از چی حرف میزنم اول نگاهی به گیف زیر از ایجنت Neo بیندازید. این فریمورک لینک چالش کگل را در ورودی میگیره، به صورت خودکار مساله یادگیری ماشین مربوط به چالش را تحلیل میکند. Neo با رویکرد multi-agent کار میکند: یک ایجنت مساله را میفهمد، سپس یک ایجنت data engineer دیتاست را دانلود و پیشپردازش میکند، مراحل ساخت مدل را از داده تا خروجی در یک فضای درخت تصمیم ترسیم میکند با یک ایجنت منتقد critic بهترین مسیر داده تا مدل مناسب را پیدا میکند، مدل را آموزش میدهد و نتایج را ارزیابی میکند.
اگر این ایجنتها در حد ایده استارتاپی بودند اصلا جدی نمیگرفتم چون ماهی صد تا از این استارتاپهای مولتی ایجنت مبتنی بر LLM میاد که بعد از چند وقت محو میشن و دیگه خبری ازشون نیست.
جدی بودن توسعه و آموزش مدل یادگیری ماشین بصورت end2end توسط multi-agent رو از مقاله بنچ مارک یک ماه پیش openAl موسوم به ML-Bench میشه بهش پی برد.
پروژههای متن بازی متعددی هم مثل AideML برای این کار ارائه شده، در بنچمارک MLE-bench اپنایآی که شامل ۷۵ چالش کگل است، عملکرد چشمگیری داشته و چهار برابر رقیب دوم مدال کسب کرده است. AIDE در آزمایشهای داخلی روی بیش از ۶۰ مسابقه Kaggle توانسته از ۵۰٪ شرکتکنندگان عملکرد بهتری داشته باشد. به نظر من اگه شخصی ۵۰ درصد بالایی شرکتکنندهای کگل در ۶۰ تسک مختلف
بطور اتفاقی به چشمم اومد که MetaGPT که از مشهورترین فریمورکهای multi-agen هست هم اخیراً اکستنشن SELA را معرفی کرده که اون هم یک AutoML مبتنی بر ایجنته. با بسط یک درخت تصمیم گسترده برای فضای راهحلها انتخاب مدل model selection هوشمندانهتری انجام میده و به کمک تکنیکی موسوم به Monte Carlo Tree Search، در فضای راهحلها جستجو میکنه و نسبت به مدلهای AutoML سنتی مدلهای بهینهتری رو برای آموزش انتخاب میکنه.
اگر دوست دارید موارد مشابه بیشتری ببینید خودتون یک نگاه به OpenHands بندازید.
به نظر میرسد طی ماههای آینده به شکل عملی با موجی از این تحولات مواجه خواهیم شد که صنعت توسعه یادگیری ماشین را متحول خواهد کرد. و LLMهایی که تا همین امروز به تهدیدی برای مهندسی نرمافزار تبدیل شده بودند امروز دارند به تهدیدی برای دیتاساینتیستها و مهندسین یادگیری ماشین تبدیل میشوند.
معرفی یک کورس دانشگاهی، آینهای برای دیدن زخمهای عمیق آکادمی ایران...
وقتی کورسهای جدیدی را که در دانشگاههای آمریکا، خصوصاً استنفورد و برکلی که خیلی در این مسئله پیشتاز هستند، در موضوعات روز میبینم به این نتیجه میرسم دانشگاه در ایران رسماً مرده!
به جز شریف که آن هم کاملاً به دو استاد مرتبط میشود یعنی دکتر رهبان و سلیمانی (و این هم کاملاً به انگیزه شخصی دو استاد برمیگردد و لاغیر)، بی اغراق من هیچ درسی در تحصیلات تکمیلی AI که موضوع آن دوره مبحث جدیدتری از مباحث ۲۰۱۶ باشد، ندیدهام.
حالا شما ببینید اصلاً این موضوع agentic AI هنوز به جایی نرسیده، خبری نیست، اما آمدهاند در برکلی کورسش کردهاند. کورس دانشگاهی شدن یه موضوع به این جدید غیر از این است که Andrew Ng در deeplearning.ai یک mini-course برگزار کند. چون در کورس دانشگاهی باید بتوانی اندازه شانزده هفتهی دو جلسه محتوای ارائه دهی و از آن پروژه و امتحان طرح کنی.
علتش این شکاف عمیق در بخش آموزش تحصیلات تکمیلی در ایران و آمریکا این است که دیگر در حداقل حوزه AI، تدریس از روی textbook دورهاش گذشته. اصلاً اینقدر سرعت تولید دانش زیاد است که نمیصرفد کسی از آن کتاب بنویسد. کتابش به سه ماه نرسیده شبیه کتابهای تاریخ میشود :) حالا استاد محترم حقیقتاً حال ندارد کورسی بگذارد که تکست بوک ندارد. چون نیاز به تسلط خیلی عمیق روی تعداد زیادی مقاله دارد و هم دانشجوهای بیانگیزه خستهات میکنند. در آن سر عالم، سالهاست یک استاد نیست که کورس را بگذارد. میکند استاد یک فهرست محتوا تدارک میبیند، مقدمات را خودش درس میدهد و در موارد تخصصی از پژوهشگر موضوعی مربوط به محتوا دعوت میکند آن موضوع را تدریس کند.
این را هم بگویم دوستان، این وضعیت تقصیر استاد نیست. استادی که در بهترین حالت در ۳۳ سالگی (در اکثر موارد بدون فرصت مطالعاتی و پسادکترا با سفارش ویژهی استاد راهنما در هیات جذب هیئت علمی میشود) و در معمول موارد در ۴۰ سالگی هیات علمی میشود و تازه بعد از این همه درس خواندن میخواهند بهش در حد نصف حقوق (دقت کنید نصف!) کارگرهای خانگی بنگلادشی توی امارات بدهند و اگر در ۶۰ سالگی استاد تمام شود در حد آن کارگر ساده بیمهارت بنگلادشی حقوق بگیرد. از استادی که لنگ حقوق و نان شب و اجاره خانه است توقعی نمیتوانی داشته باشی.
منی که بیش از یک دهه عمرم در دانشگاه بودم فقط و فقط در استاد و دانشجو افول دیدم و بس. تازه فقط مشکل حقوق استاد نیست، همین استاد باید کار چهار هیات علمی را بکند. علت هم کمبود شدید و پایین بودن نسبت تعداد هیئت علمی به دانشجو است. دیگر نه دانشگاه پول دارد هیات علمی استخدام کند و نه دیگر آدم باسوادی رزومه برای هیات جذب دانشگاهها میفرستد، چون یا اپلای میکنند یا وارد بازار کار میشوند. اگر وارد منجلاب هیات علمی شدن بشوند دیگر فراری نیست.
خیلی از آزمایشگاههای تحصیلات تکمیلی سالهاست که دیگر رسماً جلسه آزمایشگاه ندارند! چون دانشجو دکتری پسر که نمیتواند تا ۳۰ سالگی از جیب پدر بخورد باید کار کند. حتی اگر از سمت خانواده تامین باشد چون آن مدرک دکتری فردا که فارغالتحصیل شود بدون سابقه کاری موثر بیمعنی و بیفایده است. دانشجو هم کار میکند، استاد هم خیلی نمیتواند فشار بیاورد چون اگر فشار زیاد شود در جا انصراف میدهد (چندین مورد در این سالها دیدم).
وضعیت دانشجوی ارشد و کارشناسی جدید که والذاریاتی است قابل گفتن نیست...
خلاصه دانشگاهی که دانشجو و استادش مردهاند خودش هم میمیرد...
مساله این نیست که ما نمیفهمیم یا بلد نیستیم، مساله تمامش اقتصادی است. مساله امروز ما در همه چیز از جمله آکادمی GDP per Capita است. خدا میداند چند ماه پیش با استادم صحبت کردیم از حوزه رسالهام (که چهار پنج کورس سر و صاحبدار بیشتر ازش در دنیا نیست) یک کورس در دانشکده ارائه کنیم اما هم من هم استادم میدانستیم به نتیجه نمیرسد چون این کارها در کنار انگیزه وقت میخواهد. نه من و نه خودش وقت این کارها را نداریم. من عمده وقتم را کار میکنم نه پژوهش، آن هم خیلی حوصله ندارد ساعت کاریاش را در دانشگاه پر کند.
معرفی این کورس جدید Agentic AI هم سر درد و دل من را باز کرد...
خلاصه که وضعیت دانشگاه این مملکت شبیه بقیه چیزهایش هست، شبیه صنعت برقش، شبیه اقتصادش...
نشستهایم بالای سر پیکر محتضر این گربه عزیز فقط آه میکشیم ???.
از اینجا هم میتونید خلاصه مقاله رو بخونید.
نوبل فیزیک رو دادن به جفری هینتون:))? به خاطر کارش در بولتزمن ماشینها Boltzmann machine جایزه مشترک با جان هاپفیلد منبع
به به چه ابزاری❤️! کار دیتایی تو پایتون کرده باشین بسیار دیدین که نشت حافظه اتفاق میافته یا مثلا یک پایپلاین از فانکشنها پشت سر هم روی یک داده فراخوانی میشه براتون مهمه بدونید که هر کدوم از فانکشنها چقدر حافظه مصرف میکنند که اگه بعدا خواستید موازیسازی…
?? ??? ?? ????? ?
We comply with Telegram's guidelines:
- No financial advice or scams
- Ethical and legal content only
- Respectful community
Join us for market updates, airdrops, and crypto education!
Last updated 6 months, 3 weeks ago
[ We are not the first, we try to be the best ]
Last updated 9 months, 1 week ago
FAST MTPROTO PROXIES FOR TELEGRAM
ads : @IR_proxi_sale
Last updated 5 months, 1 week ago