Dev Tweet

Description
گعده‌ای در باب برنامه نویسی، پایتون، هوش مصنوعی و داده
We recommend to visit

?? ??? ?? ????? ?

We comply with Telegram's guidelines:

- No financial advice or scams
- Ethical and legal content only
- Respectful community

Join us for market updates, airdrops, and crypto education!

Last updated 6 months, 3 weeks ago

[ We are not the first, we try to be the best ]

Last updated 9 months, 1 week ago

FAST MTPROTO PROXIES FOR TELEGRAM

ads : @IR_proxi_sale

Last updated 5 months, 1 week ago

3 months, 2 weeks ago

زبان صوتی تعامل هوش مصنوعی: Gibberlink
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعی‌ها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار می‌کنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا داده‌ها رو سریع و دقیق بین سیستم‌های هوش مصنوعی جابه‌جا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت می‌ده.

این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف می‌زنن، می‌تونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که داده‌ها رو با امواج صوتی منتقل می‌کنه—یه چیزی تو مایه‌های صدای مودم‌های قدیمی، ولی خیلی پیشرفته‌تر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریع‌تر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایده‌ش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیت‌هاب هم به صورت متن‌باز منتشرش کردند.

حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودم‌های تلفنی که داده رو با صوت می‌فرستادن، ولی ggwave این کار رو با یه روش مدرن‌تر و هوشمندانه‌تر انجام می‌ده.
این سیستم رو یه توسعه‌دهنده بلغاری اولین بار سال 2020 توی گیت‌هاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاه‌هایی که نمی‌تونن با وای‌فای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ داده‌ها رو به تکه‌های کوچیک 4 بیتی تقسیم می‌کنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری می‌کنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده می‌کنه در نتیجه صدایی که برای ما آدما مثل بوق‌های عجیب و غریب یا صدای ربات‌ها توی جنگ ستارگانه.

سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیه‌ست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاه‌ها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیه‌ش، نشون دادن که می‌تونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش می‌کنه.

از نظر فنی، ggwave انعطاف‌پذیره و روی پلتفرم‌های مختلفی کار می‌کنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشی‌های اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که می‌تونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمی‌شنویم) و پروتکل انتقال رو می‌تونی تغییر بدی. مثلاً پروتکل‌های "Fastest" یا "Ultrasonic" داره که بسته به نیازت می‌تونی انتخاب کنی. خلاصه، ggwave یه ابزار جمع‌وجور و خلاقانه‌ست که نشون می‌ده چطور می‌شه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابه‌جا کرد ولی اینجا ازش به عنوان زبان مشترک مدل‌های زبانی استفاده شده.

3 months, 3 weeks ago

دیشب Sonnet3.7 منتشر شد.🥳
گویا واقعا زمین بازی رو عوض کرده!😊

3 months, 3 weeks ago

یک ویژگی خیلی مثبتی که grok 3 داره اینه که در خروجی دادن خسیس نیست.
هر بار ازش می‌خوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب می‌ده که توضیحات‌ش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی می‌خوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.

6 months, 3 weeks ago

#چالش جدید
من هنوز وقت نکردم جواب سوال قبلی رو بنویسم ولی بذارید یه سوال دیگه مطرح کنم?.
مساله: یک شبکه دارید که روی داده آموزش Overfit می‌کنه می‌خواهیم با تغییر در معماری شبکه(نه دادگان) عملکرد شبکه رو بهبود بدهیم:
این دو تا گزاره رو بطور نادقیق از من بپذیرید(ولی اگر می‌خواهید میتونید نقدش کنید)
1. به طور نادقیق میدونیم که یکی از علل Overfitting روی داده آموزش و عملکرد ضعیف روی داده ولیدیشن زیاد بودن ظرفیت(پارامترهای) شبکه به نسبت تعداد/ابعاد/پیچیدگی نمونه ورودی است.
2. مقالات بسیار نشان دادند هر قدر شبکه‌ عمیق‌تر(تعداد لایه‌ها بیشتر) باشد بهتر پترن‌های داده را یاد می‌گیرد. علمی‌ترش اینه به طور کلی افزایش عمق شبکه با افزایش expressiveness شبکه همراه است.
حالا با ثابت نگه داشتن شبکه‌ی دسته‌بند که در انتهای شبکه که بعد از شبکه‌ی Feature Extraction قرار می‌گیره می‌خواهیم ببنیم کدوم تغییر در شبکه‌ی feature extraction منجر به رفع مشکل Overfitting میشه؟
1.? افزایش عمق(تعداد لایه‌ها) شبکه با افزایش پارامترهای شبکه ولی کوچک کردن ابعاد فیچر وکتور خروجی شبکه Feature Extraction(تعداد پارامترها و ظرفیت شبکه زیاد می‌شود)
2.❤️ تعداد لایه‌ها را کم می‌کنیم ولی ابعاد فیچر وکتور خروجی را افزایش می‌دهیم(تعداد پارامترها و ظرفیت را کم می‌کنیم ولی فضای ویژگی را بزرگ می‌کنیم)
یعنی من می‌خواهم به trade-off ظرفیت شبکه و expressiveness شبکه فکر کنید.
اگر نظرتون رو توضیح بدید چه بهتر ولی اگر حال ندارید برای گزینه یک ? و برای گزینه دو ❤️ ری‌اکشن بگذارید.

6 months, 4 weeks ago

حقیقتا حس میکنم بقیه‌ی مدل‌های زبانی در برابر Sonnet3.5، در تمام موضوعات، یک چیزی در حد بچه ۱۴ ۱۵ ساله در برابر مرد ۴۰ ساله هستند.
کاش میتونستم بوس‌ش کنم:))

7 months ago
**طلیعه‌ی جدید تحول در توسعه مدل‌های …

طلیعه‌ی جدید تحول در توسعه مدل‌های یادگیری ماشین

در حالی که هنوز خیلی‌ها حتی در کامیونیتی AI (چه برسد به بقیه‌ی بچه‌های فنی) با تأثیر ابزارهایی مانند Cursor، Cline و GitHub Copilot در افزایش ویژه بهره‌وری در برنامه‌نویسی آشنا نیستند، ما در آستانه ورود به دوره جدیدی از توسعه مدل‌های یادگیری ماشین به صورت End2End و مبتنی بر ایجنت هستیم.

من درباره سیستم‌هایی صحبت می‌کنم مقالاتشون به تازگی منتشر شده و میشه و محصولاتشون هنوز در مرحله waitlist هستند. برای شروع برای اینکه بفهمید دارم از چی حرف می‌زنم اول نگاهی به گیف زیر از ایجنت Neo بیندازید. این فریم‌ورک لینک چالش کگل را در ورودی میگیره، به صورت خودکار مساله یادگیری ماشین مربوط به چالش را تحلیل می‌کند. Neo با رویکرد multi-agent کار می‌کند: یک ایجنت مساله را می‌فهمد، سپس یک ایجنت data engineer دیتاست را دانلود و پیش‌پردازش می‌کند، مراحل ساخت مدل را از داده تا خروجی در یک فضای درخت تصمیم ترسیم میکند با یک ایجنت منتقد critic بهترین مسیر داده تا مدل مناسب را پیدا می‌کند، مدل را آموزش می‌دهد و نتایج را ارزیابی می‌کند.
اگر این ایجنت‌ها در حد ایده استارتاپی بودند اصلا جدی نمی‌گرفتم چون ماهی صد تا از این استارتاپهای مولتی ایجنت مبتنی بر LLM میاد که بعد از چند وقت محو میشن و دیگه خبری ازشون نیست.
جدی بودن توسعه و آموزش مدل یادگیری ماشین بصورت end2end توسط multi-agent رو از مقاله بنچ مارک یک ماه پیش openAl موسوم به ML-Bench میشه بهش پی‌ برد.
پروژه‌های متن بازی متعددی هم مثل AideML برای این کار ارائه شده، در بنچ‌مارک MLE-bench اپن‌ای‌آی که شامل ۷۵ چالش کگل است، عملکرد چشمگیری داشته و چهار برابر رقیب دوم مدال کسب کرده است. AIDE در آزمایش‌های داخلی روی بیش از ۶۰ مسابقه Kaggle توانسته از ۵۰٪ شرکت‌کنندگان عملکرد بهتری داشته باشد. به نظر من اگه شخصی ۵۰ درصد بالایی شرکت‌‌‌کننده‌ای کگل در ۶۰ تسک مختلف

بطور اتفاقی به چشم‌م اومد که MetaGPT که از مشهورترین فریم‌ورک‌های multi-agen هست هم اخیراً اکستنشن SELA را معرفی کرده که اون هم یک AutoML مبتنی بر ایجنته. با بسط یک درخت تصمیم گسترده برای فضای راه‌حل‌ها انتخاب مدل model selection هوشمندانه‌تری انجام میده و به کمک تکنیکی موسوم به Monte Carlo Tree Search، در فضای راه‌حل‌ها جستجو می‌کنه و نسبت به مدل‌های AutoML سنتی مدل‌های بهینه‌تری رو برای آموزش انتخاب می‌کنه.
اگر دوست دارید موارد مشابه بیشتری ببینید خودتون یک نگاه به OpenHands بندازید.
به نظر می‌رسد طی ماه‌های آینده به شکل عملی با موجی از این تحولات مواجه خواهیم شد که صنعت توسعه یادگیری ماشین را متحول خواهد کرد. و LLMهایی که تا همین امروز به تهدیدی برای مهندسی نرم‌افزار تبدیل شده بودند امروز دارند به تهدیدی برای دیتاساینتیست‌ها و مهندسین یادگیری ماشین تبدیل می‌شوند.

8 months ago
**معرفی یک کورس دانشگاهی، آینه‌ای برای …

معرفی یک کورس دانشگاهی، آینه‌ای برای دیدن زخم‌های عمیق آکادمی ایران...

وقتی کورس‌های جدیدی را که در دانشگاه‌های آمریکا، خصوصاً استنفورد و برکلی که خیلی در این مسئله پیشتاز هستند، در موضوعات روز می‌بینم به این نتیجه می‌رسم دانشگاه در ایران رسماً مرده!

به جز شریف که آن هم کاملاً به دو استاد مرتبط می‌شود یعنی دکتر رهبان و سلیمانی (و این هم کاملاً به انگیزه شخصی دو استاد برمی‌گردد و لاغیر)، بی اغراق من هیچ درسی در تحصیلات تکمیلی AI که موضوع آن دوره مبحث جدیدتری از مباحث ۲۰۱۶ باشد، ندیده‌ام.

حالا شما ببینید اصلاً این موضوع agentic AI هنوز به جایی نرسیده، خبری نیست، اما آمده‌اند در برکلی کورسش کرده‌اند. کورس دانشگاهی شدن یه موضوع به این جدید غیر از این است که Andrew Ng در deeplearning.ai یک mini-course برگزار کند. چون در کورس دانشگاهی باید بتوانی اندازه شانزده هفته‌ی دو جلسه محتوای ارائه دهی و از آن پروژه و امتحان طرح کنی.

علتش این شکاف عمیق در بخش آموزش تحصیلات تکمیلی در ایران و آمریکا این است که دیگر در حداقل حوزه AI، تدریس از روی textbook دوره‌اش گذشته. اصلاً این‌قدر سرعت تولید دانش زیاد است که نمی‌صرفد کسی از آن کتاب بنویسد. کتابش به سه ماه نرسیده شبیه کتاب‌های تاریخ می‌شود :) حالا استاد محترم حقیقتاً حال ندارد کورسی بگذارد که تکست بوک ندارد. چون نیاز به تسلط خیلی عمیق روی تعداد زیادی مقاله دارد و هم دانشجوهای بی‌انگیزه خسته‌ات می‌کنند. در آن سر عالم، سال‌هاست یک استاد نیست که کورس را بگذارد. می‌کند استاد یک فهرست محتوا تدارک می‌بیند، مقدمات را خودش درس می‌دهد و در موارد تخصصی از پژوهشگر موضوعی مربوط به محتوا دعوت می‌کند آن موضوع را تدریس کند.

این را هم بگویم دوستان، این وضعیت تقصیر استاد نیست. استادی که در بهترین حالت در ۳۳ سالگی (در اکثر موارد بدون فرصت مطالعاتی و پسا‌دکترا با سفارش ویژه‌ی استاد راهنما در هیات جذب هیئت علمی می‌شود) و در معمول موارد در ۴۰ سالگی هیات علمی می‌شود و تازه بعد از این همه درس خواندن می‌خواهند بهش در حد نصف حقوق (دقت کنید نصف!) کارگرهای خانگی بنگلادشی توی امارات بدهند و اگر در ۶۰ سالگی استاد تمام شود در حد آن کارگر ساده بی‌مهارت بنگلادشی حقوق بگیرد. از استادی که لنگ حقوق و نان شب و اجاره خانه است توقعی نمی‌توانی داشته باشی.

منی که بیش از یک دهه عمرم در دانشگاه بودم فقط و فقط در استاد و دانشجو افول دیدم و بس. تازه فقط مشکل حقوق استاد نیست، همین استاد باید کار چهار هیات علمی را بکند. علت هم کمبود شدید و پایین بودن نسبت تعداد هیئت علمی به دانشجو است. دیگر نه دانشگاه پول دارد هیات علمی استخدام کند و نه دیگر آدم باسوادی رزومه برای هیات جذب دانشگاه‌ها می‌فرستد، چون یا اپلای می‌کنند یا وارد بازار کار می‌شوند. اگر وارد منجلاب هیات علمی شدن بشوند دیگر فراری نیست.

خیلی از آزمایشگاه‌های تحصیلات تکمیلی سال‌هاست که دیگر رسماً جلسه آزمایشگاه ندارند! چون دانشجو دکتری پسر که نمی‌تواند تا ۳۰ سالگی از جیب پدر بخورد باید کار کند. حتی اگر از سمت خانواده تامین باشد چون آن مدرک دکتری فردا که فارغ‌التحصیل شود بدون سابقه کاری موثر بی‌معنی و بی‌فایده است. دانشجو هم کار می‌کند، استاد هم خیلی نمی‌تواند فشار بیاورد چون اگر فشار زیاد شود در جا انصراف می‌دهد (چندین مورد در این سال‌ها دیدم).
وضعیت دانشجوی ارشد و کارشناسی جدید که والذاریاتی است قابل گفتن نیست...
خلاصه دانشگاهی که دانشجو و استادش مرده‌اند خودش هم می‌میرد...

مساله این نیست که ما نمی‌فهمیم یا بلد نیستیم، مساله تمامش اقتصادی است. مساله امروز ما در همه چیز از جمله آکادمی GDP per Capita است. خدا می‌داند چند ماه پیش با استادم صحبت کردیم از حوزه رساله‌ام (که چهار پنج کورس سر و صاحب‌دار بیشتر ازش در دنیا نیست) یک کورس در دانشکده ارائه کنیم اما هم من هم استادم می‌دانستیم به نتیجه نمی‌رسد چون این کارها در کنار انگیزه وقت می‌خواهد. نه من و نه خودش وقت این کارها را نداریم. من عمده وقتم را کار می‌کنم نه پژوهش، آن هم خیلی حوصله ندارد ساعت کاری‌اش را در دانشگاه پر کند.

معرفی این کورس جدید Agentic AI هم سر درد و دل من را باز کرد...

خلاصه که وضعیت دانشگاه این مملکت شبیه بقیه چیزهایش هست، شبیه صنعت برقش، شبیه اقتصادش...

نشسته‌ایم بالای سر پیکر محتضر این گربه عزیز فقط آه می‌کشیم ???.

8 months ago
از [اینجا](https://t.me/cvision/3734) هم میتونید خلاصه مقاله …

از اینجا هم میتونید خلاصه مقاله رو بخونید.

8 months, 1 week ago

نوبل فیزیک رو دادن به جفری هینتون:))? به خاطر کارش در بولتزمن ماشین‌ها Boltzmann machine جایزه مشترک با جان هاپفیلد منبع

11 months, 1 week ago

به به چه ابزاری❤️! کار دیتایی تو پایتون کرده باشین بسیار دیدین که نشت حافظه اتفاق می‌افته یا مثلا یک پایپلاین از فانکشن‌ها پشت سر هم روی یک داده فراخوانی میشه براتون مهمه بدونید که هر کدوم از فانکشن‌ها چقدر حافظه مصرف می‌کنند که اگه بعدا خواستید موازی‌سازی…

We recommend to visit

?? ??? ?? ????? ?

We comply with Telegram's guidelines:

- No financial advice or scams
- Ethical and legal content only
- Respectful community

Join us for market updates, airdrops, and crypto education!

Last updated 6 months, 3 weeks ago

[ We are not the first, we try to be the best ]

Last updated 9 months, 1 week ago

FAST MTPROTO PROXIES FOR TELEGRAM

ads : @IR_proxi_sale

Last updated 5 months, 1 week ago