Канал для поиска исполнителей для разных задач и организации мини конкурсов
Last updated 1 month, 3 weeks ago
Есть ощущение, что индекс хирша всегда был с нами, но на самом деле он был предложен только в 2005 году. Обосновывался не последним образом как число которое коррелирует ((кендалл в районе 0.3 - 0.4)) с научными наградами вроде нобелевки.
Спустя 15 лет внезапно выяснилось, что ученые заоптимизировали его в край и теперь корреляция в районе нуля (справедливо как минимум для физиков).
Решение оказалось простым — аллоцировать хирш фракционно среди соавторов. Этой прекрасной статье уже три (!!!) года, но системного перехода на эту метрику замечено не было ?
Привет! Это ду́но.
Мы группа исследователей на базе AIRI. Нас можно знать как экс-команду из Tinkoff Research, которая делала заметный движ с Reinforcement Learning: 7 статей на NeurIPS / ICML за последние три года.
Этот канал — точка сборки, где мы будем рассказывать про наши новые статьи, технологии, проекты, эвенты и возможности поработать с нами. Мы строим свою работу на нескольких принципах:
— Technology-first. Построение frontier-технологий и движение научного дискурса рука об руку. Мы не занимаемся публикациями ради публикаций, наша работа направлена на поиск и разработку новых технологий.
— No new science, no new technology. Мы понимаем, что построение новых технологий невозможно без поиска и влёта с ноги в новые (иногда неочевидные и рисковые) научные области. Мы постоянно ищем их и размышляем, за какими из них будущее.
— Deep connections. Мы взращиваем студентов, стараясь образовывать стабильные и долгосрочные связи с ними за счет активного менторства. Мы не даём 50 идей для рисерча?и не бросаем студентов на волю судьбы, мы занимаемся наукой и технологиями вместе.
Построить ASI не обещаем, но интересные вещи сделаем и поделимся ими здесь с вами.
Stay tuned.
Зарелизили первый публичный и огромный (100 миллиардов таплов!) датасет для In-Context Reinforcement Learning'a. Ждем ваших апвоутов ❤️
https://huggingface.co/papers/2406.08973
huggingface.co
Paper page - XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning
Join the discussion on this paper page
Transformers Learn Temporal Difference Methods for In-Context Reinforcement Learning
cooked ?
a surprising emergent property of sac training - audio generation
Канал для поиска исполнителей для разных задач и организации мини конкурсов
Last updated 1 month, 3 weeks ago