Канал для поиска исполнителей для разных задач и организации мини конкурсов
Last updated 2 months, 1 week ago
Также идёт новый набор на MATS - одна из топовых ресерч-программ в AI Safety
Длится 10 недель и проходит в Беркли (расходы оплачиваются, стипендия ~$12k), участники будут работать с менторами из ведущих компаний в области (Anthropic, Google DeepMind, MIRI).
Доступно много треков менторов от интерпретируемости и агентности до AI Red Teaming.
Отбор намного сложнее, чем на AISF. Одна заявка может занимать больше нескольких часов.
Дедлайн также до 6 октября
Сейфти-лаборатория Palisade ищет исследователей.
Ребята делают анализ, технический рисёрч и демо, чтобы политики понимали, что они регулируют в AI.
Например, Palisade снял safety с моделей Llama, анонсированных как "safe and responsible", за несколько GPU-минут и довёл этот результат до Сената. Другой проект—это "партийный переводчик" для браузера, который переписывает сайты по разным политическим повесткам.
Ищут на следующие позиции, удалённо или в Тбилиси (также в планах офис в Польше):
LLM generalist
ML/NLP specialist
Analyst
(Везде ставки такие: Intern - 1k$, Middle - 3k$, Senior - 5k$)
Dissemination specialist/lead: 3-5k$
Работа вне РФ
Обещают отвечать на CV в течение 3х дней (в отличие от некоторых других лаб). Подаваться сюда: @knikolaj
AIRI - одно из немногих мест в России, где занимаются технической безопасностью ИИ. Завтра закрывается прием заявок в их летнюю школу, где одно из направлений - доверенный ИИ
tl;dr: middle SWE, $75k-140k/year, EA, London
Быстрый переезд в Лондон для миддла: мы ищем в BlueDot Impact! Они растут и решили нанять к себе первого фуллтайм-разработчика :)
BlueDot — это ЭА организация, которая делает образование про AI Safety и biosecurity. Например, именно они создали AGISF — самый известный сейфти-курс, который мы, кстати, советуем.
Курсы BlueDot помогли тысячам крутых людей разобраться в AI safety и других глобальных рисках для человества, а многим и поменять свой карьерный путь. Это вакансия с очень понятным импактом — и нечастая для инженеров возможность напрямую влиять на безопасное будущее ?
Им нужен заалайненный миддл-инженер — тот, кто много знает про AI риски и вообще эффективный альтруизм, в свободное время читает посты на lesswrong и мечтает предотвратить следующую пандемию ?
Готовы смотреть даже с парой лет опыта.
Что по задачам?
Вы будете первым, так что надо будет делать... много всего!
?чинить: текущая инфраструктура пока не вывозит больше 5 курсов и 1000 студентов разом, и с этим точно нужно что-то сделать за первые полгода;
?оптимизировать: например, нужно новое решение для эффективного мэтчинга между выпускниками и вакансиями;
?придумывать: когда вы уже погрузитесь в проект — сможете разработать с нуля новую систему, которая без лагов справится с кратным увеличением числа и курсов, и студентов ?
Основной стек — TypeScript и React, но не страшно, если вы писали на чем-то другом высокоуровневом.
Платят $75k-140k в год + неожиданные плюшки вроде $6500 в год в виде mental health allowance! Хотят перевезти вас в Лондон, но готовы обсуждать и ремоут.
Присылайте мотивационные письма и резюме Феде @owlkov — он тоже волнуется за судьбу мира!
Позиция горит и открыта до конца недели — успейте пореферить своих друзей! ?
AI Safety Fundamentals Governance Course
Ридинг группа + проект, 12 недель, онлайн.
Дедлайн - 13 марта.
Подать заявку
Cambridge Machine Learning for Alignment Bootcamp
Двухнедельная программа в апреле, где участников научат основам машинного обучения (PyTorch, TransformerLens, GPTs, Resnets).
Есть офлайн (Кембридж) и онлайн стримы.
Дедлайн - 25 февраля.
Подать заявку
Канал для поиска исполнителей для разных задач и организации мини конкурсов
Last updated 2 months, 1 week ago