Первый онлайн-переводчик междустрочного текста из ведущих и ведомых СМИ. ѣѣ
Похвалить, поругаться, предложить новость, разместить рекламу
???
@Otsuka_mail
Last updated 3 months, 2 weeks ago
⭐ АВАТАРКИ НА ВАШ ВКУС
▫️По вопросам: @Solnzelikii
▫️По рекламе: @Solnzelikii
❗Реклама нужна исключительно для продвижения канала❗
Пригласить друга — https://t.me/+uoFWvRi_7EJlYTdi
Last updated 2 months, 3 weeks ago
⚡️Локатор скидок до -99% на Wildberries
? Ссылка на канал: @WbLocator
? Реклама товаров: @RoseanneGayden
? Реклама каналов и брендов: @ArtKrit
Last updated 1 year, 5 months ago
почему не МЁБИЙ
Будет забавно, если на человеческом коллективном бессознательном натренируются нейросетевые роботы, и они действительно займут Землю. Человечество вымрет, а синты так и будут по инерции повторять: «Что такое сознание?» — как философские зомби, не способные осознать, что они роботы, потому что обучены на людских мыслях, а у людей нет такого понятия, как осознание себя роботом.
Кто умножает матрицы, тот умножает скорбь.
Про Искусственный интеллект.
В Фейсбуке придумали добавлять в группы ИИ-чатботов. Конечно же, не спрашивая ни у аудитории, ни у создателей, ни у админов группы. Просто сверху спускали: это теперь ваш новый друг, он будет влезать в комментариях в ваши разговоры.
На этом в общем-то можно было бы и закончить рассказ, потому что оно само по себе достаточно возмутительно.
Но среди прочих групп бота добавили в крупный паблик грибников. Где начинающие собиратели выкладывали фотки собранного и спрашивали, что это за гриб и как его готовить.
Что было дальше, все уже догадались: бот начал давать советы по приготовлению несъедобных грибов.
В частности, рассказывал, как тушить и солить саркосферу, которая считается ядовитой, очень интенсивно накапливает мышьяк, и к тому же занесена в красную книгу, то есть, где-то собирать её вообще незаконно (а ещё она выглядит так, что как вообще может в голову прийти это есть...)
Ладно бы он это делал только в комментариях, там его могли забросать гнилыми подосиновиками белковые грибники. Но в описании бота есть призыв спрашивать у него советы в чате один на один.
Казалось бы, год назад был скандал с Amazon, который забил ассортимент книг про сбор грибов кучей сгенерированных ИИ изданий. На некоторых это было честно указано, некоторые выдавались за написанные людьми.
А так, перспективы раскрываются восхитительные. Грибы ерунда, представьте, как здорово будет добавить чат-бота в какую-нибудь группу обсуждений "средств и рецептов народной медицины". Ну такие вот, где народ друг другу советует закапывать в нос детям чесночный сок, пить скипидар, класть на ночь в носки живых летучих мышей при простуде... Поняв общий принцип и обучившись на соответствующем контенте, один чат-бот реально сможет выкосить половину человечества
ВК, Людмила Кудрявцева
https://vk.com/wall1509206_102145
Из рубрики «Философские притчи»
Однажды философ Иванов привык повторять: «Корреляция не означает каузацию». И при этом он делал очень умный вид и часто добавлял: «Это очень глубокая философская проблема».
А еще он много рассуждал о ментальной каузальности, но при этом не употреблял фразу о корреляции и каузации.
Но вот однажды он выбирал в магазине арбуз, и его осенило (арбуз в этой мысли не участвовал): ментальное и физическое коррелируют, но они не связаны каузальностью.
И он был совершенно прав. И к физическому (мозгу), и к ментальному (душе) идет один и тот же сигнал из одного управляющего центра. Это сделано в целях синхронизации, как и во многих других технических устройствах. Поэтому и мозг, и душа проигрывают одно и то же, но между собой они никак не связаны.
Это полезные сведения для тех, кто интересуется философией сознания.
Удивительное свойство мозга: когда сам бросил диссер - с искренним удивлением спрашиваешь других: "а чё ты не вернёшься спустя десять лет и не допишешь, тебе, по сути, только защититься осталось"
Почему я не боюсь, что нейросети вытеснят меня с рынка труда?
1.В райтинге важно правильно расставлять акценты. Типичное задание: "Напиши хвалебный текст про етого вот, но так чтобы по прочтении у всех сложилось однозначное впечатление, что герой - просто невыносимая мразь". Нейросеть никогда не добьется такого блядского мерцания, такого омерзительного эффекта "смены аспекта".
2.Смысл пиар-услуг в том, чтобы называть черное белым, а белое - черным. Роботам это запрещено
3.Еще более глубокий, подлинный смысл райтинга в обмене унижений на деньги. Ты никогда не сможешь править и поучать нейросеть. Никогда не добьешься, чтобы у нее прямо всю рожу перекосоебило и багровая пелена перед глазами. Сколько ни взывай "Ману, пусть резиновой женщине будет больно, когда я тушу о нее окурки!", она никогда не станет твоей сучкой. А я стану
Physics of Language Models
Я в своей жизни ML занимался довольно мало, но в последнее время решил все-таки по-лучше разобраться. Так что иногда (частота зависит от количества лайков ?) буду постить краткие пересказы статей/докладов, которые мне показались интересными.
Мне очень не нравится идея смотреть на LLM, как на какой-то черный ящик, который каким-то магическим образом учится, и, нужно всего лишь увеличить количество параметров в нем, обучить на большем количестве данных, и тогда он станет гораздо умнее и вдруг научится решать всякие задачи.
В докладе Physics of language models авторы тренируют относительно маленькие модели (100М параметров) на синтетических данных, и смотрят, какие задачи LLM могут решать, а какие нет.
Например, оказывается что LLM даже теоретически не могут научиться отвечать на вопрос вида "Правда ли, что Байден родился в четном году?" при том, что они прекрасно знают в каком году он родился, и знают, какие числа четные. Оказывается, что дело в порядке токенов. Если бы ответ был в формате "Байден родился в году 1942, это четное число, ответ да", то все бы работало. Но если хочется получить ответ в формате "Да, потому что он родился в ...", то в момент написания первого токена у LLM еще не будет числа 1942 "в контексте" и она не сможет выбрать правильный ответ. И такая проблема есть у любых моделей вне зависимости от размера.
По аналогичным соображениям, если в датасете было написано только "X родился в городе Y", то модель никогда не сможет научиться правильно отвечать на обратный вопрос "кто родился в городе Y?" (потому что в "памяти" модели будет мапинг X->Y, но не в обратную сторону).
Еще из прикольного в докладе показывают, что можно обучить текстовую модель делать топологическую сортировку графа. При этом можно проследить, что в "состоянии" модели во время инференса действительно будет храниться множество посещенных вершин и тех вершин, которые можно посетить на следующем шагу.
“Мотивация и тревога” — мы-монологичный опус в девяти частях.
Объем: большой, но дробный и почти независимый.
Сложность: от простого к средне-сложному.
Содержание:
Часть 1: тревога и движение
Часть 2: принятие тревоги и самоподдержка
Часть 3: прокрастинация и неизбежное
Часть 4: приоритеты и работа с задачами
Часть 5: вопросы собственной тревоги или переломная середина
Часть 6: общество и игра
Часть 7: интеграция и балансировка
Часть 8: (по)знаем себя
Часть 9: автоматизм и свобода
Двигаясь к своим целям, мы можем однажды обнаружить, что не знаем, где оказались и что нам делать. Вероятно, мы попали в тупик. Возможно, мы потеряли в нем ощущение смысла, а тревога заполнила всю окружающую пустоту.
Попытаемся же по порядку разобраться, что мы забыли и что следует вспомнить в ситуации тревожной утраты мотивации. Начнем с понятного, а далее поищем, куда нам следует вернуться, чтобы оказаться на своем месте и продолжить путь.
Ненене, из того, что глубина здесь редуцируется к форме рассуждения не следует, что человек не туп как пробка.
Первый онлайн-переводчик междустрочного текста из ведущих и ведомых СМИ. ѣѣ
Похвалить, поругаться, предложить новость, разместить рекламу
???
@Otsuka_mail
Last updated 3 months, 2 weeks ago
⭐ АВАТАРКИ НА ВАШ ВКУС
▫️По вопросам: @Solnzelikii
▫️По рекламе: @Solnzelikii
❗Реклама нужна исключительно для продвижения канала❗
Пригласить друга — https://t.me/+uoFWvRi_7EJlYTdi
Last updated 2 months, 3 weeks ago
⚡️Локатор скидок до -99% на Wildberries
? Ссылка на канал: @WbLocator
? Реклама товаров: @RoseanneGayden
? Реклама каналов и брендов: @ArtKrit
Last updated 1 year, 5 months ago