
Mikhail Samin
Nate Soares:
This is an occasional reminder that I think pushing the frontier of AI capabilities in the current paradigm is highly anti-social, and contributes significantly in expectation to the destruction of everything I know and love. To all doing that who read this: I request you stop.
(There's plenty of other similarly fun things you can do instead! Like trying to figure out how the heck modern AI systems work as well as they do, preferably with a cross-organization network of people who commit not to using their insights to push the capabilities frontier before they understand what the hell they're doing![1])
(I reiterate that this is not a request to stop indefinitely; I think building AGI eventually is imperative[2]; I just think literally every human will be killed at once if we build AGI before we understand what the hell we're doing.)
This is an occasional reminder that I think pushing the frontier of AI capabilities in the current paradigm is highly anti-social, and contributes significantly in expectation to the destruction of everything I know and love. To all doing that who read this: I request you stop.
(There's plenty of other similarly fun things you can do instead! Like trying to figure out how the heck modern AI systems work as well as they do, preferably with a cross-organization network of people who commit not to using their insights to push the capabilities frontier before they understand what the hell they're doing![1])
(I reiterate that this is not a request to stop indefinitely; I think building AGI eventually is imperative[2]; I just think literally every human will be killed at once if we build AGI before we understand what the hell we're doing.)
Lesswrong
If interpretability research goes well, it may get dangerous — LessWrong
I've historically been pretty publicly supportive of interpretability research. I'm still supportive of interpretability research. However, I do not…

Mikhail Samin
https://www.deepmind.com/blog/an-early-warning-system-for-novel-ai-risks
У DeepMind вышла статья о необходимости оценивать опасность моделей в соавторстве с OpenAI, Anthropic и Alignment Research Center
У DeepMind вышла статья о необходимости оценивать опасность моделей в соавторстве с OpenAI, Anthropic и Alignment Research Center
Deepmind
An early warning system for novel AI risks
AI researchers already use a range of evaluation benchmarks to identify unwanted behaviours in AI systems, such as AI systems making misleading statements, biased decisions, or repeating copyrighted content. Now, as the AI community builds and deploys increasingly…

Mikhail Samin
Mikhail Samin
https://www.deepmind.com/blog/an-early-warning-system-for-novel-ai-risks У DeepMind вышла статья о необходимости оценивать опасность моделей в соавторстве с OpenAI, Anthropic и Alignment Research Center
Ещё среди соавторов Yoshua Bengio — второй из трёх «крёстных отцов» искусственного интеллекта, топ-6 учёных мира по индексу Хирша за последние шесть лет. Он несколько дней назад опубликовал обзор риска — гораздо более аккуратный в формулировках, чем обычно используют в сообществе алайнмента, но интересно, как это начинают в меинстримном ML воспринимать
https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/
https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/
Yoshua Bengio
How Rogue AIs may Arise - Yoshua Bengio
This post discusses how rogue AIs could potentially arise, in order to stimulate thinking and investment in both technical research and societal reforms aimed at minimizing such catastrophic outcomes.

Mikhail Samin
Statement on AI risk, подписанный руководителями OpenAI, Google DeepMind, Anthropic, тремя обладателями Премии Тьюринга и др.:
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
https://www.safe.ai/statement-on-ai-risk
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
https://www.safe.ai/statement-on-ai-risk
Center for AI Safety
Statement on AI Risk | CAIS
A statement jointly signed by a historic coalition of experts: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”

Mikhail Samin
1200 трёхтомников отправлены победителям олимпиад, 800 — в библиотеки, но остаются ещё тысячи. Поэтому дарю книжки!
📚 Если до конца октября пройдёте AI Safety Fundamentals — свободный курс о проблеме алайнмента, которой занимается Юдковский, который создали при поддержке сотрудников OpenAI, DeepMind и Anthropic (материалы на английском), подарю вам трёхтомник ГПиМРМ.
Бесплатные самовывоз в Москве и курьерская доставка по России. После прохождения пишите мне в личные сообщения.
Курс — https://course.aisafetyfundamentals.com/alignment
(На всякий случай: предложение в первую очередь для тех, кто может пройти курс в оригинале. к сожалению, если вы проходите курс с помощью переводчика многие детали могут быть утеряны; если вы поймёте все материалы курса, мы готовы будем отправить вам книги; если понятно, что вы действительно всё прошли, но понимаете какие-то моменты так себе, можно будет забрать экземпляр самовывозом; если какие-то из ключевых моментов не удалось понять, к сожалению, такого прохождения недостаточно)
📚 Если до конца октября пройдёте AI Safety Fundamentals — свободный курс о проблеме алайнмента, которой занимается Юдковский, который создали при поддержке сотрудников OpenAI, DeepMind и Anthropic (материалы на английском), подарю вам трёхтомник ГПиМРМ.
Бесплатные самовывоз в Москве и курьерская доставка по России. После прохождения пишите мне в личные сообщения.
Курс — https://course.aisafetyfundamentals.com/alignment
(На всякий случай: предложение в первую очередь для тех, кто может пройти курс в оригинале. к сожалению, если вы проходите курс с помощью переводчика многие детали могут быть утеряны; если вы поймёте все материалы курса, мы готовы будем отправить вам книги; если понятно, что вы действительно всё прошли, но понимаете какие-то моменты так себе, можно будет забрать экземпляр самовывозом; если какие-то из ключевых моментов не удалось понять, к сожалению, такого прохождения недостаточно)

Mikhail Samin
Mikhail Samin
Live stream scheduled for
Думаю, попробую провести небольшое Q&A о безопасности искусственного интеллекта. Задавайте вопросы и голосуйте за заданные другими по этой ссылке
Upd: оказывается, ссылка не открывается из России без VPN, можете задавать вопросы комментариями к этому посту
Upd: оказывается, ссылка не открывается из России без VPN, можете задавать вопросы комментариями к этому посту

Mikhail Samin
Mikhail Samin
Live stream started
Начинаем через несколько минут. Можно продолжать задавать вопросы по ссылке и в комментариях

Mikhail Samin
TED talk Юдковского наконец выложили
https://youtu.be/Yd0yQ9yxSYY | https://www.ted.com/talks/eliezer_yudkowsky_will_superintelligent_ai_end_the_world
(У него было четыре дня на подготовку. В начале опубликованной записи вырезано "You've heard that things are moving fast in artificial intelligence. How fast? So fast that I was suddenly told on Friday that I needed to be here. So, no slides, six minutes")
https://youtu.be/Yd0yQ9yxSYY | https://www.ted.com/talks/eliezer_yudkowsky_will_superintelligent_ai_end_the_world
(У него было четыре дня на подготовку. В начале опубликованной записи вырезано "You've heard that things are moving fast in artificial intelligence. How fast? So fast that I was suddenly told on Friday that I needed to be here. So, no slides, six minutes")
YouTube
Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED
Decision theorist Eliezer Yudkowsky has a simple message: superintelligent AI could probably kill us all. So the question becomes: Is it possible to build powerful artificial minds that are obedient, even benevolent? In a fiery talk, Yudkowsky explores why…

Mikhail Samin
Китай на сегодняшнем Совбезе ООН: “The potential impact of AI might exceed human cognitive boundaries. To ensure that this technology always benefits humanity, we must regulate the development of AI and prevent this technology from turning into a runaway wild horse. […] We need to strengthen the detection and evaluation of the entire lifecycle of AI, ensuring that mankind has the ability to press the pause button at critical moments”

Mikhail Samin
Давно не делился тут новостями!
Время от времени пишу в Твиттер. Например, попытался проверить скилл Юдковского удивляться вымыслу больше, чем реальности, но реальность отказалась быть удивительной (маловероятное стечение обстоятельств -> пранк не сработал): https://twitter.com/Mihonarium/status/1706219836727341146
Все средства, собранные на краудфандинге в 2018, официально потрачены (и ещё >миллиона сверху). Подробности и отчётность. 150 личных трёхтомников решил подарить за пожертвования на отправку книг победителям олимпиад и в библиотеки;ещё экземпляр можно получить за пожертвование в MIRI. (Пишите в личные сообщения, @Mihonarium)
Время от времени пишу в Твиттер. Например, попытался проверить скилл Юдковского удивляться вымыслу больше, чем реальности, но реальность отказалась быть удивительной (маловероятное стечение обстоятельств -> пранк не сработал): https://twitter.com/Mihonarium/status/1706219836727341146
Все средства, собранные на краудфандинге в 2018, официально потрачены (и ещё >миллиона сверху). Подробности и отчётность. 150 личных трёхтомников решил подарить за пожертвования на отправку книг победителям олимпиад и в библиотеки;
X (formerly Twitter)
Mikhail Samin (@Mihonarium) on X
Reality refuses to be confusing around Eliezer!
Please don’t read this tweet if you might experience this IRL- spoilers!
I have an awesome spinner. I use it as a fun test of the core rationality skill to be surprised by fiction more than by rationality:…
Please don’t read this tweet if you might experience this IRL- spoilers!
I have an awesome spinner. I use it as a fun test of the core rationality skill to be surprised by fiction more than by rationality:…

Mikhail Samin
Mikhail Samin
OpenAI на основе GPT-3 сделали нейросеть, генерирующую изображения (а ещё нейросеть, распознавшую изображения) https://openai.com/blog/tags/multimodal/. Просто посмотрите, что они теперь умеют
Три года спустя генерация таких картинок никого уже не удивляет

Mikhail Samin
Невозможно писать эти слова и не плакать. Навальный прожил жизнь героем. Невероятно смелым, умным и честным. Политиком, боровшимся за то, чтобы сделать Россию свободной и прекрасной. Он был убит Путиным после 1125 дней в тюрьме и умер героем. Россия и мир его не забудут; герои не умирают.
Глубочайшие соболезнования семье и коллегам Алексея.
Глубочайшие соболезнования семье и коллегам Алексея.

Mikhail Samin
Подлые, мерзкие, отвратительные сволочи. Они убили Навального через день после того, как сообщили, что обменяют его. Алексей мог бы сейчас быть на свободе.
https://youtu.be/jqevNxQ2T8Y
https://youtu.be/jqevNxQ2T8Y
YouTube
Почему Путин убил Навального сейчас?
В этом видео Мария Певчих дает ответ на вопрос: почему именно сейчас? Зачем Путин приказал убить Навального 16 февраля 2024 года? Что происходило непосредственно перед убийством? Подробности в этом видео. Поделитесь им.
Мария Певчих
https://x.com/pevchikh…
Мария Певчих
https://x.com/pevchikh…