📖
RU | EN
Выпуск #6 · 10 мая 2026
RUENТекст12 минВидео26 мин

Илон, детектор зла и пророчество Шнайера

Переход на главу выполнен. Запустите видео вручную, чтобы начать просмотр главы.
Содержание видео
Содержание текста
Источники

Источники

Anthropic ↔ SpaceX и сделка по Colossus 1

Project Glasswing, Trusted Access и театр безопасности

Терренс Тао и AlphaEvolve

AI SLOPCAST #6. Илон, детектор зла и пророчество Шнайера

Маск, Шнайер, Зитрон, Тао: четыре способа читать ИИ-индустрию


Где-то в районе двадцать восьмого апреля Илон Маск публикует пост — то ли в Substack, то ли в виде треда — где называет Anthropic «крайне левым ИИ с орто-фашистскими наклонностями» и заявляет, что компания, цитата, «не сработала на его детектор зла». Пост потом тихонько удаляется. Кешированные копии, разумеется, остаются — интернет помнит всё, особенно то, что вы хотели бы забыть.

Шестого мая, ровно через семь дней, Anthropic объявляет, что забирает себе весь Colossus 1. Двести двадцать тысяч ускорителей. Триста мегаватт. Дата-центр, изначально построенный xAI. Маск комментирует это так: «Никто не сработал на мой детектор зла». В смысле — я их встретил вживую, проверил, с ними всё в порядке. Передумал лезть в бутылку.

Семь дней. От «крайне левого ИИ» до «вот тебе двести двадцать тысяч ускорителей, пожалуйста». Это, дамы и господа, не самое быстрое переобувание в карьере Маска, но в тройке его самых стремительных переобуваний — точно.

Вокруг этой истории — и нескольких параллельных — новая серия нашего сериала про противоборство Скама Альтмана, Илона Враска и Дарио Афигеи. Сегодняшний выпуск про неё.


Часть первая: Маск как инженерный приём

Элон Эрроллович Маск. Переобувание Маска — не баг, а фича. Это его рабочий инструмент.

Беглый список переобуваний за последние годы, таков. Восемнадцатый год: «финансирование обеспечено» по приватизации Tesla — оказалось не обеспечено, штраф SEC сорок миллионов. Ничего, Маск богатый молодой человек, заплатил. Двадцать второй год: «не куплю Twitter» — суд заставил купить, Маск заявил что это так и было задумано. Многоходовочка. Двадцать третий год: «ИИ опаснее ядерного оружия», в том же году открывает xAI. Двадцать четвёртый год: критикует OpenAI за то, что у них закрытая AI модель, делает свою модель — тоже закрытую. Двадцать шестой год: Anthropic — орто-фашисты, через неделю — забирайте весь наш Colossus с потрохами.

Уолтер Айзексон в биографии 2023 года предлагает, на мой взгляд, лучшее объяснение этого поведения. Это не идеология и не импульсивность, а переговорный приём. Точно так же, как у Трампа переговорный прием — это легкое сумасшествие. У Маска, публичная критика создаёт рычаг, чтобы сделка, которую он пытается пропушить произшла на более выгодных для него условиях. Маск ругает Anthropic в течение недели — и Anthropic под давлением соглашается на условия, которые без этой подготовки были бы хуже. Стратегия дорогая, но рациональная.

Как минимум семь раз эта стратегия разворачивалась на глазах у аудитории. Семь раз из тех, что я навскидку вспомнил. Почему рынок до сих пор реагирует на каждый новый твит Маска как на событие?

Ответ простой и неприятный. Финансовой прессе невыгодно учить нас игнорировать Маска. Каждый его твит — сюжетный поворот, каждый сюжетный поворот — всплеск трафика из людей, которые побежали читать новости. Если бы Bloomberg или CNBC написали один раз «Маск опять переобулся, КАК И ПРЕДПОЛАГАЛОСЬ» — это была бы их последняя такая статья, потому что дальше эти переобувания перестали бы быть новостью. А они на новостях зарабатывают.

Из этого следует первый практический вывод. Когда читаете очередной твит Маска — спрашивайте не «правда ли это», а «для какой сделки он готовит давление на переговорный процесс». Практически всегда такое прочтение работает лучше буквального прочтения.

У текущего переобувания есть, впрочем, одно отличие от шести предыдущих. Если взять «детектор зла» серьёзно, давайте посмотрим. Маск построил многолетнюю публичную позицию против алаймента через обучение, против веры в здравость рассуждений нейрости без доказательств этой способности. Если человек говорит «я нормальный» — стоит ли ему верить? А почему мы нейросети-то должны верить? Это очень хорошее рассуждение со стороны Маска. Он сделал выбор в пользу безопасности через математическое доказательство. Сейчас получается, что его критика Anthropic в его же собственной системе координат не является логически последовательной. Конституционный ИИ — это выравнивание через обучение, а не через доказательство. Claude Opus — по их заявлениям, одна из самых мощных моделей в мире — у него нет формального доказательства безопасности. Эти две вещи в системе координат Маска должны были запустить его детектор зла.

А потом он эту свою твердую позицию всего за неделю продал. Продал за доступ к мощностям железа. Есть простые случаи переобувания, когда человек просто «передумал». Увидел какой-то новый факт, подумал — и передумал. А вот ЭТО переобувание у Маска означает «у меня была философия, и я обменял её на 220 000 единиц GPU». Это совершенно новый уровень трэша. Никто это публично не разбирает. Кажется, потому что взять за жопу Маска всерьёз неудобно: фанаты Anthropic не хотят придавать легитимности такой критике, а хейтеры Маска предпочитают простое прочтение вида «опять несет дичь». Благо, он ее постоянно несет, ничё нового.


Часть вторая: Шнайер и пророчество восемнадцатого года

Второй персонаж — Брюс Шнайер. Если вы когда-нибудь учились криптографии по западным учебникам, то держали в руках его книгу. Applied Cryptography, девяносто шестой год. С тех пор много чего произошло — Crypto-Gram, Гарвардская школа Кеннеди, его бесконечные эссе про безопасность как культурный феномен.

В 2003 году Шнайер ввёл термин «театр безопасности» — про меры, которые создают ощущение защиты, не повышая её на самом деле. Например, в аэропорте: проверка обуви, пластиковые стаканчики, ритуальное изъятие ноутбуков из сумок. Шнайер тогда сказал, что театр будет расти, потому что театр дешевле реальной безопасности и виднее избирателям.

В две тысячи восемнадцатом году в книге Click Here to Kill Everybody он сделал предсказание. Примерно такое: безопасность ИИ станет статусной игрой, в которой компании будут соревноваться в видимости заботы, а не в самой заботе. Это было восемь лет назад. До GPT-3, до ChatGPT, до Claude Mythos. До всего.

Что мы видим сейчас. У Anthropic есть Project Glasswing, некая программа для сорока-пятидесяти партнёров с привилегированным доступом к Mythos. У OpenAI есть Trusted Access for Cyber, открытый для тысяч верифицированных участников. Это две стратегии разворачивания одной и той же возможности. Британский институт безопасности ИИ опубликовал конкретные числа: GPT-5.5 проходит 32-шаговый сценарий атаки на корпоративную сеть в двух случаях из десяти, Mythos — в трёх. По их же оценке, наступательные возможности передовых моделей удваиваются каждые четыре месяца.

На этом фоне есть критическая деталь, которую журналисты недооценили. Меньше одного процента уязвимостей, найденных Mythos, было пропатчено. По собственным данным Anthropic. Как говорится, «и у тебя уязвимость, и у меня уязвимость, но есть НЮАНС».

Смотрите сами. Лаборатории соревнуются в нахождении уязвимостей. Эти лаборатории жертвуют четыре миллиона долларов на безопасность опенсорса. Эти лаборатории дают сто миллионов кредитов на использование своим партнёрам по Glasswing. Но пропатчено — меньше одного процента. Перед вами тот самый театр безопасности, про который писал Шнайер. Все делают правильные ритуальные жесты, но никакого реального снижения риска не происходит.

Сам Шнайер на этой неделе официально молчит. Он обещал написать пост-продолжение с обзором ситуации, но так и не написал. Молчание само по себе сигнал: ситуация слишком очевидна, но поспешно наведенная шум и суета испортят более серьёзный материал, который, видимо, уже готовится. Но Picus Security и Forrester уже сформулировали то же самое на более инженерном языке. Picus прямо говорит, что «та же штука, которая всё ломает, — она же всё и чинит». Поиск уязвимостей без способности закрывать их с надлежащей скоростью — это всего лишь суета на ровном месте.

Отсюда второй практический вывод. Когда вы видите вендора ИИ, рассказывающего про огромные, широчайшие возможности кибербезопасности — сразу ищите конкретные числа, что они наши и исправили. «Мы нашли тысячу уязвимостей» — это не безопасность, это маркетинг. Безопасность — это «мы нашли тысячу проблем и закрыли девятьсот пятьдесят». Вот это безопасность. Если второй цифры нет — вы смотрите на гастроли театра.


Часть третья: Зитрон и парадокс критика

Третий персонаж — Эд Зитрон. Бывший пиар-консультант, ныне ведущий подкаста Better Offline и автор Substack-рассылки Where's Your Ed At. Сам себя называет «профессиональной занозой в жопе Сэма Альтмана» — это не моя оценка, он сам себя так самопрезентует.

Зитрон на этой неделе обозвал всю историю о кибер-апокалипсисе «недоделанной херней уровня Войны миров». А на самом деле, якобы, ИИ умирает, и уже почти даже умер.

Но ведь, Зитрон — критик ИИ-хайпа. Зитрон зарабатывает на критике ИИ-хайпа. Источников дохода у него куча — подписчики на Substack, скачивания подкаста, гонорары за выступления. Вся его кормовая база зависит от того, остается ли искусственный интеллект горячей темой. На эту горячую тему можно публично злиться, публично страдать, делать гневные видеореакции на ютубе, всё что угодно.

Если ИИ-хайп завтра внезапно сдуется — Зитрон лишится темы. Лишится подписчиков. Лишится дохода. Ему жизненно важно, чтобы было что критиковать.

Это, конечно, не делает его критику ложной. Логически — критика может быть точной независимо от того, какие у критика стимулы. Но это влияет на то, что именно Зитрон выбирает критиковать, а что он выбирает обходить стороной. Он никогда не пишет о позитивных применениях ИИ. Не потому что их нет — есть задокументированные случаи снижения издержек, прироста производительности, расширения доступности. Он не пишет потому что позитивные истории не вписываются в его сюжет. Аудитория Зитрона получает картинку, не менее искажённую чем у упоротых фанатов Скама Альтмана.

Продавцы ИИ и критики ИИ — всем им нужно, чтобы ИИ оставался горячей темой. Инфоцыганин хочет инвестиций и пользователей, а критик хочет подписчиков и слушателей. Их интересы сходятся в том, что ИИ должен оставаться важной темой. И это одинаково подрывает доверие к обеим сторонам.

Когда вы читаете Зитрона что-то — задайте себе вопрос: что бы он написал, если бы ИИ-хайп резко исчез? Ответ: ну он писал бы о чем-то менее важном и менее значительном. Его аргументы от этого не становятся неправильными, но сам подбор аргументов и является инструментом пропаганды.


Часть четвёртая: энтузиазм Терренса Тао

Четвёртый персонаж — Терренс Тао. Медалист Филдса. Эрдёш-номер два. Один из самых известных живых математиков. Раньше он был скептиком ИИ в математике: в 2022—2023 годах публично сомневался, что GPT-4 полезен для серьёзной работы.

Тао ведёт публичный математический блог в Mastodon — после побега из Twitter в 2022 году — и там обсуждает свою работу с математическим языком Lean, с ChatGPT, теперь с AlphaEvolve. Всё это публичное. Кто угодно может зайти и посмотреть.

Человек, чья публичная позиция была построена на скепсисе в отношении ИИ на этой неделе подписался под полезностью AlphaEvolve, уже как соавтор статьи. Его трансформация из скептика в энтузиаста дошла до конечной.

Google и Тао. Что получает каждая сторона? Тао получает доступ к мощностям, статью с гугловскими соавторами, размещение в престижных журналах, поддержку макретинга самой большой маркетинговой компании в мире. DeepMind в свою очередь получает академическую легитимность, имя Тао на статье, защиту от критики вида что «ИИ в математике — это просто особый вид программирования». А вот кто не получает... Математическое сообщество в целом не получает открытой методологии. AlphaEvolve остаётся внутри Google. Воспроизвести его через открытый код хотя и возможно, но это будет не то же самое.

В принципе, Тао действует разумно. Наверное, большинство людей так бы и поступили. Ну приходит к тебе Google с вагоном бабла, ты че — не возьмешь? Ты нормальный вообще? Но в конечном счете, все эти персональные сделки с совестью складываются в то, что академическая культура становится слабее. Ученым навязывают неравный обмен между академией и корпорациями. Если так пойдёт дальше, лет через 5 молодые математики будут работать с ИИ только через корпоративные каналы связи, а не через возможность открыто воспроизводить любые эксперименты. Это уже происходило в медицине — академические врачи подсели на консалтинговые контракты с бигфармой. Это происходило в экономике — когда академические экономисты тоже подсели на консалтинг. Во всех этих случаях, их личные казалось бы полностью оправданные и рациональные решения, в сумме с коллективной безответственностью, приводят к тому, что открытая исследоватльская культура идет ко всем чертям.

Тао слишком уважают, чтобы критиковать. Но Олега Чирухина из деревни Кукуево никто особо не знает, поэтому Олег может рубить правду-матку сколько угодно. Ну и Олег никакого Терренса Тао лично не знает, поэтому сложно заподозрить Олега в каком-то личном преследовании.


Завершение

В общем, вот наши супергерои. Маск — воплощенное человек-переобувание, чьи твиты надо читать как переговорные ходы. Шнайер — пророк восемнадцатого года, чьё предсказание про театр безопасности ИИ сбывается на ваших глазах. Зитрон — пиарщик, ставший критиком, чья критика реальна, валидна, но крайне избирательна. И Тао — скептик, ставший соавтором Google DeepMind.

Каждый из них учит нас каким-то своим суперсилам. Особым граням полезного лицемерия. Маск учит нас не смотреть на вещи прямо, а всегда придумывать, как с помощью косвенных вещей убеждать нужных людей. Или запугивать нужных людей. Или — устранять нужных людей. Шнайер учит нас задавать вопрос «это видимость или реальность» (особенно в отношении кибербезопасности). Зитрон учит нас интересоваться «кому выгодна та или иная история». Тао — это уникальный человек, который смотрит, работает штука или не работает. Если работает — хорошо, не работает — плохо, всё.

Когда вы читаете очередной блог, который пишет большая ИИ-компания. Или читаете новые раскрытия уязвимостей. Или какие-то прорывные заявления руководителей. Спросите себя, какая из четырёх граней лицемерия встречается вам в этих заявлениях. Иногда подходит одна. Иногда все четыре сразу. Иногда — и это самое интересное — разные подходы дают противоречащие ответы.

И когда ответы не совпадают — вот тогда вы знаете, что попали на действительно сложную историю. Когда я придумываю сюжеты для этого блога, именно такие истории я и стараюсь копать. Неоднозначные.

ИИ-индустрия в 2026 году в каком-то смысле окончательно стала медиа-индустрией, индустрией развлечений. Она вся hype driven. У нас есть своя мултивселенная, свои супергерои, свои повторяющиеся сюжеты. Понимание персонажей — теперь рабочий и работающий навык, а не просто какой-то анекдот.

AI нейросети ИИ-индустрия Илон Маск Elon Musk Anthropic Colossus xAI Брюс Шнайер Bruce Schneier security theater театр безопасности Эд Зитрон Ed Zitron Better Offline Терренс Тао Terence Tao AlphaEvolve DeepMind constitutional AI конституционный ИИ Claude Opus Mythos Project Glasswing Trusted Access GPT-5.5 AI safety кибербезопасность подкаст Олег Чирухин Oleg Chirukhin 1red2black GitVerse