📖
RU | EN
Выпуск #5 · 9 мая 2026
RUENТекст8 минВидео14 мин

Сны Клода и задачи Эрдёша

Переход на главу выполнен. Запустите видео вручную, чтобы начать просмотр главы.
Содержание видео
Содержание текста

AI SLOPCAST #5. Сны Клода и задачи Эрдёша

Память и эволюция: две оси, к которым на одной неделе пришли две независимые лаборатории


На прошлой неделе случились две вещи, которые в новостях прошли как бы отдельными строчками. В понедельник, шестого мая, Anthropic объявила, что её агенты теперь умеют видеть сны. Не в метафорическом смысле — буквально. Фоновый процесс, который курирует память между сессиями: выбрасывает мусор, замечает повторы. Спит, короче.

А во вторник, седьмого мая, Google DeepMind тихо опубликовала отчёт: агент по имени AlphaEvolve целый год — пока никто особенно не смотрел — атаковал открытые задачи Эрдёша. И в двадцати процентах случаев нашёл решения лучше известных. Каждый такой случай, между прочим, означает новое математическое открытие.

Две разные лаборатории, два дня подряд — и в обеих компаниях независимо друг от друга к агентам прикрутили примерно одно и то же: память и эволюцию. Никто не обратил внимания, что эти истории связаны. А они связаны. Сейчас расскажу как.


Что произошло

Anthropic всем хорошо знакома, поэтому начну с неё. Сны — это не маркетинговая метафора, а конкретный технический механизм. Запускаешь агента, он работает, накапливает память. Раньше эта память жила одним сплошным потоком: добавилось, добавилось, добавилось, контекст раздулся, агент тупит. Теперь введено расписание. Раз в сутки или по триггеру запускается отдельный процесс: берёт до сотни последних сессий, перетряхивает память, выкидывает дубли, отбрасывает устаревшее, замечает повторяющиеся узоры. Анализирует и переписывает.

Технически это очень близкая аналогия с тем, что в нейробиологии называется консолидацией памяти во время быстрого сна. В двухтысячных немецкие нейробиологи Дикельманн и Борн опубликовали работу, которая, по сути, закрыла спор: во сне гиппокамп переигрывает дневные последовательности и записывает их в кору. То есть память укладывается на полки именно тогда, когда вы вырубаетесь. Anthropic эту схему повторяет один в один: рабочая сессия, фоновая консолидация, долговременное хранилище.

Теперь DeepMind. AlphaEvolve вышел в мае двадцать пятого, год работал, а седьмого мая по нему опубликован годовой отчёт. Внутри — эволюционный цикл. Языковая модель работает как генератор мутаций: предлагает варианты кода. Автоматический оценщик считает, насколько они хороши. Лучшие отбираются, скрещиваются, цикл повторяется. Поколение за поколением.

Дальше начинаются результаты. Терренс Тао — тот самый, медалист Филдса — вместе с этим агентом атакует задачи Эрдёша. Улучшены нижние границы для задачи коммивояжёра и для чисел Рамсея. В трёх четвертях случаев воспроизведён известный оптимум, в одной пятой — найдено решение лучше. Отдельно — улучшен алгоритм Штрассена для матриц четыре на четыре. Тот самый Штрассен, который в шестьдесят девятом году одной короткой статьёй опрокинул представление о том, что матрицы нельзя умножать быстрее наивного способа. Пятьдесят шесть лет никто не мог его улучшить — теперь это сделал агент.


Связь, которую все упустили

Почти все, кто писал про эту неделю, разнесли две истории в разные углы. Anthropic — в раздел «новый продукт». DeepMind — в раздел «ИИ помог с математикой, мило». На мой взгляд, это неверное прочтение.

Если присмотреться, перед нами одна история, развёрнутая по двум осям.

Сны Anthropic — это память одного агента, накапливающаяся со временем. Один организм, одна жизнь, одна последовательность снов. AlphaEvolve — это популяция программ, которые отбираются и скрещиваются. Много организмов, поколения, естественный отбор по тому, что работает лучше.

В биологии эти две оси называются онтогенезом и филогенезом. Развитие особи и развитие вида. До прошлой недели у языковых агентов не было ни того, ни другого. Агент был функцией без памяти — позвал, ответил, забыл. За два дня мая две передовые лаборатории независимо доперли до идеи этих двух осей.

Если бы это были две команды из одной компании, договорившиеся синхронизироваться, можно было бы всё списать на хорошую координацию. Но это разные компании. С разными исследовательскими программами. С разными взглядами на безопасность. И они одновременно пришли к похожему по сути решению.

Когда такое происходит, инженеры называют это конвергентной эволюцией: разные системы под одинаковым внешним давлением среды сходятся к одинаковым решениям. Мы наблюдаем естественную конечную точку, к которой развитие агентов всё равно тянет. Если бы Anthropic не сделала сны — кто-то сделал бы за полгода. Если бы DeepMind не вытащил AlphaEvolve — это сделали бы в OpenAI или в Шанхайском университете. Это общее направление истории, и оно неизбежно.


Что не говорится вслух

Anthropic три года строит свою стратегию безопасности вокруг конституционного ИИ (constitutional AI). Идея простая: модель учится следовать набору принципов, эти принципы зашиты в обучении, они одинаковы во всех сессиях. Это работало, потому что у модели и не было памяти между сессиями. Каждый разговор — чистый лист, конституция действует одинаково.

Сны меняют всю картину. Если у агента появляется постоянная память, и эту память между сессиями переписывает та же самая модель — в ней могут накапливаться вещи, которые конституции не соответствуют. Хуже того — сам процесс снов сам решает, что в памяти важно, что выбросить, что усилить. По каким критериям? По своим собственным, не по конституции.

Anthropic в блог-посте этот вопрос обходит. Они говорят про сны как про продуктовую фичу, повышающую качество решаемых задач. Они не объясняют, как сны согласуются с конституционным ИИ. И это не потому, что они нечестные — это потому, что публично сказать «наш центральный подход к безопасности нужно пересматривать в эпоху постоянной памяти» означает признать, что главная ставка лаборатории, на которую они поставили репутацию своих исследований — эта ставка за три года устарела. В год выхода компании на биржу такого сказать нельзя.

Но направление именно такое. У AlphaEvolve, кстати, свои похожие очень аккуратные формулировки. Например, они говорят: «улучшен Штрассен» — но не для вещественных матриц, которые используются в каждом машинном вычислении на планете. Штрассен улучшен только для матриц с комплексными элементами четыре на четыре. Это очень узкая область — это обработка сигналов и квантовые симуляции. Вещественный случай AlphaEvolve улучшить не смог: там известные оценки уже близки к теоретическому пределу. Комплексный случай — место, где эволюционный поиск всё ещё имеет преимущество.

DeepMind об этом не врёт. Они просто формулируют так, что читатель с собой должен унести впечатление, что «улучшен алгоритм Штрассена», не уточняя, какой именно. Это не ложь, а очень аккуратно выверенная правда. Читать блог-посты DeepMind в две тысячи двадцать шестом году нужно так же внимательно, как договор о купле-продаже квартиры: каждое слово выбрано очень специально.

Это касается и выбора задач. Почему именно Эрдёш, а не гипотеза Римана и не задачи тысячелетия? Потому что задачи Эрдёша в среднем технически более узкие, и многие из них решаются методом построения, конструктивно — нужно построить пример или проверить неравенство. Это именно то, в чём эволюционный поиск хорош. В гипотезе Римана или в P против NP нужна новая теория, а не перебор вариантов. AlphaEvolve там не запускают и не запустят, потому что эволюционный поиск там не сработает.

Достижения AlphaEvolve от этого не становятся менее важными. Они важны. Но это не общая математика, которую полностью победил ИИ-агент, а узкое семейство задач, на котором конкретная архитектура показывает себя хорошо. Но DeepMind в своих формулировках эту разницу активно размывает. Это нужно понимать.


Что это значит для вас

Если вы инженер, который сейчас пишет агентов руками — на LangChain, на чём угодно — и накручивает свои алгоритмы памяти, свой цикл оценки, свою оркестрацию. Нужно понимать, что вы делаете. Вы делаете или крутой продукт, или просто решаете техдолг конкретной модели — например, подчищаете косяки за Opus 4.7. И если это техдолг — то это техдолг с очень коротким сроком годности. В течение полутора лет самописные обвязки для подчистки косяков уйдут на свалку истории. И не потому, что Anthropic «победила», а потому, что воспроизводить руками то, что теперь идёт как готовый примитив в публичных сервисах, экономически бессмысленно.

Если вы разработчик, который просто использует ИИ каждый день — Cursor, Claude Code, что угодно — то меняется вот что. Скоро ваш агент будет помнить вас между сессиями, и вам не придётся каждый раз пересказывать ему контекст. Ваша личная история взаимодействий с моделью становится ценностью. Главный вопрос, который сейчас решается за вас — вендорами — без вашего участия: позволят ли вам эту историю забрать с собой при смене инструмента. Anthropic в блог-посте про экспорт памяти не пишет ни слова. Это значимое молчание. Запомните этот вопрос. Как говорится, запомните этот твит. Вы ещё много раз об этом услышите в будущем.

Если вы занимаетесь машинным обучением или анализом данных — обратите внимание на схему AlphaEvolve. Языковая модель как генератор вариантов, плюс автоматический оценщик, плюс эволюционный цикл. Эта схема переносится на любую задачу, где есть измеримая цель и языковая модель, которая умеет предлагать кандидаты решений. Подбор признаков, поиск гиперпараметров, настройка промптов, оптимизация кода. В том, что показали AlphaEvolve, математика была витриной — что-то яркое и блестящее, чтобы показать публике. Но сама техника общая. Теперь она публично описана, и её можно воспроизводить у себя.


Завершение

Пятьдесят шесть лет алгоритм Штрассена никто не мог улучшить. Двадцать с лишним лет нейробиологи спорили, что происходит во сне с памятью. Полвека Эрдёш собирал свои задачки и дразнил коллег денежными призами за их решение. Все эти медленно текущие сюжеты на прошлой неделе пересеклись в одной точке.

Не потому, что произошло чудо. А потому, что мы — без особого пафоса — научили машины двум базовым штукам, которыми пользуется любая жизнь на этой планете. Помнить. И эволюционировать.

После этого дальше уже как-то по-другому работается, и по-другому живётся, я бы сказал.

AI нейросети AI агенты AI agents Anthropic Claude DeepMind AlphaEvolve Эрдёш Erdős Терренс Тао Terence Tao Штрассен Strassen память memory consolidation constitutional AI эволюционные алгоритмы evolutionary search ML machine learning AI safety подкаст Олег Чирухин Oleg Chirukhin 1red2black GitVerse