■ ChatGPT → ■ Stack Overflow умирает за 24 месяца
30 ноября 2022 — ChatGPT. Самая быстрая adoption в истории
Stack Overflow
- ноябрь 2022: 108 563 вопросов/мес
- январь 2023: 96 377 (−11%)
- декабрь 2024: 25 566 (−76,5%)
PNAS Nexus: −25% каузальное снижение. SO: увольнения 10% + 28%
Одновременно — рождение трёх практик
Prompt Engineering: Indeed: 2 → 144 вакансии/млн за 3 месяца
QLoRA: 65B модель на одном 48GB GPU — «уравниватель»
RAG: 51% enterprise AI. Pinecone $100M, Weaviate $50M
НАПОМИНАЛКИ:
• Цифры должны шокировать — дай им повисеть
• Цитата Тейлора — пауза после неё
• Вопрос задать аудитории напрямую
ТЕКСТ:
Двести два миллиарда долларов. Это AI-инвестиции за 2025 год. Половина всего венчурного капитала мира. 800 миллионов человек каждую неделю разговаривают с ChatGPT. Даже Брет Тейлор из OpenAI говорит: «у нас тоже пузырь».
И вопрос, который обсуждают все: заменит ли AI программистов? Чат вместо кода? Промпт вместо спецификации?
Я хочу показать, что этот вопрос задавали раньше. Много раз. И ответ был одинаковым.
НАПОМИНАЛКИ:
• Это история, не лекция — рассказывай как детектив
• Главный тезис: файлы побеждают чат каждый раз
• Не давай ответ сразу — создавай интригу
• 30 минут = держи темп
ТЕКСТ:
Привет! Сегодня я расскажу историю. Не про технологии — про паттерн. Один и тот же паттерн, который повторяется в computing уже 80 лет. И который прямо сейчас повторяется снова — с AI.
НАПОМИНАЛКИ:
• Каждую строку — с паузой, как удары
• «Каждый раз файлы побеждали» — выделить голосом
• После этого слайда — перейти к «давайте начнём с начала»
ТЕКСТ:
1961 — интерактивные терминалы, будущее! 1973 — живая среда LISP, будущее! 1985 — экспертные системы, будущее! 1997 — UML-диаграммы, будущее! 2022 — ChatGPT, будущее!
И каждый раз — файлы побеждали. Не потому что они лучше. А потому что они достаточно хороши — и у них есть свойства, которых нет у «чата». Давайте начнём с начала.
НАПОМИНАЛКИ:
• Секционный слайд — просто назвать и перейти
• Не задерживаться
ТЕКСТ:
Первый цикл. Начало шестидесятых. Впервые человек разговаривает с компьютером.
НАПОМИНАЛКИ:
• Дать почувствовать боль — часы ожидания!
• ENIAC — не абстракция, 27 тонн в комнате
• «Не видит компьютер» — ключевая фраза
ТЕКСТ:
Представьте: вы программист в 1955 году. Вы пишете программу на бумаге, пробиваете перфокарты, сдаёте стопку оператору — и ждёте. Часы. Иногда сутки. Потом получаете распечатку. Видите ошибку. Начинаете заново.
Вы не видите компьютер. Не общаетесь с ним. Это как переписка письмами — только с машиной.
НАПОМИНАЛКИ:
• Corbató — герой, Тьюринговская премия за это
• «Сразу» — подчеркнуть контраст с перфокартами
• Цитата Лицклайдера — произнести как манифест
ТЕКСТ:
1961 год. Fernando Corbató в MIT создаёт CTSS — Compatible Time-Sharing System. Впервые несколько человек одновременно работают на одном компьютере. Впервые вы печатаете команду — и получаете ответ. Сразу. Не через часы. Сразу.
Лицклайдер годом раньше написал визионерскую статью «Симбиоз человека и компьютера». И данные подтвердили: интерактивные пользователи работали на порядок продуктивнее. Это была революция.
НАПОМИНАЛКИ:
• Историю про секретаря рассказать как анекдот
• 200 правил! — подчеркнуть примитивность
• ELIZA effect — люди верят, что программа понимает
• Параллель с ChatGPT пока НЕ озвучивать — аудитория сама додумает
ТЕКСТ:
1966 год. Тот же MIT. Джозеф Вейценбаум создаёт ELIZA — программу из двухсот правил, которая прикидывается психотерапевтом. Никакого понимания. Чистый pattern-matching. «Расскажите мне об этом подробнее.»
И вот анекдот, который, возможно, правда. Секретарь Вейценбаума попросила его выйти из комнаты — чтобы поговорить с ELIZA наедине. 200 правил — и человек верит, что машина его понимает.
Вейценбаум назвал это «ELIZA effect». Шёл 1966 год. Кое-кому это напоминает 2022-й?
НАПОМИНАЛКИ:
• «Всё есть файл» — произнести как девиз
• Thompson и Ritchie — назвать героями
• ed → vi → IDE — линия, которая идёт до сегодня
• Пауза перед «50 лет»
ТЕКСТ:
А теперь — развязка первого цикла. Thompson и Ritchie уходят из слишком сложного проекта Multics. Создают Unix. Маленькую, элегантную систему с одним принципом: «всё есть файл».
Ed — строковый редактор. Vi — полноэкранный. C — язык, в котором весь workflow файловый: редактируй, компилируй, запускай. Pipe — связываешь программы через текстовые потоки.
Time-sharing дал интерактивность. Но программы, конфиги, данные — всё сохраняется в файлах. Этот подход определил следующие пятьдесят лет.
Файлы: один, чат: ноль.
ТЕКСТ:
Второй цикл. Самый драматичный. Xerox PARC и самая продвинутая IDE в истории.
НАПОМИНАЛКИ:
• DWIM — дать аудитории прочувствовать, как это круто
• «Живой объект» — контраст с файлами
• Claude Code — осознанная провокация, это мой личный опыт
• Держать паузу — аудитория должна спросить «и что случилось?»
ТЕКСТ:
Xerox PARC, начало семидесятых. Тейтельман и Боброу создают Interlisp-D — среду разработки, которая в некоторых аспектах продвинутее наших инструментов сегодня. Я лично это исследовал.
DWIM — Do What I Mean. Вы допустили опечатку, система догадывается, что вы имели в виду, и исправляет. Structure-aware editing — редактор понимает структуру кода. Live debugging — отладка прямо в работающей программе. Код — не текст в файле, а живой объект в памяти.
Это было будущее. И оно случилось в 1973 году.
НАПОМИНАЛКИ:
• Alan Kay — «изобрёл будущее»
• Image-based — объяснить: как snapshot виртуальной машины
• «Нет контроля версий» — уже намекнуть на причину поражения
ТЕКСТ:
Рядом, в том же PARC — Алан Кей создаёт Smalltalk. Ещё радикальнее. Вся программа — живой образ в памяти. Нет файлов. Нет стадии компиляции. Вы меняете объект — и изменение сразу в системе.
Smalltalk вдохновил Macintosh. Стив Джобс увидел демо в PARC — и всё понял.
Но у image-based подхода — фатальная проблема. Нет контроля версий. Нет совместной работы. Как вы сделаете diff двух живых образов? Как вы сделаете code review?
НАПОМИНАЛКИ:
• Таблицу дать зрителям прочитать самим
• $100K vs $50 — дать повисеть
• «Достаточно хорошо» — ключевой инсайт
• 600K — выделить голосом
ТЕКСТ:
И вот развязка. LISP-машина — сто тысяч долларов. Специализированное железо. Живая среда. Продали около десяти тысяч.
IBM PC — полторы тысячи. Turbo Pascal — сорок девять долларов и девяносто девять центов. IDE, компилятор и линкер — в 39 килобайтах. Продали шестьсот тысяч за три года.
Будущее проиграло. Не потому что файлы лучше живой среды. А потому что дешёвое универсальное железо плюс файлы — достаточно хорошо. И это закономерность, которую мы увидим снова и снова.
ТЕКСТ:
Третий цикл. Короткий, но важный — потому что он самое точное зеркало сегодняшних обещаний AI.
НАПОМИНАЛКИ:
• $2.1B — IBM верил в это серьёзно
• 14 типов — это абсурдно много, подчеркнуть
• «Сложнее, чем написать код» — ключевая ирония
• Сгенерированный код — как в AI?
ТЕКСТ:
Конец девяностых. UML — Unified Modeling Language. Идея красивая: рисуешь диаграмму, генерируешь код. Модель это код. IBM верит настолько, что покупает Rational за два с лишним миллиарда долларов.
14 типов диаграмм. Четырнадцать! И ирония: освоить UML сложнее, чем написать код, который он призван заменить.
А сгенерированный код? Раздутый. Неидиоматичный. Неподдерживаемый. Последняя миля бизнес-логики — всегда ручной код.
НАПОМИНАЛКИ:
• Fowler — автор книги по UML — подписывает Agile Manifesto
• Это предательство изнутри — подать драматично
• 2016 — тихая смерть, без фанфар
ТЕКСТ:
2001 год. 17 практиков собираются в Сноуберде, Юта. Пишут Agile Manifesto. «Работающий софт важнее исчерпывающей документации.» Прямой удар по UML.
И вот деталь, которую я люблю. Martin Fowler — автор книги «UML Distilled», одной из самых популярных книг по UML — среди подписавших Agile Manifesto. Даже евангелист UML понял, что это тупик.
2016: Visual Studio тихо убирает поддержку UML. Без фанфар. Просто удалили.
НАПОМИНАЛКИ:
• Таблицу показать — и дать повисеть
• Не говорить «AI проиграет» — сказать «паттерн знакомый»
• Последняя миля — ключевой термин
• Вопросительные знаки — осознанно
ТЕКСТ:
И вот зеркало. UML: заменим код диаграммами. AI: заменим код промптами. UML: модель это код. AI: промпт это код. UML: сгенерированный код неподдерживаемый. AI: сгенерированный код... пока вопрос открытый.
Но паттерн — знакомый. Оба подхода недооценивают сложность реального софта. Каркас — пожалуйста. Но последняя миля бизнес-логики — ручной код. Как всегда.
ТЕКСТ:
Четвёртый цикл. И самый тревожный. Потому что параллели — один в один.
НАПОМИНАЛКИ:
• $40M экономии — это реальный результат, не хайп
• «По одной в неделю» — знакомо?
• Япония вложила $850M — не забыть
• Пока не говорить чем кончилось — интрига
ТЕКСТ:
1980-е. Экспертные системы. DENDRAL анализирует химические соединения. MYCIN диагностирует инфекции. R1/XCON конфигурирует компьютеры DEC и экономит сорок миллионов долларов в год. Реальная экономия.
Инвестиции — больше миллиарда в год к 1985-му. Новые AI-компании — по одной в неделю. Звучит знакомо? Япония запускает проект Fifth Generation Computer — 850 миллионов долларов.
НАПОМИНАЛКИ:
• «За один год» — пауза, дать осознать
• 300+ компаний — масштаб катастрофы
• Цитата Шварца — кульминация, произнести медленно
• Пока НЕ показывать параллели — следующий слайд
ТЕКСТ:
1987. За один год рынок LISP-машин уничтожен. Дешёвые персоналки научились делать то же самое. 300 с лишним AI-компаний закрылись. Symbolics — флагман LISP-машин — банкрот.
Шенк и Минский — основатели AI как науки — предупреждали ещё в 1984-м. Но их не слушали.
Джек Шварц из DARPA подвёл итог: «Это просто хитрое программирование». Не искусственный интеллект. Хитрое программирование. Хрупкое, дорогое в поддержке, не умеющее учиться и обобщать.
НАПОМИНАЛКИ:
• Дать таблице повисеть — не комментировать сразу
• «$200B» — в 200 раз больше
• «Галлюцинации» — современный аналог «не обобщает»
• НЕ говорить «AI обречён» — сказать «паттерн тревожный»
ТЕКСТ:
Посмотрите на параллели. Миллиард тогда — двести миллиардов сейчас. «Заменит экспертов» — «заменит программистов». Реальная экономия в конкретных нишах — и тогда, и сейчас. Хрупкость: экспертные системы не обобщали. LLM — галлюцинируют.
Я не говорю, что AI обречён. Масштаб другой, технология другая. Но паттерн — тревожный. И вопрос: а может, и в этот раз «хитрое программирование»?
ТЕКСТ:
Между большими циклами были три «тихие» победы файлового подхода. Без драмы, без краха — просто файлы впитали каждую революцию.
НАПОМИНАЛКИ:
• Три примера — быстро, по 30 секунд каждый
• GUI = файлы — неожиданный поворот для многих
• HTTP GET = «дай файл» — это вызывает улыбку
• Jupyter — мост к следующей секции
ТЕКСТ:
Между большими циклами — три тихие победы файлов.
Первая: GUI. Macintosh. Windows 95. Самая массовая «интерактивная» революция в истории. Но на что вы смотрите на рабочем столе? Папки и файлы. Save As. Drag-and-drop. GUI не убил файлы — визуализировал их.
Вторая: веб. Четвёртый великий интерфейс. Но из чего состоит веб? HTML, CSS, JavaScript — файлы. URL — адрес ресурса. HTTP GET — буквально «дай файл». Даже веб — файловый.
Третья: Jupyter. Десять миллионов ноутбуков на GitHub. Гибрид чата и файла. Но стандартный workflow в любой компании: исследуй в notebook, потом перенеси в .py файлы. Гибрид, который не стал IDE.
ТЕКСТ:
А теперь — текущий цикл. Вы его узнаете.
НАПОМИНАЛКИ:
• 100M за 2 месяца — рекорд
• Цепочка — показать что ChatGPT не первый
• «А дальше?» — пауза, не отвечать сразу
• Аудитория к этому моменту уже знает ответ
ТЕКСТ:
Ноябрь 2022. ChatGPT. Сто миллионов пользователей за два месяца. Абсолютный рекорд.
Но посмотрите на цепочку. CTSS — первый терминал. ELIZA — первый чатбот. MS-DOS — командная строка. VB и Delphi — визуальное программирование. Jupyter — ноутбуки. ChatGPT.
Это восьмая итерация того же паттерна. Новый «чатовый» интерфейс computing. Каждый раз — восторг. А дальше?
НАПОМИНАЛКИ:
• Cursor $1B ARR — файловый! Это ключевое
• Claude Code — markdown-файлы как конфиг
• Kiro — кульминация: AI генерирует спеки
• Нарастающий темп — каждый пример быстрее
ТЕКСТ:
А дальше — файлы контратакуют. Как всегда.
Copilot и Cursor. AI интегрирован в файловые IDE. Cursor — миллиард долларов годовой выручки. AI-first, но файловый. Редактируй, компилируй, запускай — с AI-усилением.
Claude Code, Codex CLI. Терминальные агенты. Что они делают? Читают и пишут файлы. CLAUDE.md — конфиг через markdown-файл.
И Kiro от AWS. Самое буквальное воплощение паттерна: requirements.md, design.md, tasks.md — и потом код. AI-революция породила инструмент, который генерирует спецификации. В файлах.
НАПОМИНАЛКИ:
• Четыре «только для файлов» — как молотком
• Контроль версий — не фича, а фундамент
• Это не баг — это архитектура индустрии
• После этого слайда — тезис
ТЕКСТ:
И финальный аргумент. Git. Diff — только для файлов. Merge — только для файлов. Branch — только для файлов. Code review — только для файлов.
Вы не можете сделать git diff двух чат-сессий. Не можете сделать merge двух REPL-историй. Не можете сделать code review живого образа Smalltalk.
Контроль версий — это не фича. Это фундамент всей индустрии разработки. И он работает только с файлами. Это структурное преимущество, которое не зависит от технологии.
НАПОМИНАЛКИ:
• Три пункта — чётко и кратко
• «Не зависят от технологии» — ключевой инсайт
• 1972 → 2025 — рамка всей истории
• Это не ностальгия — это инженерная реальность
ТЕКСТ:
Так почему файлы побеждают? Три причины.
Первая: контроль версий. Diff, merge, branch, blame — работают только с текстовыми файлами. Ни одна альтернатива за 50 лет не предложила ничего сравнимого.
Вторая: совместная работа. Code review, pull requests, CI/CD — всё построено вокруг файлов.
Третья: воспроизводимость. Файл на моей машине — тот же файл на вашей машине — тот же файл на сервере.
Эти три свойства не зависят от технологии. Они работали в 1972 году с Unix и C. Они работают в 2025 году с Cursor и Claude Code.
НАПОМИНАЛКИ:
• Это сводная таблица — дать прочитать
• 8 строк — 8 циклов — один исход
• Не комментировать каждую строку — итог говорит сам
ТЕКСТ:
Восемь циклов. Один паттерн. Каждый раз — новый «чатовый» интерфейс, восторг, обещания. И каждый раз — файловый подход побеждает в продакшене.
Посмотрите на правый столбец. Unix. Turbo Pascal. Папки на рабочем столе. HTML-файлы. Agile. Py-файлы. Cursor и Kiro. Файлы. Каждый. Раз.
НАПОМИНАЛКИ:
• «Не умирают» — важно, это не anti-AI доклад
• «Сколько чата и сколько файлов» — настоящий вопрос
• «Исследуй / строй» — двойка, запомнят
• Финальную фразу — медленно, с паузой
• ПОКЛОН
ТЕКСТ:
И последнее. Вопрос — не «чат или файлы». Интерактивные инструменты не умирают. REPL жив. Jupyter жив. ChatGPT будет жить.
Вопрос — сколько чата и сколько файлов. И ответ, который computing даёт нам 80 лет подряд: исследуй в чате, строй в файлах.
Это не баг. Это 80 лет эволюции. Спасибо.
НАПОМИНАЛКИ:
• Это история, не лекция — рассказывай как детектив
• Главный тезис: файлы побеждают чат каждый раз
• Не давай ответ сразу — создавай интригу
• 30 минут = держи темп
ТЕКСТ:
Привет! Сегодня я расскажу историю. Не про технологии — про паттерн. Один и тот же паттерн, который повторяется в computing уже 80 лет. И который прямо сейчас повторяется снова — с AI.
🎯 НАПОМИНАЛКИ:
• Представиться. Тема: не хронология, а волны. Каждая волна запускается чипом
• Пять волн, каждая — от железа до практик. Волны перекрываются
• «Следующие 30 минут — пять историй о том, как физика меняет нашу работу»
📖 ТЕКСТ:
Добрый день! Я мог бы рассказать вам историю AI-кодогенерации хронологически — год за годом. Но это было бы скучно и не передало бы главного. Главное — это волны. Каждая волна начинается с нового чипа. Чип делает возможной новую науку. Наука порождает продукт. Продукт меняет практики. И пока первая волна ещё не докатилась до практик — уже поднимается следующая. За девять лет — пять волн. Каждая быстрее предыдущей. И все они перекрываются. Давайте их пройдём.
🎯 НАПОМИНАЛКИ:
• Четыре цвета = четыре слоя. Запомнить — они будут на каждом слайде
• Каскад ВСЕГДА сверху вниз: Hardware → Science → Products → Practices
• Задержка сжимается: 4 года → 6 месяцев. Волны перекрываются
📖 ТЕКСТ:
Вот модель, через которую мы будем смотреть на всё. Четыре слоя. Железо — фундамент, оно определяет, что физически возможно. Наука — двигатель: архитектуры, методы обучения, оптимизации inference. Продукты — то, что вы запускаете: Cursor, Claude Code, Copilot. Практики — то, как реально изменилась ваша работа. Каскад всегда идёт сверху вниз. Но вот что интересно: задержка между слоями сжимается. В 2017 году от чипа до продукта проходило четыре года. В 2025 — шесть месяцев. А это значит, что волны перекрываются: пятая поднимается, когда третья ещё не закончилась.
🎯 НАПОМИНАЛКИ:
• Волна 1: V100 → Transformer → (4 года!) → Copilot → Comment-Driven Dev
• Ключевой момент: без Tensor Cores attention непрактичен
• RLHF (Christiano 2017) — семя, прорастёт через 5 лет
📖 ТЕКСТ:
Первая волна. 2017 год. Два события, которые определят десятилетие. NVIDIA выпускает V100 — первый чип с Tensor Cores. А команда Google публикует «Attention Is All You Need». Два события — а потом четыре года тишины. Почему? Потому что от фундаментального открытия до продукта нужна инфраструктура. Нужен масштаб. Нужно понять, как это использовать. Первая волна — самая медленная. Но именно она заложила фундамент для всего остального.
🎯 НАПОМИНАЛКИ:
• V100 = первые Tensor Cores, 125 TFLOPS — матрицы 5-12× быстрее
• Transformer = self-attention, параллелизм, O(1) расстояние
• RLHF foundations (2017) — мост от «мощного» к «полезному», но позже
• Каскад: V100 Tensor Cores → attention стал практичным
📖 ТЕКСТ:
V100 — первый чип с Tensor Cores. Специализированные блоки для матричных умножений, ускоряющие deep learning в 5-12 раз. В том же году — статья «Attention Is All You Need». Transformer. Self-attention вместо рекуррентности. Ключевое свойство: вся последовательность обрабатывается параллельно, расстояние между любыми позициями — O(1). Красивая математика, но она требует колоссального количества матричных умножений. V100 с Tensor Cores оказался именно тем, что нужно. Без этого чипа Transformer мог бы остаться академической диковинкой. Это наш первый пример каскада: физика определяет, какая наука станет практичной. В том же 2017-м Christiano et al. заложили основы RLHF — обучения из человеческих предпочтений. Это семя прорастёт только через пять лет, когда InstructGPT покажет, что маленькая модель с RLHF побеждает огромную без.
🎯 НАПОМИНАЛКИ:
• BERT (2018), GPT-2 (2019), GPT-3 (2020) — наука работает, продуктов нет
• Copilot preview = июнь 2021, Codex, VS Code
• 27% кода AI-generated. 1M+ пользователей за год
• Comment-driven dev: комментарий = вход, код = выход
• Speculative decoding тоже 2021 — важная инфраструктура для будущего
📖 ТЕКСТ:
Четыре года. BERT в 2018, GPT-2 в 2019, GPT-3 в 2020 — наука бурлит, но программисты ещё не заметили. Stack Overflow на пике, все пишут код руками. И вот 29 июня 2021 года GitHub показывает Copilot. Внутри — Codex, GPT-3, дообученная на коде. Обычный разработчик открывает VS Code, пишет комментарий «sort array by date descending» — и AI дописывает реализацию. 27% кода в enabled-файлах. Рождается comment-driven development — комментарии перестают быть выходом и становятся входом. Вы описываете *что*, машина пишет *как*. Параллельно появляется speculative decoding — маленькая модель генерирует, большая верифицирует. Acceptance rate 85%, ускорение в 2-3 раза. Пока чистая инфраструктура, но через пару лет это сделает reasoning-модели экономически жизнеспособными. Четыре года — от V100 до Copilot. Самая длинная волна.
🎯 НАПОМИНАЛКИ:
• Волна 2: A100 → масштаб → ChatGPT → смерть SO
• A100 80 ГБ HBM2e сделал GPT-3 физически возможным
• Scaling laws: предсказуемая отдача. Но InstructGPT: post-training > size
• ChatGPT: самая быстрая adoption в истории
📖 ТЕКСТ:
Вторая волна. Волна масштаба. A100 с 80 гигабайтами делает возможным GPT-3 со 175 миллиардами параметров. Kaplan публикует scaling laws — loss падает как степенная функция. Можно предсказать, сколько стоит «следующий уровень». Но внутри этой волны спрятан парадокс, который определит будущее.
🎯 НАПОМИНАЛКИ:
• A100 80 ГБ → GPT-3 175B → scaling laws (Kaplan)
• Scaling laws = степенной закон, «закон Мура для AI»
• InstructGPT: 1.3B RLHF > 175B GPT-3 → post-training > pre-training!
• CoT (Wei 2022): «think step by step» → кратное улучшение на рассуждениях
• H100 FP8 (2022): 4× throughput → квантизация без деградации
📖 ТЕКСТ:
A100 — 80 гигабайт HBM2e, 2 терабайта в секунду. GPT-3 тренируется на кластерах из этих карт. 175 миллиардов параметров. И Каплан показывает scaling laws: loss модели — степенная функция от параметров, данных, compute. Это дорожная карта: хочешь модель лучше — увеличь в 10 раз. Но внутри этой волны рождается парадокс. 2022 год: InstructGPT — модель в 1,3 миллиарда параметров с RLHF — побеждает GPT-3 в 175 миллиардов без RLHF. Маленькая, но «воспитанная» побеждает огромную, но «дикую». Wei et al. публикуют Chain-of-Thought: попроси модель «давай подумаем пошагово» — и точность растёт кратно. Простая идея, непропорциональный эффект. Масштаб важен, но post-training определяет полезность. H100 с нативным FP8 в том же году делает 4× throughput — квантизация становится бесплатной.
🎯 НАПОМИНАЛКИ:
• ChatGPT 30 ноября 2022 — точка невозврата
• SO: 108K → 96K (2 мес) → 25K (2 года). PNAS Nexus: −25% каузально
• SO увольнения: 10% (май '23), 28% (окт '23). Revenue $125M (training data!)
• Prompt Eng: 2 → 144 вакансий/млн. Anthropic: $335K роль
• QLoRA (Dettmers, май 2023): 65B на 1 GPU, 99.3% ChatGPT quality
• RAG: «просто сделай RAG» — стандартный ответ, 51% enterprise
📖 ТЕКСТ:
30 ноября 2022 — ChatGPT. И волна масштаба наконец докатилась до практик. Stack Overflow: 108 тысяч вопросов в ноябре, 96 тысяч в январе, 25 тысяч к декабрю 2024. Минус 76,5%. PNAS Nexus подтвердила каузальность, используя русские и китайские платформы как контроль. SO уволил 10%, потом ещё 28%. Ирония: revenue вырос до 125 миллионов — платформа ценнее как training data, чем как живое сообщество. Одновременно рождаются три практики. Prompt engineering: Indeed фиксирует прыжок с 2 до 144 вакансий на миллион за три месяца, Anthropic постит роль за 335 тысяч долларов. QLoRA позволяет fine-tuning 65-миллиардной модели на одном GPU — Dettmers назвал это «уравнивателем». RAG становится стандартным ответом на «как использовать LLM с нашими данными» — 51% enterprise AI. Вектор-БД получают сотни миллионов инвестиций за один месяц. Волна масштаба — самая «громкая». Она изменила культуру.
🎯 НАПОМИНАЛКИ:
• Волна 3: эффективность. FP8 + MoE + KV cache = больше за меньше
• H100 FP8 → квантизация без потерь
• MI300X 192 ГБ → конкуренция NVIDIA
• MoE: ~47B total, ~13B active → каждая frontier-модель 2025 = MoE
• Cursor: $1M → $100M ARR за 12 мес
📖 ТЕКСТ:
Третья волна — волна эффективности. Она поднимается из парадокса InstructGPT: если маленькая с post-training побеждает большую без — значит, путь не только «больше». Можно сделать «умнее при тех же ресурсах». И три технологии реализуют эту идею одновременно.
🎯 НАПОМИНАЛКИ:
• H100 FP8 → квантизация стала бесплатной
• MI300X 192 ГБ HBM3 → AMD впервые конкурентен
• MXFP4: 120B на одном H100, 90% MMLU → MoE доступен малым командам
• MoE: Mixtral → Qwen3-235B (128 experts, top-8). ResMoE 75% compression
• К 2025: *каждая* frontier-модель = MoE
• Mamba: O(n), 1M+ контекст, но для кода Transformer пока лучше
• KV cache оптимизация: разница между 100 и 600 пользователями на GPU
📖 ТЕКСТ:
H100 с нативным FP8 делает квантизацию бесплатной — обучение и inference в пониженной точности без деградации качества. MI300X от AMD — 192 гигабайта единой памяти, впервые модели на 2+ H100 помещаются в одну карту. MXFP4 — 120-миллиардная модель на одном H100 с 90% MMLU. Но главное — MoE, Mixture of Experts. Идея: не все 47 миллиардов параметров нужны для каждого токена. Маршрутизируйте каждый токен к ~13 миллиардам. Качество большой модели при стоимости маленькой. Mixtral показал, что это работает в продакшене. К 2025 году — Qwen3-235B со 128 экспертами, DeepSeek-V3, Grok-3. ResMoE сжимает экспертов на 75%. Каждая frontier-модель — MoE. Параллельно — Mamba: State Space Models с линейной сложностью. Единственный реальный конкурент Transformer. Для аудио и видео уже впечатляет, для кода — пока нет. И KV cache оптимизация: разница между 100 и 600 пользователями на одном GPU. Волна эффективности — это инфраструктура, которая сделала всё остальное экономически возможным.
🎯 НАПОМИНАЛКИ:
• Cursor: $1M → $100M ARR за 12 мес. $29.3B к 2026. Zero marketing
• 1B строк/день. 1M+ DAU. Half Fortune 500
• Cursor 2.0: Composer model (MoE+RL), 4× быстрее, 8 parallel agents
• Архитектура: RAG + Merkle tree + Turbopuffer, сотни ТБ embeddings
• Supermaven acquisition: 1M token context, 250ms latency
• Jensen Huang: «my favorite enterprise AI service»
📖 ТЕКСТ:
Волна эффективности породила Cursor. Основан в 2022, запущен в марте 2023 — четверо студентов из MIT сделали то, что не смог Microsoft: IDE, построенную вокруг AI, а не IDE с плагином. $1 миллион ARR, $100 миллионов ARR — за 12 месяцев. Самый быстрый SaaS-рост в истории. Без единого доллара на маркетинг. К 2026 — $29,3 миллиарда валюация, миллиард строк принятого кода в день. Cursor 2.0 имеет собственную модель — Composer, MoE-архитектура с RL, 4× быстрее аналогов, ~250 токенов в секунду. До 8 параллельных агентов. Под капотом — RAG с Merkle tree для отслеживания изменений, Turbopuffer vector DB, сотни терабайт эмбеддингов. Jensen Huang назвал Cursor «my favorite enterprise AI service». Это не «ещё один продукт» — это новая категория. AI-native IDE.
🎯 НАПОМИНАЛКИ:
• Google: >25% кода AI (Pichai). Copilot: 46% (Java 61%)
• Vogels: verification debt — ревью AI-кода сложнее, чем debug своего
• 85% devs используют AI daily (JetBrains 2025)
• AI-native IDE как категория: Cursor, Windsurf, потом Kiro, Antigravity
• MCP (ноябрь 2024): тихий запуск. Через год — стандарт индустрии
📖 ТЕКСТ:
Практики волны эффективности: «пиши меньше, ревьюй больше». Google признаёт, что больше 25% нового кода AI-сгенерировано. У активных Copilot-юзеров — 46%, а у Java-разработчиков — 61%. Werner Vogels на re:Invent вводит термин «verification debt»: когда ты пишешь код сам, понимание приходит в процессе создания. Когда машина пишет — ты должен восстановить это понимание при ревью. А это сложнее. AI-native IDE становится реальной категорией: Cursor, Windsurf. JetBrains 2025 показывает 85% adoption AI-инструментов. И в ноябре 2024 Anthropic тихо выпускает MCP — Model Context Protocol. Открытый стандарт подключения AI к инструментам. JSON-RPC, вдохновлённый LSP. Пока мало кто заметил. Но через год — 97 миллионов скачиваний, 10 тысяч серверов, и OpenAI, Google, Microsoft принимают его. «USB-C для AI.»
🎯 НАПОМИНАЛКИ:
• Волна 4: reasoning. Самая важная научно
• B200 FP4 делает inference scaling экономичным
• GRPO = главное открытие 2025: reasoning из чистого RL
• o1 → R1 (open-weight) → Claude Code + Codex → vibe coding + agents
📖 ТЕКСТ:
Четвёртая волна. Волна Reasoning. Она начинается с нового железа — B200 с нативным FP4 — и приходит к самому важному научному открытию 2025 года. Эта волна перевернула парадигму: оказалось, что reasoning не нужно программировать и не нужно показывать примерами. Оно возникает само.
🎯 НАПОМИНАЛКИ:
• B200: FP4, 2.5× inference. Делает TTC экономически оправданным
• Groq: SRAM-based, 300 т/с. NVIDIA купила за $20B — inference = отдельный рынок
• TPU v6: 4.7× vs v5e. Google конкурирует на своём железе
• TTC: 7B + search > 34B. Paradigm shift: compute at inference, not training
• DPO (Rafailov): прямая policy optimization, без reward model
• Cerebras WSE-3: 4T транзисторов, wafer-scale
📖 ТЕКСТ:
B200 — нативный FP4, 2.5× inference по сравнению с H100. Это делает test-time compute scaling экономически оправданным: можно тратить больше вычислений на inference, потому что каждый FLOP стоит меньше. Groq показывает, что inference-чип может быть принципиально другим: SRAM вместо DRAM, детерминизм, 300 токенов в секунду. NVIDIA купит Groq за 20 миллиардов — потому что inference и training требуют разного железа. TPU v6 показывает 4.7× — Google начинает конкурировать на своём железа. И тут приходит Test-Time Compute Scaling: Llemma-7B с tree search побеждает Llemma-34B на всех стратегиях. «Думай дольше, а не больше» — разворот парадигмы. А DPO убирает reward model из RLHF — alignment становится доступным командам без тысяч GPU.
🎯 НАПОМИНАЛКИ:
• GRPO = Group Relative Policy Optimization (DeepSeek)
• R1-Zero: base model + RL (только correctness reward) → reasoning emerges
• Emergent: self-reflection, verification, «aha moments»
• AIME: 15.6% → 71%, 86.7% majority voting (= o1)
• Nature сентябрь 2025 — уровень «Attention Is All You Need»
• Дополнительно: SCoT (if/else/for для CoT), Code-First CoT (+9.86%)
📖 ТЕКСТ:
GRPO. Group Relative Policy Optimization от DeepSeek. Это главное научное открытие 2025 года, и я не преувеличиваю. Возьмите базовую модель. Не давайте ей ни одного примера рассуждений. Только сигнал «правильно» или «неправильно» на математических задачах. Запустите RL. Что произойдёт? Reasoning *возникнет сам*. DeepSeek-R1-Zero показала прыжок с 15,6% до 71% на AIME 2024. Появились emergent behaviors, которые никто не программировал: self-reflection, verification, и «aha moments» — когда модель поправляет ход мысли в процессе рассуждения. Вышло в Nature. Почему это на уровне «Attention Is All You Need»? Потому что раньше для reasoning нужны были дорогие человеческие примеры. Теперь — дай сигнал «верно/неверно» и reasoning возникнет. Это меняет парадигму тренировки. Параллельно — SCoT показывает, что рассуждения через if/else/for работают лучше, чем через естественный язык. А Code-First CoT: генерируй код СНАЧАЛА, объяснение ПОТОМ — на 9,86% лучше.
🎯 НАПОМИНАЛКИ:
• Claude Code: CLI, in-the-loop, 80.9% SWE-bench (Opus 4.5), $1B ARR
• Codex: cloud, async, 56.8% SWE-bench Pro, 77.3% Terminal-Bench
• Два подхода сходятся: оба добавляют features друг друга
• o1: первая reasoning-модель в проде
• R1 open-weight: 7B = 55.5% AIME → thinking для всех
• Copilot: 20M+ users, 42% market, 1.2M PRs/month
📖 ТЕКСТ:
Два продукта, два подхода. Claude Code — CLI-агент в терминале, рядом с вами. In-the-loop: вы видите, что он делает. 80,9% SWE-bench Verified с Opus 4.5 — первая модель выше 80%. 90% собственного кода Claude Code пишет сам. Миллиард долларов ARR. Codex от OpenAI — другая философия: облачный, асинхронный. Отправляете задачу, идёте пить кофе, получаете PR. 56,8% на SWE-bench Pro — более сложном бенчмарке. 77,3% Terminal-Bench. Два подхода, но они сходятся — оба добавляют features друг друга. OpenAI o1 — первая reasoning-модель в продакшене: 30 секунд думает, потом правильный ответ. DeepSeek-R1 с открытыми весами: 7-миллиардная модель показывает 55,5% AIME — каждый может запустить «думающую» модель локально. Copilot тем временем вырос до 20 миллионов пользователей, 42% рынка, и генерирует 1,2 миллиона PR в месяц.
🎯 НАПОМИНАЛКИ:
• Vibe coding: Karpathy 2 фев, 4.5M просмотров, Collins WotY 2025
• YC W25: 25% стартапов = 95% AI-код. Но 72% профи = «не мой метод»
• Willison: «если ревьюишь — не vibe coding, а typing assistant»
• Агентное программирование: 1.2M PR/мес Copilot, Claude Code, Codex
• AI code review: 14.8% → 51.4% (Jellyfish), 81% quality improvement (Qodo)
• CodeRabbit: vibe-coded = 1.7× major issues, 2.74× security vulns
📖 ТЕКСТ:
Волна reasoning породила культурный момент. 2 февраля 2025 — Карпати: «Vibe coding — забудь, что код существует, accept all, не читай дифы.» 4,5 миллиона просмотров. Collins Word of the Year. Y Combinator: 25% стартапов — 95% AI-код. Но контрапункт: 72% профессионалов говорят «это не мой метод». Willison уточняет: если ты всё ревьюишь и тестируешь — это не vibe coding, а AI как typing assistant. Агентное программирование — новая практика: «AI реализует фичи, пока я занят другим». Claude Code, Codex, Copilot Agent генерируют 1,2 миллиона PR в месяц. AI code review: с 14,8% в январе до 51,4% в октябре. AI в каждом седьмом PR. Но CodeRabbit показал обратную сторону: vibe-coded PR содержат в 1,7 раза больше major issues и в 2,74 раза больше security-уязвимостей.
🎯 НАПОМИНАЛКИ:
• Волна 5: верификация. Ответ на adoption-trust парадокс
• NVFP4 → длинный контекст → больше верификации за те же деньги
• Astrogator: domain-specific verification работает (83/92%)
• Kiro: spec-driven. Antigravity: agent-first
• MCP: 97M downloads. Spec-driven dev. Команды 30-60 → 2-5
📖 ТЕКСТ:
Пятая волна. Она только начинается, и она отвечает на главный вопрос: «как доверять AI-коду?» 85% разработчиков используют AI, но только 29% доверяют результатам. Волна верификации — ответ на этот разрыв. И она тоже начинается с железа.
🎯 НАПОМИНАЛКИ:
• NVFP4: 50% меньше памяти → длинный контекст дешевле → больше для верификации
• Astrogator: FQL, domain-specific, 83/92% — production-ready путь
• CoT+RAG: 100% спеки, 58% верификация — недостаточно для прода
• Auto-formalization: мертво. Domain-specific: жив
• Free Transformer: latent variables для planning, +11% код (8B)
• EvoMAC: самоэволюция агентных топологий
📖 ТЕКСТ:
NVFP4 — 4-битный KV-кеш. 50% сокращение памяти. Звучит как микрооптимизация, но это 50% больше контекста на том же GPU — а длинный контекст критичен для верификации: нужно держать в памяти и код, и спецификации, и тесты. QuantSpec, ShadowKV, MagicDec — вместе делают 128K контекст управляемым. Наука верификации разделилась на два пути. Astrogator показал, что domain-specific формальная верификация работает: 83% верификация корректного кода, 92% детекция некорректного. Для конкретного домена, конкретного языка — production-ready. Но general auto-formalization? CoT+RAG даёт 100% синтез спецификаций, но только 58% реальная верификация. Полная авто-формализация — тупик, по крайней мере сейчас. Free Transformer от Meta — интересный поворот: модель планирует направление генерации до первого символа через латентные переменные. +11% на кодогенерации. EvoMAC — агенты, которые перестраивают собственную топологию. Путь к верифицированному коду — domain-specific, не general.
🎯 НАПОМИНАЛКИ:
• Kiro: spec-driven. Brooker: «спецификация = version-controlled super prompt»
• Böckeler (Thoughtworks): «sledgehammer to crack a nut» для мелких багов
• Antigravity: agent-first, Manager View, artifacts для trust
• SWE-bench: 2% → 75% за 2 года (37×)
• SWE-bench Pro решает data contamination: GPL public + commercial code
📖 ТЕКСТ:
Kiro от AWS — ответ на вопрос «как управлять агентами?» через спецификации. Вместо промптов — requirements.md, design.md, tasks.md. Marc Brooker: «спецификация — это version-controlled, human-readable super prompt». Birgitta Böckeler из Thoughtworks критикует: для простого бага — sledgehammer to crack a nut. Но для больших фич — это работает. Google запускает Antigravity — agent-first IDE, где Manager View позволяет запустить 5+ автономных агентов и следить за ними как за командой. Артефакты, скриншоты, recordings — как доказательства того, что агент сделал правильно. SWE-bench: с 2% в 2023 до 75% в 2025. 37 раз за два года. SWE-bench Pro появился, чтобы решить проблему data contamination: GPL-код в public set, commercial codebases в private.
🎯 НАПОМИНАЛКИ:
• MCP: 97M downloads, 10K+ серверов, LF donation. «USB-C для AI» = реальность
• Команды: 30-60 → 2-5 (Salva/Google). 23% бюджет → AI tools (Jellyfish)
• Джуниоры: −20% занятость (Stanford), −5/квартал (Harvard), 54% лидеров: меньше наймём
• 44% организаций: падение фундаментальных навыков у джуниоров
• Prompt engineer: роль умирает, навык остаётся. Microsoft: «предпоследнее место» среди новых ролей
📖 ТЕКСТ:
MCP — тихо запущенный в ноябре 2024 — взорвался. 97 миллионов скачиваний, 10 тысяч серверов. OpenAI, Google, Microsoft приняли. В декабре 2025 — Linux Foundation. Трудно вспомнить другую технологию, получившую единогласную поддержку всех конкурентов. Команды сжимаются: Ryan Salva из Google описывает переход от 30-60 до 2-5 человек на фичу. Collison из Stripe: «minimum viable team size collapsed». 23% организаций перераспределяют бюджет с headcount на AI tools. Кризис джуниоров: Stanford показывает -20% занятости среди 22-25 лет, Harvard — минус 5 джуниоров в квартал. 44% организаций наблюдают падение фундаментальных навыков. И prompt engineering как отдельная роль умирает — с 144 до 20-30 вакансий на миллион. Но 68% компаний обучают всех промптингу — навык стал универсальным.
🎯 НАПОМИНАЛКИ:
• 85% adoption, 29% trust, 66% «almost right but not quite»
• Favorability: 77% → 60%. «Willing but reluctant»
• METR: +20% ожидание, −19% реальность = 40 п.п. gap
• 69% продолжили пользоваться после эксперимента!
• Sonar: toil = 23-25% const. Вид toil меняется, объём — нет
• DORA 2025: AI = усилитель, не уравниватель
📖 ТЕКСТ:
Вот центральный парадокс, который объединяет все пять волн. 85% разработчиков используют AI ежедневно. Но только 29% доверяют результатам — падение с 42% за год. 66% говорят: «почти правильно, но не совсем» — это главная боль. Favorability: с 77% до 60%. «Willing but reluctant.» METR — золотой стандарт, рандомизированное контролируемое испытание. 16 опытных open-source разработчиков, 246 задач. Думали, что AI делает их на 20% быстрее. Реальность: на 19% медленнее. 40 процентных пунктов разрыв. Но 69% продолжили пользоваться после эксперимента! Sonar добавляет деталь: toil остаётся 23-25% вне зависимости от AI. Работа не исчезла — сместилась от написания к верификации. DORA 2025 сказали лучше всех: «AI усиливает сильные стороны высокоэффективных организаций и дисфункции слабых.» Не уравниватель — усилитель.
🎯 НАПОМИНАЛКИ:
• Slopsquatting: 19.7% hallucinated deps, 43% repeatable → attack vector
• 40% GPT-кода с vulns (Trend Micro), 73% CWE (Georgetown)
• CodeRabbit: 470 PRs, vibe-coded = 1.7× major, 2.74× security vulns
• 3% highly trust. 75% manually review every snippet
• MCP CVE-2025-6514: 437K compromised envs — стандарт = attack surface
• Lovable: 170/1645 apps с security vulns exposing personal info
📖 ТЕКСТ:
Цена скорости. USENIX 2025: 19,7% зависимостей в AI-сгенерированном коде — несуществующие пакеты. Модели галлюцинируют имена. 43% повторяются — предсказуемые цели. Атакующие регистрируют пакеты с этими именами и вредоносным кодом. «Slopsquatting.» 40% GPT-кода содержит уязвимости по Trend Micro, Georgetown нашли CWE в 73% образцов. CodeRabbit проанализировал 470 PR с vibe-coded контентом: 1,7× больше major issues, 2,74× больше security-уязвимостей. Только 3% разработчиков «высоко доверяют» AI-коду. MCP — новый стандарт, но и новый attack surface: CVE-2025-6514 скомпрометировал 437 тысяч dev-окружений. Lovable: 170 из 1645 созданных web-приложений имели security-уязвимости, раскрывающие персональные данные. Это не теоретические риски.
🎯 НАПОМИНАЛКИ:
• Одна картинка = все пять волн
• Задержка сжимается: 4 → 3 → 2 → 1 → 0.5 года
• Волны перекрываются: 5-я начинается, когда 3-я не закончилась
• Каждая строка: HW → Science → Product → Practice
• Hardware определяет всё — каждый прорыв упирался в железо
📖 ТЕКСТ:
Вот все пять волн на одном слайде. Обратите внимание на задержки. Первая волна: 4 года от V100 до Copilot. Вторая: 3 года от A100 до ChatGPT-эффектов. Третья: 2 года от H100 FP8 до Cursor-бума. Четвёртая: год от B200 до агентного программирования. Пятая: 6 месяцев от NVFP4 до spec-driven development. Каскад ускоряется. И волны перекрываются — пятая начинается, когда третья ещё не закончилась. Каждая строка: чип → наука → продукт → практика. Уберите любой чип — и следующей волны не будет. Hardware определяет всё.
🎯 НАПОМИНАЛКИ:
• 5 takeaways, каждый — одно предложение
• Железо → наука → продукт → практика (каскад)
• GRPO = paradigm shift. Reasoning = emergent
• Три scaling laws сходятся. Баланс > размер
• Усилитель, не замена. METR: −19% реальность при +20% ощущении
• Спецификации > промпты. Domain-specific > general
📖 ТЕКСТ:
Пять вещей. Первое: следите за железом. Новый чип — это предсказание на 1-3 года вперёд. Когда NVIDIA анонсирует что-то — думайте, какую науку это сделает возможной, и какой продукт появится через год. Второе: GRPO — самое важное открытие 2025 года. Reasoning из чистого RL, без человеческих примеров. Emergent property. Третье: три закона масштабирования сходятся. Будущее — не «сделай больше», а «распредели умнее» между pre-training, post-training и inference. Четвёртое: AI — усилитель. METR показал: -19% скорости при +20% ощущении. DORA: усиливает сильных, обнажает слабых. Работа сместилась от написания к верификации, но не исчезла. Пятое: будущее за спецификациями и domain-specific верификацией. Не «напромпти лучше», а «специфицируй точнее». Astrogator, а не full auto-formalization.
🎯 НАПОМИНАЛКИ:
• Karpathy: vibe coding — культурный сдвиг
• DORA: усилитель — трезвая правда
• Brooker: спецификация > промпт — будущее
• Solar-Lezama: без AI примитивно — эмоциональная правда
📖 ТЕКСТ:
Четыре цитаты. Карпати — культурный сдвиг: забудь, что код существует. DORA — трезвая правда: AI не делает всех лучше, он усиливает то, что уже есть. Brooker — будущее: спецификация как super prompt. И Solar-Lezama из MIT — эмоциональная правда: без этих инструментов уже «примитивно». Пять волн за девять лет. От Tensor Cores до верифицированной кодогенерации. От четырёх лет задержки до шести месяцев. И каждая волна начиналась с железа.
🎯 НАПОМИНАЛКИ:
• Поблагодарить. Визуализация доступна. Вопросы?
• Готовность к вопросам: METR, GRPO, vibe coding, безопасность, джуниоры
📖 ТЕКСТ:
Спасибо за внимание! У меня есть интерактивная визуализация — HTML-страница со всеми связями между слоями. Три markdown-файла с полным исследованием. Давайте обсудим — какая из пяти волн резонирует с вашим опытом? Что вы видите на горизонте?