ПРАВИЛО БЕЗОПАСНОЙ ГАВАНИ (SAFE HARBOR)

Это обязательный юридический слайд.

Всё содержимое этого доклада может быть художественным вымыслом или неправдой. Поэтому, нужно думать своей головой и не верить докладчику на слово.

Если вы пытаетесь внедрить решения и знания, полученные из этого доклада, вам стоит нанять профессионалов. Они расскажут, что стоит использовать, а что — нет.

2025 год. Цифры.

  • $202B — инвестиции в AI за год
  • 800M еженедельных пользователей ChatGPT
  • 50% всего венчурного капитала мира — в AI
  • Брет Тейлор (OpenAI): «У нас тоже пузырь»

Кассовый вопрос: заменит ли AI-чат программистов?

Часть первая

Нужны ли вообще чаты?

80 лет битвы чатов с файлами

Этот вопрос задавали раньше

1961 — «Интерактивные терминалы заменят пакетную обработку!»
1973 — «Живая среда LISP заменит файлы!»
1985 — «Экспертные системы заменят специалистов!»
1997 — «UML-диаграммы заменят код!»
2022 — «ChatGPT заменит программистов!»


Каждый раз — файлы и работа людей над ними побеждали.

Цикл 1

Первый «чат» в истории

1961 — 1972

До 1961: компьютер размером с дом

  • ENIAC (1945): 27 тонн, 174 кВт
  • Программирование = перекоммутация проводов
  • Перфокарты: пробил → сдал оператору → ждёшь часы
  • Ошибка = повторить весь цикл

Программист не видит компьютер.

1961: CTSS — первый диалоговый интерфейс

Fernando Corbató, MIT. IBM 7094.

Несколько пользователей одновременно.
Печатаешь команду → получаешь ответ. Сразу.


«Man-Computer Symbiosis»
— Licklider, 1960

Интерактивные пользователи работали на порядок продуктивнее.

1966: ELIZA — первый чат-бот

Joseph Weizenbaum, MIT. ~200 правил.

Программа прикидывается психотерапевтом.
Чистый pattern-matching. Никакого «понимания».

Но секретарь Вейценбаума попросила его
выйти из комнаты
чтобы поговорить с ELIZA приватно.

(Возможно, анекдот — но показательный.)

Развязка: Unix, C и «всё есть файл»

Thompson и Ritchie уходят из Multics.
Создают Unix на PDP-7.

Философия: «всё есть файл»

  • ed (1969) → vi (1976) — файловые редакторы
  • C (1972) — файловый язык: редактируй → компилируй → запускай
  • Pipe, текстовые потоки, конфиг-файлы

Файловый подход определил следующие 50 лет.

Цикл 2

Будущее, которое не случилось

1973 — 1983

Interlisp-D: IDE из будущего

Xerox PARC. Teitelman & Bobrow.

  • DWIM — Do What I Mean (автоисправление)
  • Structure-aware editing
  • Live debugging — отладка прямо в работающей программе
  • Программа — не файл, а живой объект в памяти

В некоторых аспектах — продвинутее Claude Code 2025 года.

Нечто подобное: JetBrains MPS (используется для исследований и на заводах)

Smalltalk: вся программа — живая

Alan Kay, Dan Ingalls. Xerox Alto.

Image-based: вся программа — живой образ в памяти.
Нет файлов. Нет компиляции. Всё — прямо сейчас.

Вдохновил Macintosh.


Но: нет контроля версий, нет совместной работы.

Развязка: $100K vs $49.99

LISP-машина IBM PC + Turbo Pascal
$100 000 $1 565 + $49.99
Специализированная Универсальная
Живая среда Edit → compile → run
~10 000 продано 600 000 за 3 года

Будущее проиграло настоящему.
Файлы: 2, Чат: 0.

Цикл 3

«Заменим программистов диаграммами»

UML · 1997 — 2016

UML + MDA: «модель это код»

IBM купил Rational за $2.1B (2003)

  • 14 типов диаграмм
  • Обещание: рисуешь диаграмму → получаешь код
  • Освоить UML сложнее, чем написать код, который он призван заменить

Сгенерированный код — раздутый, неидиоматичный, неподдерживаемый.

Agile убивает UML

2001, Snowbird, Юта. 17 практиков.

«Работающий софт важнее исчерпывающей документации.»

Martin Fowler — автор UML Distilledсреди подписавших.


2016: Visual Studio убирает поддержку UML.

Черное зеркало

UML (1997) AI Chat (2022)
Заменим код диаграммами Заменим код промптами
Модель это код Промпт это код
Сгенерированный код — неподдерживаемый Сгенерированный код — ?
Последняя миля — код пишется вручную Последняя миля — код пишется вручную?

Оба недооценивают сложность реального софта.

Цикл 4

Отражение 2025 года

Экспертные системы · 1981 — 1993

Экспертные системы: хайп 1980-х

  • DENDRAL, MYCIN, R1/XCON
  • DEC экономит $40M/год с R1/XCON
  • $1B+/год инвестиций к 1985
  • «Новые AI-компании — по одной в неделю»
  • Япония: Fifth Generation Computer, $850M

Крах за один год

1987: Рынок LISP-машин уничтожен за один год.

  • 300+ AI-компаний закрылось
  • Symbolics — банкрот
  • Шенк и Минский предупреждали ещё в 1984

Джек Шварц (DARPA):

«Это просто хитрое программирование.»

Параллели

1985 2025
Инвестиции $1B+/год $200B+/год
Обещание AI заменит экспертов AI заменит программистов
Реальный результат Экономия в нишах Экономия в нишах
Хрупкость Не обобщает Галлюцинации
Доверие ↓ Минский: «хайп» SO: 70% → 60%

Между циклами

Три победы файлов, о которых забывают

Три «тихие» победы

GUI (1984 → 1995)
Macintosh, Windows 95. Самая массовая интерактивная революция.
Но метафора рабочего стола — это папки и файлы.
Save As. Drag-and-drop. GUI = визуализация файлов.
Cortana Chat в Windows 11 не взлетел.

Веб (1993 → сегодня)
Четвёртый великий интерфейс. HTML/CSS/JS — файлы.
URL — адрес ресурса. HTTP GET — «дай файл».
В Chromium Developer Tools экспериментируют, а не пишут в прод.

Jupyter (Python, 2014) и Zeppelin (Scala, 2015)
10M Jupyter-ноутбуков на GitHub. Но стандартный workflow:
«Исследуй в notebook → перенеси в .py файлы.»
Очень медленный прогресс.

Текущий цикл

AI-революция в реальном времени

2022 — 2025

ChatGPT: восьмой «чат»

Ноябрь 2022. 100M пользователей за 2 месяца.

Восьмая итерация того же паттерна:

CTSS → ELIZA → MS-DOS → VB/Delphi →
→ Jupyter → ChatGPT

Новейший «чатовый» интерфейс computing.
А дальше?

Файлы контратакуют

Copilot (2021) → Cursor (2023)
AI интегрирован в файловые IDE.
Cursor: $1B ARR. AI-first, но файловый.

Claude Code / Codex CLI
Терминальные агенты. Читают и пишут файлы.
CLAUDE.md — конфиг через markdown-файл.

Kiro (AWS, 2025)
requirements.md → design.md → tasks.md → код
AI-революция породила инструмент,
генерирующий спецификации в файлах.

Git — финальный аргумент

Linus Torvalds, 2005. Distributed VCS.

diff — только для файлов
merge — только для файлов
branch — только для файлов
code review — только для файлов


Git не работает с чат-сессиями,
REPL-историями или живыми образами.

Контроль версий — структурное преимущество файлов.

Git не работает с чат-сессиями?

А если найду?

Thomas Dohmke, стартап EntireHQ

  • $60 млн в сид раунде с оценкой в $300 млн
  • AI-first Git Platform
  • Checkpoints: автоматическое сохранение контекста агентов в Git

Всё это тоже файлы, хоть и гибридные

Почему файлы побеждают. Каждый раз.

1. Контроль версий
diff, merge, branch, blame — только текстовые файлы

2. Совместная работа
Code review, pull requests, CI/CD — только файлы

3. Воспроизводимость
Файл на моей машине = файл на вашей машине = файл на сервере


Эти свойства не зависят от технологии.
Они работали в 1972. Работают в 2025.

8 циклов. Один паттерн.

1961 Time-sharing → Unix: «всё есть файл»
1973 LISP-машины → IBM PC + Turbo Pascal
1984 GUI-революция → Рабочий стол = папки + файлы
1985 Expert Systems → Крах за один год
1993 Веб-браузер → HTML/CSS/JS = файлы
1997 UML: модель→код → Agile: «работающий софт»
2014 Jupyter → «Исследуй → перенеси в .py»
2022 ChatGPT → Cursor, Claude Code, Kiro

Вопрос не «чат или файлы?»

Интерактивные инструменты не умирают.
REPL жив. Jupyter жив. ChatGPT будет жить.

Вопрос: сколько времени мы используем чат, и сколько файлы?


Исследуй в чате.
Разрабатывай в файлах.

Это не что-то новое, это 80 лет эволюции.

Часть вторая

Новое лето искусственного интеллекта

Как мы дошли до 100% генерации кода

HardwareScienceProductsPractices

Пять волн AI-революции в разработке

Февраль 2026

Каскад: от железа до нашей повседневной работы

Hardware — железо определяет границы возможного
Science — учёные осваивают новые горизонты
Products — то, что вы можете скачать и запустить
Practices — как вы реально изменили подход к работе

 

Задержка каскада:
4 года в 2017 → 6 месяцев в 2025.
Волны ускоряются и перекрываются.

1

Волна Tensor Cores

2017 → 2021. Четыре года от чипа до продукта

V100Transformer + RLHFCopilotComment-Driven Dev

Самая длинная волна. Четыре года тишины между открытием и продуктом.

V100: железо, которое зажгло искру

125 TFLOPS для deep learning. Tensor Cores: матричные операции 5–12× быстрее

Transformer: архитектура, которая победила всех

Self-attention заменяет рекуррентность.
Параллельная обработка всей последовательности. O(1) между любыми позициями

В том же году — RLHF foundations (Christiano et al.). Семя, которое прорастёт через 5 лет

 

Без Tensor Cores Transformer остался бы академическим курьёзом.
Это первый пример каскада: чип делает науку возможной.

Четыре года тишины → Copilot

2018–2020: ученые работает, продуктов нет.

  • BERT (2018), GPT-2 (2019), GPT-3 (2020)
  • Программисты ещё не заметили

Июнь 2021 — GitHub Copilot Preview
Codex (GPT-3, дообученный на коде). Первый массовый AI-ассистент для кода

27% кода в файлах генерирует AI. 1M+ пользователей за год

Новая практика: Comment-Driven Development

Комментарии стали входом, а не выходом. Напиши что — AI напишет как

Задержка волны 1: 4 года от железа до продукта

2

Волна Масштаба

2020 → 2023. Больше = лучше (пока не перестало)

A100GPT-3, Scaling Laws, CoT, InstructGPTChatGPTSO умирает, Prompt Eng, RAG

Scaling is all you need

Волна, в которой масштаб породил эмерджентность
И парадокс: маленькая модель + RLHF лучше, чем огромная модель

A100 → Scaling Laws + парадокс InstructGPT

A100: 80 ГБ HBM2e, 2 ТБ/с. GPT-3 (175B) тренировался на кластерах A100

Scaling Laws (Kaplan et al.): loss = степенная функция от параметров, данных, compute
«Закон Мура для AI»: предсказуемая отдача при 10× увеличении

 

Парадокс 2022: маленькая побеждает большую

InstructGPT: 1,3B с RLHF побеждает 175B GPT-3 без
Chain-of-Thought (Wei et al.): «Let's think step by step» — кратно улучшает точность

Pre-training scaling работает, но post-training определяет полезность.
H100 с нативным FP8 (4× throughput vs A100) делает это масштабируемым.

ChatGPT → Stack Overflow умирает за 24 месяца

30 ноября 2022 — ChatGPT. Самая быстрая adoption в истории

Stack Overflow

  • ноябрь 2022: 108 563 вопросов/мес
  • январь 2023: 96 377 (−11%)
  • декабрь 2024: 25 566 (−76,5%)

PNAS Nexus: −25% каузальное снижение. SO: увольнения 10% + 28%

Одновременно — рождение трёх практик

Prompt Engineering: Indeed: 2 → 144 вакансии/млн за 3 месяца
QLoRA: 65B модель на одном 48GB GPU — «уравниватель»
RAG: 51% enterprise AI. Pinecone $100M, Weaviate $50M

3

Волна Эффективности

2022 → 2025. Не «больше» — а «умнее при тех же ресурсах»

H100 FP8, MI300X, MXFP4MoE, Mamba, KV cacheCursor, AI IDEsAI-native IDE, «write less»

Волна, где MoE стала доминирующей архитектурой, а Cursor — самым быстрым SaaS в истории

Мощное и эффективное железо

H100 FP8 (2022): обучение и inference в пониженной точности без деградации. 4× throughput
MI300X (2023): 192 ГБ единой памяти — AMD конкурирует с NVIDIA
MXFP4 (2025): 4-битная квантизация. 120B на одном H100 (90% MMLU)

MoE: архитектурный ответ на проблему масштаба

Mixtral 8×7B: из ~47B параметров работают ~13B на токен
Качество большой модели при стоимости маленькой

К 2025: Qwen3-235B (128 экспертов, top-8), DeepSeek-V3, Grok-3
ResMoE: 75% сжатие. Каждая frontier-модель 2025 — MoE

Параллельно: Mamba (SSMs) — O(n) вместо O(n²). Единственный реальный конкурент Transformer, но для кода пока не победил

Cursor: самый быстрорастущий SaaS в истории

AI-native IDE — не «плагин в IDE», а «AI с IDE вокруг»

$1M ARR → $100M ARR за ~12 месяцев. К 2026: $29,3B валюация, $1B+ ARR
1 миллиард строк принятого кода в день. Ни одного доллара на маркетинг

Cursor 2.0

Composer model (MoE + RL)
4× быстрее, ~250 т/с
До 8 параллельных агентов

Под капотом

RAG + Merkle tree для изменений
Turbopuffer vector DB
Сотни ТБ эмбеддингов

Jensen Huang назвал Cursor «my favorite enterprise AI service»

Практики волны эффективности

«Пиши меньше, ревьюй больше»

Google: >25% кода AI-сгенерировано (Pichai, Q3 2024)
46% кода у активных Copilot-юзеров — AI. Java-разработчики: 61%

Werner Vogels: «Verification debt» — ревью AI-кода сложнее, чем своего

AI-native IDE как категория

Cursor + Windsurf → десятки тысяч переходят. 85% используют AI daily (JetBrains 2025)

MCP — «USB-C для AI» (ноябрь 2024)

Anthropic выпускает открытый стандарт. JSON-RPC, вдохновлён LSP.
Пока мало кто заметил. Но через год — 97M downloads

4

Волна Reasoning

2024 → 2026. «Думай дольше, а не больше»

B200 FP4, Groq, TPU v6TTC, GRPO ★, DPOo1, R1, Claude Code, CodexVibe Coding, Agents, AI Review

Волна, которая перевернула парадигму: reasoning — emergent property из чистого RL

Железо эры инференса

B200: нативный FP4, 192 ГБ HBM3e, ~2.5× inference/GPU vs H100
Groq LPU: только inference. SRAM, детерминизм. ~300 т/с Llama 70B
TPU v6: 4,7× vs v5e. Google работает на своём железе

Inference-железо ≠ training-железо.
Конец эпохи «один GPU для всего».
NVIDIA купила Groq за $20B (2025)

Test-Time Compute: переворот

Llemma-7B + tree search > Llemma-34B на MATH
«Дай модели подумать» вместо «сделай модель больше»

DPO: убирает reward model → alignment для команд без тысяч своих GPU

★ GRPO: reasoning возникает из ничего

DeepSeek-R1-Zero — чистый RL, без SFT, без примеров рассуждений
Только сигнал «правильно/неправильно». И reasoning возник сам

AIME 2024: 15,6% → 71,0% pass@1. Nature, сентябрь 2025

Что появилось без программирования:

  • Self-reflection — модель проверяет свои шаги
  • Verification — модель ищет ошибки в своём ответе
  • «Aha moments» — модель поправляет себя mid-reasoning

Открытие уровня «Attention Is All You Need».
Раньше: нужны человеческие примеры рассуждений.
Теперь: дай сигнал «верно/неверно» — reasoning возникнет сам.

Два подхода к агентному кодированию

Claude Code

Терминальный, in-the-loop
72,7% → 80,9% SWE-bench (Opus 4.5)
90% своего кода пишет сам
$1B ARR

Codex (OpenAI)

Облачный, async
56,8% SWE-bench Pro (SOTA)
77,3% Terminal-Bench 2.0
10 задач параллельно

o1 (2024): первая reasoning-модель в проде. 30 сек → правильный ответ
DeepSeek-R1 (open-weight): 7B = 55,5% AIME. Каждый может запустить

Copilot: 20M+ юзеров, 42% рынка, 1.2M PR/мес через coding agent

Vibe Coding + Background Agents

«There's a new kind of coding I call 'vibe coding', where you fully give in to the vibes, embrace exponentials, and forget that the code even exists.»
Andrej Karpathy, 2 февраля 2025. Collins Word of the Year

Y Combinator W25: 25% стартапов — 95% AI-код
Но 72% профи: «это не мой метод»

Агентное программирование: делегируй фичу

«AI реализует фичи, пока я занят другим»
Задача → sandbox → PR. Claude Code + Codex + Copilot Agent

AI Code Review: 14%51% за 10 месяцев

AI в 1/7 PR. Qodo: 81% улучшение качества

5

Волна Спецификаций

2025 → ... Только начинается

NVFP4Astrogator, Free Transformer, EvoMACKiro, Antigravity, Verified GenCodeSpec-Driven Dev, MCP стандарт, Teams Shrink

Волна, которая отвечает на вопрос: «как доверять AI-коду?»

Железо и наука о верификации

NVFP4: 4-bit KV-кеш. 50% сокращение памяти → 50% больше контекста на GPU
QuantSpec + ShadowKV + MagicDec → 128K контекст управляем

Наука верификации

Подход Результат Вердикт
Astrogator (domain-specific) 83% верификация, 92% детекция Работает!
CoT+RAG (general) 100% спеки, 58% верификация Недостаточно
Full auto-formalization 58% — непригодно Тупик

Free Transformer (Meta): планирует ДО генерации. +11% код на 8B
EvoMAC: агенты перестраивают свою топологию. +26,5% на Website

Путь к верифицированному коду — domain-specific, не general

Продукты волны спецификаций

Kiro (AWS)

Spec-driven development
requirements.md → design.md → tasks.md → code
Контроль через спецификации, не промпты

Antigravity (Google)

Agent-first IDE
Manager View: 5+ параллельных агентов
Артефакты + скриншоты как доказательства

 

SWE-bench Verified
2023: 2% 2025: 75% 37× за два года

Практики волны спецификаций

MCP: стандарт, который приняли все

Ноя 2024 → ноя 2025: 97M+ downloads, 10 000+ серверов
OpenAI, Google, Microsoft. → Linux Foundation

Команды сжимаются

Google: 30–60 → 2–5. Stripe CEO: «Minimum viable team collapsed»
23% перераспределяют бюджет headcount → AI tools

Кризис джуниоров

Stanford: −20% занятость 22–25 лет. 44%: падают фундаментальные навыки

Prompt Engineer → роль умирает

Indeed: 144/млн → 20–30/млн. Навык: 68% обучают. Роль: исчезает

Центральный парадокс: adoption ≠ trust

85%
используют AI ежедневно
29%
доверяют результатам
66%
«почти правильно, но не совсем»

Favorability: 77% (2023) → 60% (2025). «Willing but reluctant»

METR RCT: 40 п.п. perception gap

Разработчики думали: +20% быстрее. Реальность: −19% медленнее
Sonar: toil = 23–25%с AI и без. Работа сместилась, не исчезла

«AI magnifies the strengths of high-performing organizations
and the dysfunctions of struggling ones.»
DORA 2025

Безопасность: цена скорости

Package hallucination — «slopsquatting»

19,7% зависимостей в AI-коде — несуществующие пакеты (USENIX 2025)
43% повторяются → атакующие регистрируют с malicious code

Уязвимости

40% GPT-кода с уязвимостями (Trend Micro). 73% CWE (Georgetown)
CodeRabbit: vibe-coded PR = 1.7× major issues, 2.74× security vulns

Доверие на цифрах

SO 2025: 3% «высоко доверяют». 75% ревьюят каждый AI-сниппет
MCP CVE-2025-6514: 437 000+ скомпрометированных dev-окружений

Пять волн — один каскад

Волна 1  TENSOR CORES   V100 → Transformer, RLHF → (4 года) → Copilot
Волна 2  МАСШТАБ         A100 → GPT-3, Scaling → ChatGPT → SO умирает
Волна 3  ЭФФЕКТИВНОСТЬ  H100 FP8, MI300X → MoE, KV → Cursor → Write Less
Волна 4  REASONING       B200, Groq → GRPO ★ → Claude Code, Codex → Agents
Волна 5  ВЕРИФИКАЦИЯ    NVFP4 → Astrogator → Kiro, Antigravity → Specs

Задержка: 4 года3 года2 года1 год6 мес

Волны перекрываются: пятая начинается, когда третья ещё не закончилась

Hardware определяет всё.
V100→Transformer. A100→GPT-3. H100→MoE. B200→Reasoning. NVFP4→Verification.

Что забрать с собой

1. Каждая волна начинается с железа. Следите за железом — оно предсказывает, куда пойдет наука, какие появятся продукты и практики на 1–3 года вперёд

2. GRPO — открытие уровня Transformer: reasoning возникает из чистого RL, без примеров

3. Три закона масштабирования сходятся: pre-training + post-training + inference. Оптимум — баланс по трём осям

4. AI = усилитель способностей людей, а не замена людей. 85% adoption, 29% trust. Работа изменила характер, не исчезла. METR: −19% при ощущении +20%

5. Будущее за спецификациями + верификацией. Domain-specific, не general. Spec-driven, не prompt-driven

Цитаты, определяющие момент

«Forget that the code even exists. I Accept All always.»
Karpathy. Collins Word of the Year 2025

«AI magnifies the strengths of high-performing organizations
and the dysfunctions of struggling ones.»

Google DORA 2025

«A specification is a kind of (version controlled, human-readable) super prompt.»
Marc Brooker, Amazon

«Programming without these tools just feels primitive.»
Armando Solar-Lezama, MIT CSAIL

Уроки (горькие)

Уроки: Волна Железа

  • Качество результата зависит не только от твоего навыка, но и от инструментов

  • Нет инструментов и железа - ничего не можешь сделать, и это нормально

Уроки: Волна Масштаба - Публичные сервисы

  • Claude Sonnet и Opus, тариф Max x20 - 200$ в месяц (API дороже)

  • Grok Super Heavy - 300$ в месяц

  • GigaChat Max - 9 750 ₽ за 15 миллионов токенов по API

  • Любые средства для понижения стоимости!!!

Уроки: Волна Масштаба - Локальное железо

Кринж

  • Скорость инференса на CPU - 1-3 токена в секунду, это невыносимо
  • RTX 4090/5090 стоят 200+ тысяч рублей, опасность расплавить питание
  • Старые Tesla (K80, P100) - очень мало VRAM, не поддерживают FP16, а GGUF/llama.cpp работает на деквантизации в FP32, придется строить целый датацентр (минимум 40 карт)

Уроки: Волна Масштаба - Локальное железо

Дорого-богато

  • Соберем всё на Exo + Mac!https://github.com/exo-explore/exo

    • MoE модели параллелятся хуже, чем densed — железа надо больше
  • Максимум VRAM в MacMini

  • 2-терабайтный массив из Mac Studio стоит около 10 миллионов рублей

  • Аналогичный сетап на Nvidia/B200 стоит 40+ миллионов ₽, не найдёте в продаже

  • Любые средства для понижения стоимости!!!

    • MoE, QLoRA, RAG...

Главный способ экономить

Не стройте свой домашний датацентр

Попросите работодателя купить учётки и железо

В AI-компаниях (Anthropic, OpenAI, GitVerse) у сотрудников нет лимитов на токены при использовании своих собственных инструментов

Масштаб требует роста, рост требует скидок!

  • Тарифы Claude и Grok - дотационные
  • Cursor дешевый, но становится всё дороже
  • GigaCode пока бесплатный

Уроки: Волна Эффективности

  • Ключевое: Выбор правильных инструментов
  • Точный подбор модели
  • Точный подбор железа
  • Точный подбор методологии

Уроки: Волна Reasoning

  • Только Reasoning и Extended Thinking
  • Точный подбор агентного тулинга
  • Точный подбор модели
  • Вайбкод для кастомных задач human-in-the-loop
  • Background Agents для масштабных задач

Уроки: Волна Спецификаций

  • Spec-First: спецификации пишутся раньше кода
  • Closed-Loop-Specs: спецификации обновляются автоматически
  • Specs + Skills, оба вместе, а не что-то одно
  • Использование очень конкретных инструментов (Kiro, Antigravity, GigaCode Agents, etc)

Главный урок:

Доверять нейросетям нельзя

(Но придётся)

И вот когда у нас есть на всё это ресурсы, инструменты и практики, когда мы умеем работать в ситуации неопределенности — 100% генерация кода ИИ возможна.

100% автоматическая генерация кода?

Автоматически != бесплатно

По факту, очень дорого

Автоматически != ничего не нужно знать

Огромный инструментарий, растянутый на 80 лет эволюции

И продолжает расти

Автоматически != без участия человека

Нужно писать спецификации, собирать железо, много всего


"Программистов" могут заменить,

но людям придется работать больше, а не меньше

Спасибо. Вопросы?

 

GitVerse с ИИ внутри: https://gitverse.ru

Эти слайды:
https://oleg.guru/talks/100-percent-generation

Новое лето искусственного интеллекта:
https://oleg.guru/ru/timeline

80 лет борьбы чата с файлами:
https://oleg.guru/ru/chat-vs-file

Промт для исследователей:
https://gist.github.com/olegchir/c1104526b000be33763b6369d20f0ebc

Остальные ссылки (Telegram, Twitter...):
https://oleg.guru

НАПОМИНАЛКИ: • Цифры должны шокировать — дай им повисеть • Цитата Тейлора — пауза после неё • Вопрос задать аудитории напрямую ТЕКСТ: Двести два миллиарда долларов. Это AI-инвестиции за 2025 год. Половина всего венчурного капитала мира. 800 миллионов человек каждую неделю разговаривают с ChatGPT. Даже Брет Тейлор из OpenAI говорит: «у нас тоже пузырь». И вопрос, который обсуждают все: заменит ли AI программистов? Чат вместо кода? Промпт вместо спецификации? Я хочу показать, что этот вопрос задавали раньше. Много раз. И ответ был одинаковым.

НАПОМИНАЛКИ: • Это история, не лекция — рассказывай как детектив • Главный тезис: файлы побеждают чат каждый раз • Не давай ответ сразу — создавай интригу • 30 минут = держи темп ТЕКСТ: Привет! Сегодня я расскажу историю. Не про технологии — про паттерн. Один и тот же паттерн, который повторяется в computing уже 80 лет. И который прямо сейчас повторяется снова — с AI.

НАПОМИНАЛКИ: • Каждую строку — с паузой, как удары • «Каждый раз файлы побеждали» — выделить голосом • После этого слайда — перейти к «давайте начнём с начала» ТЕКСТ: 1961 — интерактивные терминалы, будущее! 1973 — живая среда LISP, будущее! 1985 — экспертные системы, будущее! 1997 — UML-диаграммы, будущее! 2022 — ChatGPT, будущее! И каждый раз — файлы побеждали. Не потому что они лучше. А потому что они достаточно хороши — и у них есть свойства, которых нет у «чата». Давайте начнём с начала.

НАПОМИНАЛКИ: • Секционный слайд — просто назвать и перейти • Не задерживаться ТЕКСТ: Первый цикл. Начало шестидесятых. Впервые человек разговаривает с компьютером.

НАПОМИНАЛКИ: • Дать почувствовать боль — часы ожидания! • ENIAC — не абстракция, 27 тонн в комнате • «Не видит компьютер» — ключевая фраза ТЕКСТ: Представьте: вы программист в 1955 году. Вы пишете программу на бумаге, пробиваете перфокарты, сдаёте стопку оператору — и ждёте. Часы. Иногда сутки. Потом получаете распечатку. Видите ошибку. Начинаете заново. Вы не видите компьютер. Не общаетесь с ним. Это как переписка письмами — только с машиной.

НАПОМИНАЛКИ: • Corbató — герой, Тьюринговская премия за это • «Сразу» — подчеркнуть контраст с перфокартами • Цитата Лицклайдера — произнести как манифест ТЕКСТ: 1961 год. Fernando Corbató в MIT создаёт CTSS — Compatible Time-Sharing System. Впервые несколько человек одновременно работают на одном компьютере. Впервые вы печатаете команду — и получаете ответ. Сразу. Не через часы. Сразу. Лицклайдер годом раньше написал визионерскую статью «Симбиоз человека и компьютера». И данные подтвердили: интерактивные пользователи работали на порядок продуктивнее. Это была революция.

НАПОМИНАЛКИ: • Историю про секретаря рассказать как анекдот • 200 правил! — подчеркнуть примитивность • ELIZA effect — люди верят, что программа понимает • Параллель с ChatGPT пока НЕ озвучивать — аудитория сама додумает ТЕКСТ: 1966 год. Тот же MIT. Джозеф Вейценбаум создаёт ELIZA — программу из двухсот правил, которая прикидывается психотерапевтом. Никакого понимания. Чистый pattern-matching. «Расскажите мне об этом подробнее.» И вот анекдот, который, возможно, правда. Секретарь Вейценбаума попросила его выйти из комнаты — чтобы поговорить с ELIZA наедине. 200 правил — и человек верит, что машина его понимает. Вейценбаум назвал это «ELIZA effect». Шёл 1966 год. Кое-кому это напоминает 2022-й?

НАПОМИНАЛКИ: • «Всё есть файл» — произнести как девиз • Thompson и Ritchie — назвать героями • ed → vi → IDE — линия, которая идёт до сегодня • Пауза перед «50 лет» ТЕКСТ: А теперь — развязка первого цикла. Thompson и Ritchie уходят из слишком сложного проекта Multics. Создают Unix. Маленькую, элегантную систему с одним принципом: «всё есть файл». Ed — строковый редактор. Vi — полноэкранный. C — язык, в котором весь workflow файловый: редактируй, компилируй, запускай. Pipe — связываешь программы через текстовые потоки. Time-sharing дал интерактивность. Но программы, конфиги, данные — всё сохраняется в файлах. Этот подход определил следующие пятьдесят лет. Файлы: один, чат: ноль.

ТЕКСТ: Второй цикл. Самый драматичный. Xerox PARC и самая продвинутая IDE в истории.

НАПОМИНАЛКИ: • DWIM — дать аудитории прочувствовать, как это круто • «Живой объект» — контраст с файлами • Claude Code — осознанная провокация, это мой личный опыт • Держать паузу — аудитория должна спросить «и что случилось?» ТЕКСТ: Xerox PARC, начало семидесятых. Тейтельман и Боброу создают Interlisp-D — среду разработки, которая в некоторых аспектах продвинутее наших инструментов сегодня. Я лично это исследовал. DWIM — Do What I Mean. Вы допустили опечатку, система догадывается, что вы имели в виду, и исправляет. Structure-aware editing — редактор понимает структуру кода. Live debugging — отладка прямо в работающей программе. Код — не текст в файле, а живой объект в памяти. Это было будущее. И оно случилось в 1973 году.

НАПОМИНАЛКИ: • Alan Kay — «изобрёл будущее» • Image-based — объяснить: как snapshot виртуальной машины • «Нет контроля версий» — уже намекнуть на причину поражения ТЕКСТ: Рядом, в том же PARC — Алан Кей создаёт Smalltalk. Ещё радикальнее. Вся программа — живой образ в памяти. Нет файлов. Нет стадии компиляции. Вы меняете объект — и изменение сразу в системе. Smalltalk вдохновил Macintosh. Стив Джобс увидел демо в PARC — и всё понял. Но у image-based подхода — фатальная проблема. Нет контроля версий. Нет совместной работы. Как вы сделаете diff двух живых образов? Как вы сделаете code review?

НАПОМИНАЛКИ: • Таблицу дать зрителям прочитать самим • $100K vs $50 — дать повисеть • «Достаточно хорошо» — ключевой инсайт • 600K — выделить голосом ТЕКСТ: И вот развязка. LISP-машина — сто тысяч долларов. Специализированное железо. Живая среда. Продали около десяти тысяч. IBM PC — полторы тысячи. Turbo Pascal — сорок девять долларов и девяносто девять центов. IDE, компилятор и линкер — в 39 килобайтах. Продали шестьсот тысяч за три года. Будущее проиграло. Не потому что файлы лучше живой среды. А потому что дешёвое универсальное железо плюс файлы — достаточно хорошо. И это закономерность, которую мы увидим снова и снова.

ТЕКСТ: Третий цикл. Короткий, но важный — потому что он самое точное зеркало сегодняшних обещаний AI.

НАПОМИНАЛКИ: • $2.1B — IBM верил в это серьёзно • 14 типов — это абсурдно много, подчеркнуть • «Сложнее, чем написать код» — ключевая ирония • Сгенерированный код — как в AI? ТЕКСТ: Конец девяностых. UML — Unified Modeling Language. Идея красивая: рисуешь диаграмму, генерируешь код. Модель это код. IBM верит настолько, что покупает Rational за два с лишним миллиарда долларов. 14 типов диаграмм. Четырнадцать! И ирония: освоить UML сложнее, чем написать код, который он призван заменить. А сгенерированный код? Раздутый. Неидиоматичный. Неподдерживаемый. Последняя миля бизнес-логики — всегда ручной код.

НАПОМИНАЛКИ: • Fowler — автор книги по UML — подписывает Agile Manifesto • Это предательство изнутри — подать драматично • 2016 — тихая смерть, без фанфар ТЕКСТ: 2001 год. 17 практиков собираются в Сноуберде, Юта. Пишут Agile Manifesto. «Работающий софт важнее исчерпывающей документации.» Прямой удар по UML. И вот деталь, которую я люблю. Martin Fowler — автор книги «UML Distilled», одной из самых популярных книг по UML — среди подписавших Agile Manifesto. Даже евангелист UML понял, что это тупик. 2016: Visual Studio тихо убирает поддержку UML. Без фанфар. Просто удалили.

НАПОМИНАЛКИ: • Таблицу показать — и дать повисеть • Не говорить «AI проиграет» — сказать «паттерн знакомый» • Последняя миля — ключевой термин • Вопросительные знаки — осознанно ТЕКСТ: И вот зеркало. UML: заменим код диаграммами. AI: заменим код промптами. UML: модель это код. AI: промпт это код. UML: сгенерированный код неподдерживаемый. AI: сгенерированный код... пока вопрос открытый. Но паттерн — знакомый. Оба подхода недооценивают сложность реального софта. Каркас — пожалуйста. Но последняя миля бизнес-логики — ручной код. Как всегда.

ТЕКСТ: Четвёртый цикл. И самый тревожный. Потому что параллели — один в один.

НАПОМИНАЛКИ: • $40M экономии — это реальный результат, не хайп • «По одной в неделю» — знакомо? • Япония вложила $850M — не забыть • Пока не говорить чем кончилось — интрига ТЕКСТ: 1980-е. Экспертные системы. DENDRAL анализирует химические соединения. MYCIN диагностирует инфекции. R1/XCON конфигурирует компьютеры DEC и экономит сорок миллионов долларов в год. Реальная экономия. Инвестиции — больше миллиарда в год к 1985-му. Новые AI-компании — по одной в неделю. Звучит знакомо? Япония запускает проект Fifth Generation Computer — 850 миллионов долларов.

НАПОМИНАЛКИ: • «За один год» — пауза, дать осознать • 300+ компаний — масштаб катастрофы • Цитата Шварца — кульминация, произнести медленно • Пока НЕ показывать параллели — следующий слайд ТЕКСТ: 1987. За один год рынок LISP-машин уничтожен. Дешёвые персоналки научились делать то же самое. 300 с лишним AI-компаний закрылись. Symbolics — флагман LISP-машин — банкрот. Шенк и Минский — основатели AI как науки — предупреждали ещё в 1984-м. Но их не слушали. Джек Шварц из DARPA подвёл итог: «Это просто хитрое программирование». Не искусственный интеллект. Хитрое программирование. Хрупкое, дорогое в поддержке, не умеющее учиться и обобщать.

НАПОМИНАЛКИ: • Дать таблице повисеть — не комментировать сразу • «$200B» — в 200 раз больше • «Галлюцинации» — современный аналог «не обобщает» • НЕ говорить «AI обречён» — сказать «паттерн тревожный» ТЕКСТ: Посмотрите на параллели. Миллиард тогда — двести миллиардов сейчас. «Заменит экспертов» — «заменит программистов». Реальная экономия в конкретных нишах — и тогда, и сейчас. Хрупкость: экспертные системы не обобщали. LLM — галлюцинируют. Я не говорю, что AI обречён. Масштаб другой, технология другая. Но паттерн — тревожный. И вопрос: а может, и в этот раз «хитрое программирование»?

ТЕКСТ: Между большими циклами были три «тихие» победы файлового подхода. Без драмы, без краха — просто файлы впитали каждую революцию.

НАПОМИНАЛКИ: • Три примера — быстро, по 30 секунд каждый • GUI = файлы — неожиданный поворот для многих • HTTP GET = «дай файл» — это вызывает улыбку • Jupyter — мост к следующей секции ТЕКСТ: Между большими циклами — три тихие победы файлов. Первая: GUI. Macintosh. Windows 95. Самая массовая «интерактивная» революция в истории. Но на что вы смотрите на рабочем столе? Папки и файлы. Save As. Drag-and-drop. GUI не убил файлы — визуализировал их. Вторая: веб. Четвёртый великий интерфейс. Но из чего состоит веб? HTML, CSS, JavaScript — файлы. URL — адрес ресурса. HTTP GET — буквально «дай файл». Даже веб — файловый. Третья: Jupyter. Десять миллионов ноутбуков на GitHub. Гибрид чата и файла. Но стандартный workflow в любой компании: исследуй в notebook, потом перенеси в .py файлы. Гибрид, который не стал IDE.

ТЕКСТ: А теперь — текущий цикл. Вы его узнаете.

НАПОМИНАЛКИ: • 100M за 2 месяца — рекорд • Цепочка — показать что ChatGPT не первый • «А дальше?» — пауза, не отвечать сразу • Аудитория к этому моменту уже знает ответ ТЕКСТ: Ноябрь 2022. ChatGPT. Сто миллионов пользователей за два месяца. Абсолютный рекорд. Но посмотрите на цепочку. CTSS — первый терминал. ELIZA — первый чатбот. MS-DOS — командная строка. VB и Delphi — визуальное программирование. Jupyter — ноутбуки. ChatGPT. Это восьмая итерация того же паттерна. Новый «чатовый» интерфейс computing. Каждый раз — восторг. А дальше?

НАПОМИНАЛКИ: • Cursor $1B ARR — файловый! Это ключевое • Claude Code — markdown-файлы как конфиг • Kiro — кульминация: AI генерирует спеки • Нарастающий темп — каждый пример быстрее ТЕКСТ: А дальше — файлы контратакуют. Как всегда. Copilot и Cursor. AI интегрирован в файловые IDE. Cursor — миллиард долларов годовой выручки. AI-first, но файловый. Редактируй, компилируй, запускай — с AI-усилением. Claude Code, Codex CLI. Терминальные агенты. Что они делают? Читают и пишут файлы. CLAUDE.md — конфиг через markdown-файл. И Kiro от AWS. Самое буквальное воплощение паттерна: requirements.md, design.md, tasks.md — и потом код. AI-революция породила инструмент, который генерирует спецификации. В файлах.

НАПОМИНАЛКИ: • Четыре «только для файлов» — как молотком • Контроль версий — не фича, а фундамент • Это не баг — это архитектура индустрии • После этого слайда — тезис ТЕКСТ: И финальный аргумент. Git. Diff — только для файлов. Merge — только для файлов. Branch — только для файлов. Code review — только для файлов. Вы не можете сделать git diff двух чат-сессий. Не можете сделать merge двух REPL-историй. Не можете сделать code review живого образа Smalltalk. Контроль версий — это не фича. Это фундамент всей индустрии разработки. И он работает только с файлами. Это структурное преимущество, которое не зависит от технологии.

НАПОМИНАЛКИ: • Три пункта — чётко и кратко • «Не зависят от технологии» — ключевой инсайт • 1972 → 2025 — рамка всей истории • Это не ностальгия — это инженерная реальность ТЕКСТ: Так почему файлы побеждают? Три причины. Первая: контроль версий. Diff, merge, branch, blame — работают только с текстовыми файлами. Ни одна альтернатива за 50 лет не предложила ничего сравнимого. Вторая: совместная работа. Code review, pull requests, CI/CD — всё построено вокруг файлов. Третья: воспроизводимость. Файл на моей машине — тот же файл на вашей машине — тот же файл на сервере. Эти три свойства не зависят от технологии. Они работали в 1972 году с Unix и C. Они работают в 2025 году с Cursor и Claude Code.

НАПОМИНАЛКИ: • Это сводная таблица — дать прочитать • 8 строк — 8 циклов — один исход • Не комментировать каждую строку — итог говорит сам ТЕКСТ: Восемь циклов. Один паттерн. Каждый раз — новый «чатовый» интерфейс, восторг, обещания. И каждый раз — файловый подход побеждает в продакшене. Посмотрите на правый столбец. Unix. Turbo Pascal. Папки на рабочем столе. HTML-файлы. Agile. Py-файлы. Cursor и Kiro. Файлы. Каждый. Раз.

НАПОМИНАЛКИ: • «Не умирают» — важно, это не anti-AI доклад • «Сколько чата и сколько файлов» — настоящий вопрос • «Исследуй / строй» — двойка, запомнят • Финальную фразу — медленно, с паузой • ПОКЛОН ТЕКСТ: И последнее. Вопрос — не «чат или файлы». Интерактивные инструменты не умирают. REPL жив. Jupyter жив. ChatGPT будет жить. Вопрос — сколько чата и сколько файлов. И ответ, который computing даёт нам 80 лет подряд: исследуй в чате, строй в файлах. Это не баг. Это 80 лет эволюции. Спасибо.

НАПОМИНАЛКИ: • Это история, не лекция — рассказывай как детектив • Главный тезис: файлы побеждают чат каждый раз • Не давай ответ сразу — создавай интригу • 30 минут = держи темп ТЕКСТ: Привет! Сегодня я расскажу историю. Не про технологии — про паттерн. Один и тот же паттерн, который повторяется в computing уже 80 лет. И который прямо сейчас повторяется снова — с AI.

🎯 НАПОМИНАЛКИ: • Представиться. Тема: не хронология, а волны. Каждая волна запускается чипом • Пять волн, каждая — от железа до практик. Волны перекрываются • «Следующие 30 минут — пять историй о том, как физика меняет нашу работу» 📖 ТЕКСТ: Добрый день! Я мог бы рассказать вам историю AI-кодогенерации хронологически — год за годом. Но это было бы скучно и не передало бы главного. Главное — это волны. Каждая волна начинается с нового чипа. Чип делает возможной новую науку. Наука порождает продукт. Продукт меняет практики. И пока первая волна ещё не докатилась до практик — уже поднимается следующая. За девять лет — пять волн. Каждая быстрее предыдущей. И все они перекрываются. Давайте их пройдём.

🎯 НАПОМИНАЛКИ: • Четыре цвета = четыре слоя. Запомнить — они будут на каждом слайде • Каскад ВСЕГДА сверху вниз: Hardware → Science → Products → Practices • Задержка сжимается: 4 года → 6 месяцев. Волны перекрываются 📖 ТЕКСТ: Вот модель, через которую мы будем смотреть на всё. Четыре слоя. Железо — фундамент, оно определяет, что физически возможно. Наука — двигатель: архитектуры, методы обучения, оптимизации inference. Продукты — то, что вы запускаете: Cursor, Claude Code, Copilot. Практики — то, как реально изменилась ваша работа. Каскад всегда идёт сверху вниз. Но вот что интересно: задержка между слоями сжимается. В 2017 году от чипа до продукта проходило четыре года. В 2025 — шесть месяцев. А это значит, что волны перекрываются: пятая поднимается, когда третья ещё не закончилась.

🎯 НАПОМИНАЛКИ: • Волна 1: V100 → Transformer → (4 года!) → Copilot → Comment-Driven Dev • Ключевой момент: без Tensor Cores attention непрактичен • RLHF (Christiano 2017) — семя, прорастёт через 5 лет 📖 ТЕКСТ: Первая волна. 2017 год. Два события, которые определят десятилетие. NVIDIA выпускает V100 — первый чип с Tensor Cores. А команда Google публикует «Attention Is All You Need». Два события — а потом четыре года тишины. Почему? Потому что от фундаментального открытия до продукта нужна инфраструктура. Нужен масштаб. Нужно понять, как это использовать. Первая волна — самая медленная. Но именно она заложила фундамент для всего остального.

🎯 НАПОМИНАЛКИ: • V100 = первые Tensor Cores, 125 TFLOPS — матрицы 5-12× быстрее • Transformer = self-attention, параллелизм, O(1) расстояние • RLHF foundations (2017) — мост от «мощного» к «полезному», но позже • Каскад: V100 Tensor Cores → attention стал практичным 📖 ТЕКСТ: V100 — первый чип с Tensor Cores. Специализированные блоки для матричных умножений, ускоряющие deep learning в 5-12 раз. В том же году — статья «Attention Is All You Need». Transformer. Self-attention вместо рекуррентности. Ключевое свойство: вся последовательность обрабатывается параллельно, расстояние между любыми позициями — O(1). Красивая математика, но она требует колоссального количества матричных умножений. V100 с Tensor Cores оказался именно тем, что нужно. Без этого чипа Transformer мог бы остаться академической диковинкой. Это наш первый пример каскада: физика определяет, какая наука станет практичной. В том же 2017-м Christiano et al. заложили основы RLHF — обучения из человеческих предпочтений. Это семя прорастёт только через пять лет, когда InstructGPT покажет, что маленькая модель с RLHF побеждает огромную без.

🎯 НАПОМИНАЛКИ: • BERT (2018), GPT-2 (2019), GPT-3 (2020) — наука работает, продуктов нет • Copilot preview = июнь 2021, Codex, VS Code • 27% кода AI-generated. 1M+ пользователей за год • Comment-driven dev: комментарий = вход, код = выход • Speculative decoding тоже 2021 — важная инфраструктура для будущего 📖 ТЕКСТ: Четыре года. BERT в 2018, GPT-2 в 2019, GPT-3 в 2020 — наука бурлит, но программисты ещё не заметили. Stack Overflow на пике, все пишут код руками. И вот 29 июня 2021 года GitHub показывает Copilot. Внутри — Codex, GPT-3, дообученная на коде. Обычный разработчик открывает VS Code, пишет комментарий «sort array by date descending» — и AI дописывает реализацию. 27% кода в enabled-файлах. Рождается comment-driven development — комментарии перестают быть выходом и становятся входом. Вы описываете *что*, машина пишет *как*. Параллельно появляется speculative decoding — маленькая модель генерирует, большая верифицирует. Acceptance rate 85%, ускорение в 2-3 раза. Пока чистая инфраструктура, но через пару лет это сделает reasoning-модели экономически жизнеспособными. Четыре года — от V100 до Copilot. Самая длинная волна.

🎯 НАПОМИНАЛКИ: • Волна 2: A100 → масштаб → ChatGPT → смерть SO • A100 80 ГБ HBM2e сделал GPT-3 физически возможным • Scaling laws: предсказуемая отдача. Но InstructGPT: post-training > size • ChatGPT: самая быстрая adoption в истории 📖 ТЕКСТ: Вторая волна. Волна масштаба. A100 с 80 гигабайтами делает возможным GPT-3 со 175 миллиардами параметров. Kaplan публикует scaling laws — loss падает как степенная функция. Можно предсказать, сколько стоит «следующий уровень». Но внутри этой волны спрятан парадокс, который определит будущее.

🎯 НАПОМИНАЛКИ: • A100 80 ГБ → GPT-3 175B → scaling laws (Kaplan) • Scaling laws = степенной закон, «закон Мура для AI» • InstructGPT: 1.3B RLHF > 175B GPT-3 → post-training > pre-training! • CoT (Wei 2022): «think step by step» → кратное улучшение на рассуждениях • H100 FP8 (2022): 4× throughput → квантизация без деградации 📖 ТЕКСТ: A100 — 80 гигабайт HBM2e, 2 терабайта в секунду. GPT-3 тренируется на кластерах из этих карт. 175 миллиардов параметров. И Каплан показывает scaling laws: loss модели — степенная функция от параметров, данных, compute. Это дорожная карта: хочешь модель лучше — увеличь в 10 раз. Но внутри этой волны рождается парадокс. 2022 год: InstructGPT — модель в 1,3 миллиарда параметров с RLHF — побеждает GPT-3 в 175 миллиардов без RLHF. Маленькая, но «воспитанная» побеждает огромную, но «дикую». Wei et al. публикуют Chain-of-Thought: попроси модель «давай подумаем пошагово» — и точность растёт кратно. Простая идея, непропорциональный эффект. Масштаб важен, но post-training определяет полезность. H100 с нативным FP8 в том же году делает 4× throughput — квантизация становится бесплатной.

🎯 НАПОМИНАЛКИ: • ChatGPT 30 ноября 2022 — точка невозврата • SO: 108K → 96K (2 мес) → 25K (2 года). PNAS Nexus: −25% каузально • SO увольнения: 10% (май '23), 28% (окт '23). Revenue $125M (training data!) • Prompt Eng: 2 → 144 вакансий/млн. Anthropic: $335K роль • QLoRA (Dettmers, май 2023): 65B на 1 GPU, 99.3% ChatGPT quality • RAG: «просто сделай RAG» — стандартный ответ, 51% enterprise 📖 ТЕКСТ: 30 ноября 2022 — ChatGPT. И волна масштаба наконец докатилась до практик. Stack Overflow: 108 тысяч вопросов в ноябре, 96 тысяч в январе, 25 тысяч к декабрю 2024. Минус 76,5%. PNAS Nexus подтвердила каузальность, используя русские и китайские платформы как контроль. SO уволил 10%, потом ещё 28%. Ирония: revenue вырос до 125 миллионов — платформа ценнее как training data, чем как живое сообщество. Одновременно рождаются три практики. Prompt engineering: Indeed фиксирует прыжок с 2 до 144 вакансий на миллион за три месяца, Anthropic постит роль за 335 тысяч долларов. QLoRA позволяет fine-tuning 65-миллиардной модели на одном GPU — Dettmers назвал это «уравнивателем». RAG становится стандартным ответом на «как использовать LLM с нашими данными» — 51% enterprise AI. Вектор-БД получают сотни миллионов инвестиций за один месяц. Волна масштаба — самая «громкая». Она изменила культуру.

🎯 НАПОМИНАЛКИ: • Волна 3: эффективность. FP8 + MoE + KV cache = больше за меньше • H100 FP8 → квантизация без потерь • MI300X 192 ГБ → конкуренция NVIDIA • MoE: ~47B total, ~13B active → каждая frontier-модель 2025 = MoE • Cursor: $1M → $100M ARR за 12 мес 📖 ТЕКСТ: Третья волна — волна эффективности. Она поднимается из парадокса InstructGPT: если маленькая с post-training побеждает большую без — значит, путь не только «больше». Можно сделать «умнее при тех же ресурсах». И три технологии реализуют эту идею одновременно.

🎯 НАПОМИНАЛКИ: • H100 FP8 → квантизация стала бесплатной • MI300X 192 ГБ HBM3 → AMD впервые конкурентен • MXFP4: 120B на одном H100, 90% MMLU → MoE доступен малым командам • MoE: Mixtral → Qwen3-235B (128 experts, top-8). ResMoE 75% compression • К 2025: *каждая* frontier-модель = MoE • Mamba: O(n), 1M+ контекст, но для кода Transformer пока лучше • KV cache оптимизация: разница между 100 и 600 пользователями на GPU 📖 ТЕКСТ: H100 с нативным FP8 делает квантизацию бесплатной — обучение и inference в пониженной точности без деградации качества. MI300X от AMD — 192 гигабайта единой памяти, впервые модели на 2+ H100 помещаются в одну карту. MXFP4 — 120-миллиардная модель на одном H100 с 90% MMLU. Но главное — MoE, Mixture of Experts. Идея: не все 47 миллиардов параметров нужны для каждого токена. Маршрутизируйте каждый токен к ~13 миллиардам. Качество большой модели при стоимости маленькой. Mixtral показал, что это работает в продакшене. К 2025 году — Qwen3-235B со 128 экспертами, DeepSeek-V3, Grok-3. ResMoE сжимает экспертов на 75%. Каждая frontier-модель — MoE. Параллельно — Mamba: State Space Models с линейной сложностью. Единственный реальный конкурент Transformer. Для аудио и видео уже впечатляет, для кода — пока нет. И KV cache оптимизация: разница между 100 и 600 пользователями на одном GPU. Волна эффективности — это инфраструктура, которая сделала всё остальное экономически возможным.

🎯 НАПОМИНАЛКИ: • Cursor: $1M → $100M ARR за 12 мес. $29.3B к 2026. Zero marketing • 1B строк/день. 1M+ DAU. Half Fortune 500 • Cursor 2.0: Composer model (MoE+RL), 4× быстрее, 8 parallel agents • Архитектура: RAG + Merkle tree + Turbopuffer, сотни ТБ embeddings • Supermaven acquisition: 1M token context, 250ms latency • Jensen Huang: «my favorite enterprise AI service» 📖 ТЕКСТ: Волна эффективности породила Cursor. Основан в 2022, запущен в марте 2023 — четверо студентов из MIT сделали то, что не смог Microsoft: IDE, построенную вокруг AI, а не IDE с плагином. $1 миллион ARR, $100 миллионов ARR — за 12 месяцев. Самый быстрый SaaS-рост в истории. Без единого доллара на маркетинг. К 2026 — $29,3 миллиарда валюация, миллиард строк принятого кода в день. Cursor 2.0 имеет собственную модель — Composer, MoE-архитектура с RL, 4× быстрее аналогов, ~250 токенов в секунду. До 8 параллельных агентов. Под капотом — RAG с Merkle tree для отслеживания изменений, Turbopuffer vector DB, сотни терабайт эмбеддингов. Jensen Huang назвал Cursor «my favorite enterprise AI service». Это не «ещё один продукт» — это новая категория. AI-native IDE.

🎯 НАПОМИНАЛКИ: • Google: >25% кода AI (Pichai). Copilot: 46% (Java 61%) • Vogels: verification debt — ревью AI-кода сложнее, чем debug своего • 85% devs используют AI daily (JetBrains 2025) • AI-native IDE как категория: Cursor, Windsurf, потом Kiro, Antigravity • MCP (ноябрь 2024): тихий запуск. Через год — стандарт индустрии 📖 ТЕКСТ: Практики волны эффективности: «пиши меньше, ревьюй больше». Google признаёт, что больше 25% нового кода AI-сгенерировано. У активных Copilot-юзеров — 46%, а у Java-разработчиков — 61%. Werner Vogels на re:Invent вводит термин «verification debt»: когда ты пишешь код сам, понимание приходит в процессе создания. Когда машина пишет — ты должен восстановить это понимание при ревью. А это сложнее. AI-native IDE становится реальной категорией: Cursor, Windsurf. JetBrains 2025 показывает 85% adoption AI-инструментов. И в ноябре 2024 Anthropic тихо выпускает MCP — Model Context Protocol. Открытый стандарт подключения AI к инструментам. JSON-RPC, вдохновлённый LSP. Пока мало кто заметил. Но через год — 97 миллионов скачиваний, 10 тысяч серверов, и OpenAI, Google, Microsoft принимают его. «USB-C для AI.»

🎯 НАПОМИНАЛКИ: • Волна 4: reasoning. Самая важная научно • B200 FP4 делает inference scaling экономичным • GRPO = главное открытие 2025: reasoning из чистого RL • o1 → R1 (open-weight) → Claude Code + Codex → vibe coding + agents 📖 ТЕКСТ: Четвёртая волна. Волна Reasoning. Она начинается с нового железа — B200 с нативным FP4 — и приходит к самому важному научному открытию 2025 года. Эта волна перевернула парадигму: оказалось, что reasoning не нужно программировать и не нужно показывать примерами. Оно возникает само.

🎯 НАПОМИНАЛКИ: • B200: FP4, 2.5× inference. Делает TTC экономически оправданным • Groq: SRAM-based, 300 т/с. NVIDIA купила за $20B — inference = отдельный рынок • TPU v6: 4.7× vs v5e. Google конкурирует на своём железе • TTC: 7B + search > 34B. Paradigm shift: compute at inference, not training • DPO (Rafailov): прямая policy optimization, без reward model • Cerebras WSE-3: 4T транзисторов, wafer-scale 📖 ТЕКСТ: B200 — нативный FP4, 2.5× inference по сравнению с H100. Это делает test-time compute scaling экономически оправданным: можно тратить больше вычислений на inference, потому что каждый FLOP стоит меньше. Groq показывает, что inference-чип может быть принципиально другим: SRAM вместо DRAM, детерминизм, 300 токенов в секунду. NVIDIA купит Groq за 20 миллиардов — потому что inference и training требуют разного железа. TPU v6 показывает 4.7× — Google начинает конкурировать на своём железа. И тут приходит Test-Time Compute Scaling: Llemma-7B с tree search побеждает Llemma-34B на всех стратегиях. «Думай дольше, а не больше» — разворот парадигмы. А DPO убирает reward model из RLHF — alignment становится доступным командам без тысяч GPU.

🎯 НАПОМИНАЛКИ: • GRPO = Group Relative Policy Optimization (DeepSeek) • R1-Zero: base model + RL (только correctness reward) → reasoning emerges • Emergent: self-reflection, verification, «aha moments» • AIME: 15.6% → 71%, 86.7% majority voting (= o1) • Nature сентябрь 2025 — уровень «Attention Is All You Need» • Дополнительно: SCoT (if/else/for для CoT), Code-First CoT (+9.86%) 📖 ТЕКСТ: GRPO. Group Relative Policy Optimization от DeepSeek. Это главное научное открытие 2025 года, и я не преувеличиваю. Возьмите базовую модель. Не давайте ей ни одного примера рассуждений. Только сигнал «правильно» или «неправильно» на математических задачах. Запустите RL. Что произойдёт? Reasoning *возникнет сам*. DeepSeek-R1-Zero показала прыжок с 15,6% до 71% на AIME 2024. Появились emergent behaviors, которые никто не программировал: self-reflection, verification, и «aha moments» — когда модель поправляет ход мысли в процессе рассуждения. Вышло в Nature. Почему это на уровне «Attention Is All You Need»? Потому что раньше для reasoning нужны были дорогие человеческие примеры. Теперь — дай сигнал «верно/неверно» и reasoning возникнет. Это меняет парадигму тренировки. Параллельно — SCoT показывает, что рассуждения через if/else/for работают лучше, чем через естественный язык. А Code-First CoT: генерируй код СНАЧАЛА, объяснение ПОТОМ — на 9,86% лучше.

🎯 НАПОМИНАЛКИ: • Claude Code: CLI, in-the-loop, 80.9% SWE-bench (Opus 4.5), $1B ARR • Codex: cloud, async, 56.8% SWE-bench Pro, 77.3% Terminal-Bench • Два подхода сходятся: оба добавляют features друг друга • o1: первая reasoning-модель в проде • R1 open-weight: 7B = 55.5% AIME → thinking для всех • Copilot: 20M+ users, 42% market, 1.2M PRs/month 📖 ТЕКСТ: Два продукта, два подхода. Claude Code — CLI-агент в терминале, рядом с вами. In-the-loop: вы видите, что он делает. 80,9% SWE-bench Verified с Opus 4.5 — первая модель выше 80%. 90% собственного кода Claude Code пишет сам. Миллиард долларов ARR. Codex от OpenAI — другая философия: облачный, асинхронный. Отправляете задачу, идёте пить кофе, получаете PR. 56,8% на SWE-bench Pro — более сложном бенчмарке. 77,3% Terminal-Bench. Два подхода, но они сходятся — оба добавляют features друг друга. OpenAI o1 — первая reasoning-модель в продакшене: 30 секунд думает, потом правильный ответ. DeepSeek-R1 с открытыми весами: 7-миллиардная модель показывает 55,5% AIME — каждый может запустить «думающую» модель локально. Copilot тем временем вырос до 20 миллионов пользователей, 42% рынка, и генерирует 1,2 миллиона PR в месяц.

🎯 НАПОМИНАЛКИ: • Vibe coding: Karpathy 2 фев, 4.5M просмотров, Collins WotY 2025 • YC W25: 25% стартапов = 95% AI-код. Но 72% профи = «не мой метод» • Willison: «если ревьюишь — не vibe coding, а typing assistant» • Агентное программирование: 1.2M PR/мес Copilot, Claude Code, Codex • AI code review: 14.8% → 51.4% (Jellyfish), 81% quality improvement (Qodo) • CodeRabbit: vibe-coded = 1.7× major issues, 2.74× security vulns 📖 ТЕКСТ: Волна reasoning породила культурный момент. 2 февраля 2025 — Карпати: «Vibe coding — забудь, что код существует, accept all, не читай дифы.» 4,5 миллиона просмотров. Collins Word of the Year. Y Combinator: 25% стартапов — 95% AI-код. Но контрапункт: 72% профессионалов говорят «это не мой метод». Willison уточняет: если ты всё ревьюишь и тестируешь — это не vibe coding, а AI как typing assistant. Агентное программирование — новая практика: «AI реализует фичи, пока я занят другим». Claude Code, Codex, Copilot Agent генерируют 1,2 миллиона PR в месяц. AI code review: с 14,8% в январе до 51,4% в октябре. AI в каждом седьмом PR. Но CodeRabbit показал обратную сторону: vibe-coded PR содержат в 1,7 раза больше major issues и в 2,74 раза больше security-уязвимостей.

🎯 НАПОМИНАЛКИ: • Волна 5: верификация. Ответ на adoption-trust парадокс • NVFP4 → длинный контекст → больше верификации за те же деньги • Astrogator: domain-specific verification работает (83/92%) • Kiro: spec-driven. Antigravity: agent-first • MCP: 97M downloads. Spec-driven dev. Команды 30-60 → 2-5 📖 ТЕКСТ: Пятая волна. Она только начинается, и она отвечает на главный вопрос: «как доверять AI-коду?» 85% разработчиков используют AI, но только 29% доверяют результатам. Волна верификации — ответ на этот разрыв. И она тоже начинается с железа.

🎯 НАПОМИНАЛКИ: • NVFP4: 50% меньше памяти → длинный контекст дешевле → больше для верификации • Astrogator: FQL, domain-specific, 83/92% — production-ready путь • CoT+RAG: 100% спеки, 58% верификация — недостаточно для прода • Auto-formalization: мертво. Domain-specific: жив • Free Transformer: latent variables для planning, +11% код (8B) • EvoMAC: самоэволюция агентных топологий 📖 ТЕКСТ: NVFP4 — 4-битный KV-кеш. 50% сокращение памяти. Звучит как микрооптимизация, но это 50% больше контекста на том же GPU — а длинный контекст критичен для верификации: нужно держать в памяти и код, и спецификации, и тесты. QuantSpec, ShadowKV, MagicDec — вместе делают 128K контекст управляемым. Наука верификации разделилась на два пути. Astrogator показал, что domain-specific формальная верификация работает: 83% верификация корректного кода, 92% детекция некорректного. Для конкретного домена, конкретного языка — production-ready. Но general auto-formalization? CoT+RAG даёт 100% синтез спецификаций, но только 58% реальная верификация. Полная авто-формализация — тупик, по крайней мере сейчас. Free Transformer от Meta — интересный поворот: модель планирует направление генерации до первого символа через латентные переменные. +11% на кодогенерации. EvoMAC — агенты, которые перестраивают собственную топологию. Путь к верифицированному коду — domain-specific, не general.

🎯 НАПОМИНАЛКИ: • Kiro: spec-driven. Brooker: «спецификация = version-controlled super prompt» • Böckeler (Thoughtworks): «sledgehammer to crack a nut» для мелких багов • Antigravity: agent-first, Manager View, artifacts для trust • SWE-bench: 2% → 75% за 2 года (37×) • SWE-bench Pro решает data contamination: GPL public + commercial code 📖 ТЕКСТ: Kiro от AWS — ответ на вопрос «как управлять агентами?» через спецификации. Вместо промптов — requirements.md, design.md, tasks.md. Marc Brooker: «спецификация — это version-controlled, human-readable super prompt». Birgitta Böckeler из Thoughtworks критикует: для простого бага — sledgehammer to crack a nut. Но для больших фич — это работает. Google запускает Antigravity — agent-first IDE, где Manager View позволяет запустить 5+ автономных агентов и следить за ними как за командой. Артефакты, скриншоты, recordings — как доказательства того, что агент сделал правильно. SWE-bench: с 2% в 2023 до 75% в 2025. 37 раз за два года. SWE-bench Pro появился, чтобы решить проблему data contamination: GPL-код в public set, commercial codebases в private.

🎯 НАПОМИНАЛКИ: • MCP: 97M downloads, 10K+ серверов, LF donation. «USB-C для AI» = реальность • Команды: 30-60 → 2-5 (Salva/Google). 23% бюджет → AI tools (Jellyfish) • Джуниоры: −20% занятость (Stanford), −5/квартал (Harvard), 54% лидеров: меньше наймём • 44% организаций: падение фундаментальных навыков у джуниоров • Prompt engineer: роль умирает, навык остаётся. Microsoft: «предпоследнее место» среди новых ролей 📖 ТЕКСТ: MCP — тихо запущенный в ноябре 2024 — взорвался. 97 миллионов скачиваний, 10 тысяч серверов. OpenAI, Google, Microsoft приняли. В декабре 2025 — Linux Foundation. Трудно вспомнить другую технологию, получившую единогласную поддержку всех конкурентов. Команды сжимаются: Ryan Salva из Google описывает переход от 30-60 до 2-5 человек на фичу. Collison из Stripe: «minimum viable team size collapsed». 23% организаций перераспределяют бюджет с headcount на AI tools. Кризис джуниоров: Stanford показывает -20% занятости среди 22-25 лет, Harvard — минус 5 джуниоров в квартал. 44% организаций наблюдают падение фундаментальных навыков. И prompt engineering как отдельная роль умирает — с 144 до 20-30 вакансий на миллион. Но 68% компаний обучают всех промптингу — навык стал универсальным.

🎯 НАПОМИНАЛКИ: • 85% adoption, 29% trust, 66% «almost right but not quite» • Favorability: 77% → 60%. «Willing but reluctant» • METR: +20% ожидание, −19% реальность = 40 п.п. gap • 69% продолжили пользоваться после эксперимента! • Sonar: toil = 23-25% const. Вид toil меняется, объём — нет • DORA 2025: AI = усилитель, не уравниватель 📖 ТЕКСТ: Вот центральный парадокс, который объединяет все пять волн. 85% разработчиков используют AI ежедневно. Но только 29% доверяют результатам — падение с 42% за год. 66% говорят: «почти правильно, но не совсем» — это главная боль. Favorability: с 77% до 60%. «Willing but reluctant.» METR — золотой стандарт, рандомизированное контролируемое испытание. 16 опытных open-source разработчиков, 246 задач. Думали, что AI делает их на 20% быстрее. Реальность: на 19% медленнее. 40 процентных пунктов разрыв. Но 69% продолжили пользоваться после эксперимента! Sonar добавляет деталь: toil остаётся 23-25% вне зависимости от AI. Работа не исчезла — сместилась от написания к верификации. DORA 2025 сказали лучше всех: «AI усиливает сильные стороны высокоэффективных организаций и дисфункции слабых.» Не уравниватель — усилитель.

🎯 НАПОМИНАЛКИ: • Slopsquatting: 19.7% hallucinated deps, 43% repeatable → attack vector • 40% GPT-кода с vulns (Trend Micro), 73% CWE (Georgetown) • CodeRabbit: 470 PRs, vibe-coded = 1.7× major, 2.74× security vulns • 3% highly trust. 75% manually review every snippet • MCP CVE-2025-6514: 437K compromised envs — стандарт = attack surface • Lovable: 170/1645 apps с security vulns exposing personal info 📖 ТЕКСТ: Цена скорости. USENIX 2025: 19,7% зависимостей в AI-сгенерированном коде — несуществующие пакеты. Модели галлюцинируют имена. 43% повторяются — предсказуемые цели. Атакующие регистрируют пакеты с этими именами и вредоносным кодом. «Slopsquatting.» 40% GPT-кода содержит уязвимости по Trend Micro, Georgetown нашли CWE в 73% образцов. CodeRabbit проанализировал 470 PR с vibe-coded контентом: 1,7× больше major issues, 2,74× больше security-уязвимостей. Только 3% разработчиков «высоко доверяют» AI-коду. MCP — новый стандарт, но и новый attack surface: CVE-2025-6514 скомпрометировал 437 тысяч dev-окружений. Lovable: 170 из 1645 созданных web-приложений имели security-уязвимости, раскрывающие персональные данные. Это не теоретические риски.

🎯 НАПОМИНАЛКИ: • Одна картинка = все пять волн • Задержка сжимается: 4 → 3 → 2 → 1 → 0.5 года • Волны перекрываются: 5-я начинается, когда 3-я не закончилась • Каждая строка: HW → Science → Product → Practice • Hardware определяет всё — каждый прорыв упирался в железо 📖 ТЕКСТ: Вот все пять волн на одном слайде. Обратите внимание на задержки. Первая волна: 4 года от V100 до Copilot. Вторая: 3 года от A100 до ChatGPT-эффектов. Третья: 2 года от H100 FP8 до Cursor-бума. Четвёртая: год от B200 до агентного программирования. Пятая: 6 месяцев от NVFP4 до spec-driven development. Каскад ускоряется. И волны перекрываются — пятая начинается, когда третья ещё не закончилась. Каждая строка: чип → наука → продукт → практика. Уберите любой чип — и следующей волны не будет. Hardware определяет всё.

🎯 НАПОМИНАЛКИ: • 5 takeaways, каждый — одно предложение • Железо → наука → продукт → практика (каскад) • GRPO = paradigm shift. Reasoning = emergent • Три scaling laws сходятся. Баланс > размер • Усилитель, не замена. METR: −19% реальность при +20% ощущении • Спецификации > промпты. Domain-specific > general 📖 ТЕКСТ: Пять вещей. Первое: следите за железом. Новый чип — это предсказание на 1-3 года вперёд. Когда NVIDIA анонсирует что-то — думайте, какую науку это сделает возможной, и какой продукт появится через год. Второе: GRPO — самое важное открытие 2025 года. Reasoning из чистого RL, без человеческих примеров. Emergent property. Третье: три закона масштабирования сходятся. Будущее — не «сделай больше», а «распредели умнее» между pre-training, post-training и inference. Четвёртое: AI — усилитель. METR показал: -19% скорости при +20% ощущении. DORA: усиливает сильных, обнажает слабых. Работа сместилась от написания к верификации, но не исчезла. Пятое: будущее за спецификациями и domain-specific верификацией. Не «напромпти лучше», а «специфицируй точнее». Astrogator, а не full auto-formalization.

🎯 НАПОМИНАЛКИ: • Karpathy: vibe coding — культурный сдвиг • DORA: усилитель — трезвая правда • Brooker: спецификация > промпт — будущее • Solar-Lezama: без AI примитивно — эмоциональная правда 📖 ТЕКСТ: Четыре цитаты. Карпати — культурный сдвиг: забудь, что код существует. DORA — трезвая правда: AI не делает всех лучше, он усиливает то, что уже есть. Brooker — будущее: спецификация как super prompt. И Solar-Lezama из MIT — эмоциональная правда: без этих инструментов уже «примитивно». Пять волн за девять лет. От Tensor Cores до верифицированной кодогенерации. От четырёх лет задержки до шести месяцев. И каждая волна начиналась с железа.

🎯 НАПОМИНАЛКИ: • Поблагодарить. Визуализация доступна. Вопросы? • Готовность к вопросам: METR, GRPO, vibe coding, безопасность, джуниоры 📖 ТЕКСТ: Спасибо за внимание! У меня есть интерактивная визуализация — HTML-страница со всеми связями между слоями. Три markdown-файла с полным исследованием. Давайте обсудим — какая из пяти волн резонирует с вашим опытом? Что вы видите на горизонте?