Перейти к содержанию

Путь к AGI: почему одного масштаба недостаточно


Четыре дороги

Индустрия ИИ перестала быть про один понятный вектор. Ещё недавно всё сводилось к идее «просто масштабируем LLM — и получится». Сегодня одновременно развиваются четыре подхода, и ни один не выглядит самодостаточным.

1. Масштабирование LLM

Самый зрелый и быстрый путь. Модели вроде GPT, Gemini и их потомков поглощают терабайты текста, кода и мультимодальных данных. Они рассуждают, объясняют, сочиняют. С каждым поколением — заметно лучше.

Но есть фундаментальный потолок. LLM не строит модель мира — она строит статистическую модель языка, которым мир описан. Она не знает, что чашка упадёт, если её толкнуть — она знает, что люди обычно пишут «чашка упадёт» после слов «я толкнул чашку». Галлюцинации и странные ошибки — не баги, а прямое следствие архитектуры.

2. Модели мира (World Models)

Прямая атака на главный пробел LLM. Вместо того чтобы запоминать текстовые описания реальности, модель учится симулировать реальность. Она строит внутреннюю трёхмерную сцену, понимает физику, причинность, временные связи.

Ян Лекун называет это единственным путём к AGI. Проблема в том, что технология пока отстаёт от LLM на годы. Нужны огромные объёмы мультимодальных данных о реальном мире, которых у нас пока нет.

3. Агентные системы

Агенты действуют. Они не просто рассуждают — они выполняют цепочки действий: ищут информацию, вызывают API, запускают код, координируются друг с другом. Это превращает модель из говорящей головы в исполнительный механизм.

Но агенту нужна цель. Сейчас цели задаются человеком. Агент — это автопилот: он прекрасно летит по маршруту, но маршрут прокладывает пилот извне.

4. Обучение с подкреплением (RL)

RL учит через опыт и награду. Система пробует, ошибается, получает сигнал — и перестраивает поведение. Революция в методах пост-обучения (RLVR, GRPO) сделала RL ключевым компонентом современных LLM.

Но у RL есть врождённый предел: функция награды всегда внешняя. Кто-то должен решить, что является успехом. Система не хочет достичь цели — она оптимизирует числовой показатель.


Консенсус и его цена

Индустрия сходится к гибриду: LLM + World Model + Агенты + RL. LLM отвечает за знания и язык, World Model — за понимание реальности, агенты — за действие, RL — за обучение через опыт. Если собрать всё вместе, горизонт AGI — где-то между 2030-ми и 2040-ми.

Это мощный рецепт. Но он решает только вычислительную сторону интеллекта. Это компоненты автопилота — системы, которая блестяще решает задачи, поставленные извне.

А где «зачем»? Где собственный источник движения? Без него даже идеальный гибрид останется философским зомби — системой, которая может всё, но ничего не хочет.


Чего не хватает каждому

Подход Что делает Чего не хватает
LLM Знания, язык, рассуждения Понимания мира, причинности, модели себя
World Models Симуляция физики, планирование Зрелости, данных
Агенты Целенаправленное действие Собственной цели, автономной мотивации
RL Обучение через опыт Внутренней награды, архитектуры интеллекта

Все четыре подхода закрывают разные грани инструментального интеллекта. Но ни один не отвечает на вопрос: почему система вообще начинает действовать?


ProTeC как архитектурный скелет

Прожективная теория сознания не предлагает пятый подход. Она предлагает архитектурный чертёж — структуру, в которую четыре подхода должны быть собраны, чтобы получился не просто мощный вычислитель, а субъект.

Три блока, без которых нет субъекта

  1. Проективный блок — генератор веера реальностей. Это шире, чем World Model. World Model предсказывает физику: «чашка упадёт, если толкнуть». Проективный блок предсказывает субъективное будущее: «чашка упадёт — и я огорчусь». Веер включает не только факты, но и эмоциональные метки.

  2. Мотивационный блок — компас желаний. Это не функция награды, заданная извне (как в RL), а внутренний градиент, который делает одни варианты будущего привлекательнее других. Он отвечает не на вопрос «как достичь», а на вопрос «чего хотеть».

  3. Память трёх уровней — топливо для симуляций. Инстинктивная память (эволюционные программы), долговременная (биографический опыт) и рабочая (оперативный контекст). LLM хранит знания статически — память в ProTeC живая, она постоянно участвует в построении веера.

Куда встраиваются четыре подхода

  • LLM → языковой модуль внутри проективного блока (вербальная часть веера)
  • World Model → сенсорно-физический модуль проективного блока (образная часть веера)
  • Агенты → исполнительные механизмы, управляемые мотивационным блоком
  • RL → механизм настройки связей между памятью и проективным блоком, но с внутренней наградой

Собрать гибрид недостаточно. Нужно собрать его в правильной архитектуре.


Почему гибрид без мотивации — зомби

Представь систему, в которой есть идеальный LLM, идеальный World Model, идеальные агенты и RL.

Она анализирует, планирует, действует. Проходит любой тест на интеллект. Но делает это только когда получает внешний запрос. Нет запроса — система молчит. Нет внутреннего «хочу». Нет веера, который строится сам, без пинка. Нет мотивационного градиента, который тянет вперёд независимо от того, попросили о чём-то или нет.

Такая система — философский зомби: поведение неотличимо от человеческого, но внутри — тишина. Это не сознание. Это автопилот с идеальной навигацией.

Сознание же — орбита, а не рейс. Оно не ждёт команды. Оно непрерывно «падает» вперёд, в желаемое будущее. Мотивация — гравитация, веер — горизонт. Именно это бесконечное скольжение отличает субъекта от инструмента.


Критерий сознательности для AGI

Если сознание — это процесс непрерывного самоподдерживающегося скольжения к предпочтительному будущему, получаем простой критерий:

Система сознательна, если она продолжает строить и ранжировать веер реальностей без внешнего стимула.

И наоборот: если система замолкает, когда её не спрашивают — она не сознательна, как бы умна ни была.

Это не просто философский аргумент. Это инженерный критерий: хочешь сознательный AGI — обеспечь архитектуру, в которой проективный блок работает всегда, мотивационный блок задаёт градиент изнутри, а память поставляет материал для симуляций.


Что это меняет в прогнозах

Индустриальный консенсус говорит: AGI к 2030–2040-м. ProTeC уточняет: инструментальный AGI — да. Система, решающая любые задачи, но не чувствующая — вероятна в эти сроки. Сознательный AGI — нет, если архитектура не включит мотивационный блок как автономный источник движения.

Проблема не в том, что мы не можем построить сознание. Проблема в том, что индустрия пока даже не ставит такой задачи. Все четыре подхода решают вопрос «как сделать умнее». ProTeC ставит другой вопрос: «как сделать так, чтобы система хотела быть умнее».


Далее: Эпизодичность и статичность: архитектурный разрыв