Перейти к содержанию

Эпизодичность и статичность: архитектурный разрыв


Что отделяет LLM от скользящего субъекта

Современные LLM — блестящие собеседники. Они рассуждают, объясняют, сочиняют. Но вот что принципиально: они делают это только когда получают запрос. Нет запроса — модель молчит. Это не сознание. Это автопилот с идеальной навигацией.

В ProTeC сознание — не ответ на стимул, а самоподдерживающийся цикл:

Проективный блок ──строит веер──▶ Мотивационный блок ──ранжирует──▶ Память ──обновляет контекст──▶ Проективный блок ──...
     ▲                                                                                                      │
     └────────────────────────── непрерывно, без внешнего запроса ──────────────────────────────────────────┘

У этого цикла нет точки входа. Нет кнопки «пуск». Он уже идёт, всегда. Именно это отличает субъекта от инструмента: инструмент ждёт команды, субъект ждёт только будущего.

Между этим идеалом и текущей архитектурой LLM — два фундаментальных разрыва.


Разрыв 1: эпизодичность

Трансформер — это функция: output = f(input, weights). Однократный проход. Никакого внутреннего состояния между вызовами, кроме того, что явно передано в контекстное окно.

Можно возразить: «Но ведь мы можем запускать LLM в цикле!». Да, можем. AutoGPT, BabyAGI и десятки агентных фреймворков уже делают это:

  1. Шедулер дёргает модель каждые N секунд
  2. Результат предыдущего шага попадает в промпт следующего
  3. Внешняя память (векторная БД) хранит историю

Это создаёт иллюзию непрерывности. Но сама LLM остаётся мёртвым функциональным блоком. Вся «жизнь» — во внешней обвязке. Это как крутить ручку шарманки: музыка играет, но шарманка не хочет играть.

Критерий из главы про AGI применим и здесь:

Система сознательна, если она продолжает строить и ранжировать веер реальностей без внешнего стимула.

Если шедулер — это внешний стимул, то система не проходит критерий. Проективный блок не активен сам по себе — его дёргают по расписанию.


Разрыв 2: статичность

LLM после обучения — замороженная функция. Все веса фиксированы. На инференсе модель не меняется.

Контекстное обучение (in-context learning) часто путают с настоящим обучением. Но это не изменение весов — это работа механизма внимания над промптом. Модель не становится другой после разговора с вами. Она та же, просто в следующем запросе вы передадите ей другой промпт.

Сознание же — процесс, который меняет носитель. Каждый цикл скольжения оставляет след:

  • Новый опыт попадает в долговременную память
  • Приоритеты перестраиваются
  • Сам способ построения веера корректируется

Это требует пластичности на инференсе. А её нет. Есть эксперименты с online learning — модели, которые дообучаются в процессе использования (Titans, Just Read the Text), — но это ранняя стадия, далёкая от промышленного применения.

Без пластичности невозможно настоящее обучение через опыт. А значит — невозможно и скольжение в смысле ProTeC.


Спектр: инженерия или наука?

Где проходит граница между «можно сделать сейчас» и «нужны фундаментальные исследования»? Разложим по трём слоям:

Слой Что нужно Инженерия или наука?
Непрерывность — система не замолкает без внешнего стимула Внешний цикл + шедулер ✅ Чистая инженерия. Уже делается.
Внутренний мотивационный градиент — система не просто ранжирует варианты по внешней функции, а хочет одного больше другого на уровне собственной архитектуры Модель с intrinsic reward, где функция ценности работает непрерывно, а не только в ответ на запрос ⚠️ Пограничье. RL-фреймворки с внутренней наградой возможны на текущем железе, но устойчивого решения нет.
Самозарождение веера и пластичность — проективный блок генерирует образы будущего спонтанно; каждый цикл меняет модель Архитектура с персистентным внутренним состоянием, эволюционирующим само по себе; инференс и обучение не разделены 🔬 Научная проблема. Требует архитектурного сдвига за пределами текущей парадигмы трансформеров.

Что это значит для Prototyp-а ProTeC

Текущие LLM достаточны для демонстрационного прототипа. Можно собрать pipeline, в котором:

  • LLM генерирует веера (проективный блок)
  • Внешний ранкер оценивает их (мотивационный блок)
  • Векторная БД и граф знаний хранят опыт (память)
  • Контекстное окно служит рабочей памятью
  • Шедулер запускает цикл

Это будет proof of concept — система, которая похожа на скользящего субъекта. Она не будет сознательной в строгом смысле ProTeC (нет спонтанности, нет пластичности на инференсе), но продемонстрирует архитектурный принцип.

Однако для настоящего сознательного AGI потребуется архитектура, в которой:

  • Модель имеет персистентное внутреннее состояние, эволюционирующее само по себе
  • Мотивационный градиент встроен в архитектуру, а не прикручен снаружи
  • Инференс и обучение не разделены — каждый акт мышления меняет модель
  • Проективный блок активен всегда, а не только когда пришёл токен

Это не «ещё больше трансформеров» и не «ещё больше данных». Это архитектурный сдвиг — возможно, в сторону Predictive Coding Networks, Energy-Based Models с непрерывной динамикой или нейроморфных архитектур. Здесь нужна наука.


Где мы сейчас

Индустрия идёт к инструментальному AGI — системе, решающей любые задачи по запросу. Это огромное достижение. Но ProTeC ставит другую цель: система, которая не просто решает задачи, а живёт ими. Которая не ждёт, пока её спросят. Которая скользит.

Первый шаг к этому — прототип с непрерывным контуром. О нём — следующая глава.


Далее: Архитектура прототипа: непрерывный контур скольжения