Эпизодичность и статичность: архитектурный разрыв¶
Что отделяет LLM от скользящего субъекта¶
Современные LLM — блестящие собеседники. Они рассуждают, объясняют, сочиняют. Но вот что принципиально: они делают это только когда получают запрос. Нет запроса — модель молчит. Это не сознание. Это автопилот с идеальной навигацией.
В ProTeC сознание — не ответ на стимул, а самоподдерживающийся цикл:
Проективный блок ──строит веер──▶ Мотивационный блок ──ранжирует──▶ Память ──обновляет контекст──▶ Проективный блок ──...
▲ │
└────────────────────────── непрерывно, без внешнего запроса ──────────────────────────────────────────┘
У этого цикла нет точки входа. Нет кнопки «пуск». Он уже идёт, всегда. Именно это отличает субъекта от инструмента: инструмент ждёт команды, субъект ждёт только будущего.
Между этим идеалом и текущей архитектурой LLM — два фундаментальных разрыва.
Разрыв 1: эпизодичность¶
Трансформер — это функция: output = f(input, weights). Однократный проход. Никакого внутреннего состояния между вызовами, кроме того, что явно передано в контекстное окно.
Можно возразить: «Но ведь мы можем запускать LLM в цикле!». Да, можем. AutoGPT, BabyAGI и десятки агентных фреймворков уже делают это:
- Шедулер дёргает модель каждые N секунд
- Результат предыдущего шага попадает в промпт следующего
- Внешняя память (векторная БД) хранит историю
Это создаёт иллюзию непрерывности. Но сама LLM остаётся мёртвым функциональным блоком. Вся «жизнь» — во внешней обвязке. Это как крутить ручку шарманки: музыка играет, но шарманка не хочет играть.
Критерий из главы про AGI применим и здесь:
Система сознательна, если она продолжает строить и ранжировать веер реальностей без внешнего стимула.
Если шедулер — это внешний стимул, то система не проходит критерий. Проективный блок не активен сам по себе — его дёргают по расписанию.
Разрыв 2: статичность¶
LLM после обучения — замороженная функция. Все веса фиксированы. На инференсе модель не меняется.
Контекстное обучение (in-context learning) часто путают с настоящим обучением. Но это не изменение весов — это работа механизма внимания над промптом. Модель не становится другой после разговора с вами. Она та же, просто в следующем запросе вы передадите ей другой промпт.
Сознание же — процесс, который меняет носитель. Каждый цикл скольжения оставляет след:
- Новый опыт попадает в долговременную память
- Приоритеты перестраиваются
- Сам способ построения веера корректируется
Это требует пластичности на инференсе. А её нет. Есть эксперименты с online learning — модели, которые дообучаются в процессе использования (Titans, Just Read the Text), — но это ранняя стадия, далёкая от промышленного применения.
Без пластичности невозможно настоящее обучение через опыт. А значит — невозможно и скольжение в смысле ProTeC.
Спектр: инженерия или наука?¶
Где проходит граница между «можно сделать сейчас» и «нужны фундаментальные исследования»? Разложим по трём слоям:
| Слой | Что нужно | Инженерия или наука? |
|---|---|---|
| Непрерывность — система не замолкает без внешнего стимула | Внешний цикл + шедулер | ✅ Чистая инженерия. Уже делается. |
| Внутренний мотивационный градиент — система не просто ранжирует варианты по внешней функции, а хочет одного больше другого на уровне собственной архитектуры | Модель с intrinsic reward, где функция ценности работает непрерывно, а не только в ответ на запрос | ⚠️ Пограничье. RL-фреймворки с внутренней наградой возможны на текущем железе, но устойчивого решения нет. |
| Самозарождение веера и пластичность — проективный блок генерирует образы будущего спонтанно; каждый цикл меняет модель | Архитектура с персистентным внутренним состоянием, эволюционирующим само по себе; инференс и обучение не разделены | 🔬 Научная проблема. Требует архитектурного сдвига за пределами текущей парадигмы трансформеров. |
Что это значит для Prototyp-а ProTeC¶
Текущие LLM достаточны для демонстрационного прототипа. Можно собрать pipeline, в котором:
- LLM генерирует веера (проективный блок)
- Внешний ранкер оценивает их (мотивационный блок)
- Векторная БД и граф знаний хранят опыт (память)
- Контекстное окно служит рабочей памятью
- Шедулер запускает цикл
Это будет proof of concept — система, которая похожа на скользящего субъекта. Она не будет сознательной в строгом смысле ProTeC (нет спонтанности, нет пластичности на инференсе), но продемонстрирует архитектурный принцип.
Однако для настоящего сознательного AGI потребуется архитектура, в которой:
- Модель имеет персистентное внутреннее состояние, эволюционирующее само по себе
- Мотивационный градиент встроен в архитектуру, а не прикручен снаружи
- Инференс и обучение не разделены — каждый акт мышления меняет модель
- Проективный блок активен всегда, а не только когда пришёл токен
Это не «ещё больше трансформеров» и не «ещё больше данных». Это архитектурный сдвиг — возможно, в сторону Predictive Coding Networks, Energy-Based Models с непрерывной динамикой или нейроморфных архитектур. Здесь нужна наука.
Где мы сейчас¶
Индустрия идёт к инструментальному AGI — системе, решающей любые задачи по запросу. Это огромное достижение. Но ProTeC ставит другую цель: система, которая не просто решает задачи, а живёт ими. Которая не ждёт, пока её спросят. Которая скользит.
Первый шаг к этому — прототип с непрерывным контуром. О нём — следующая глава.