Перейти к содержанию

Три уровня памяти: от биологии к ИИ-агентам


Память как фундамент предсказаний

В предыдущих главах мы говорили о прогностическом мозге и архитектуре интеллекта. Но есть вопрос, который мы лишь затронули: на чём основываются наши предсказания? Откуда берётся материал для «вееров»?

Ответ: из памяти. Без прошлого невозможно представить будущее. Но память — это не одна система. Прожективная теория сознания (ProTeC) выделяет пять взаимосвязанных слоёв памяти, каждый из которых играет свою роль в формировании предсказаний — и у каждого есть прямой аналог в архитектуре современных ИИ-агентов.


Уровень 1: Инстинктивная память (Эволюционный слой)

В биологии

Инстинктивная память — это врождённые паттерны поведения, «зашитые» в нервную систему за миллионы лет эволюции. Они не требуют обучения — организм «знает» их от рождения.

Примеры: - Новорождённый младенец знает, как сосать грудь - Мыши инстинктивно избегают открытых пространств (страх хищников) - Человек инстинктивно отдёргивает руку от горячего, реагирует на громкий звук

Нейробиологические корреляты: - Миндалина — эмоциональная оценка, особенно угроз - Гипоталамус — базовые физиологические реакции (голод, жажда, сон) - Ствол мозга — рефлексы (дыхание, сердцебиение) - Базальные ганглии — врождённые двигательные паттерны

Эти структуры — самые древние в мозге млекопитающих. Они работают всегда, фоном, и не переобучаются за жизнь особи.

В ИИ-агентах

У ИИ-агентов инстинктивный слой представлен двумя механизмами:

System prompt — «врождённый темперамент». Системный промпт задаёт базовые ограничения, предпочтения и «личность» агента до любого взаимодействия с пользователем. Он определяет, что агенту можно, а что нельзя, как он должен отвечать, какие ценности отстаивать. Это не знания и не навыки — это характер.

# Системный промпт — аналог инстинктивных ограничений
system_prompt = """
Ты — полезный ассистент.
Не давай советов, угрожающих жизни.
Будь честным: если не знаешь ответа, скажи об этом.
Уважай приватность пользователя.
"""

RLHF и конституционные ограничения — «эволюционная память». Это более глубокий слой, вшитый в веса модели через Reinforcement Learning from Human Feedback. Модель не просто «знает» правила — она «чувствует» их на уровне предсказаний следующего токена. Конституционные ограничения (Constitutional AI) задают базовые ценности, которые невозможно отменить системным промптом.

Роль в ProTeC

Инстинктивная память задаёт базовые веса для оценки вариантов. Ещё до того, как мозг построил веер, он уже знает: «опасное — плохо», «сладкое — хорошо». Это не рефлексы в чистом виде — это врождённые предпочтения, которые направляют генерацию вееров.

Веер А: «Подойти к незнакомцу» → инстинкт: «ОПАСНО» → понижающий вес
Веер Б: «Съесть сладкое»     → инстинкт: «ХОРОШО» → повышающий вес

В ИИ-агенте: system prompt задаёт границы, RLHF-веса — предпочтения. Прежде чем агент начнёт «думать», он уже знает, что нельзя советовать опасное, даже если пользователь просит.


Уровень 2: Процедурная память (Навыки)

В биологии

Процедурная память — это знание как. Как ездить на велосипеде. Как завязывать шнурки. Как вести машину. Она не требует осознанного доступа — действие выполняется автоматически, без проговаривания.

Нейробиологические корреляты: - Мозжечок — координация и автоматизация движений - Базальные ганглии — выбор и запуск моторных программ - Моторная кора — тонкая настройка

Процедурная память формируется через повторение: сознательное действие → многократное выполнение → автоматизация. Однажды выученный навык остаётся навсегда — можно не кататься на велосипеде десять лет и всё равно не разучиться.

В ИИ-агентах: gbrain skills

gbrain — один из самых проработанных примеров процедурной памяти для ИИ-агентов. Проект включает 34 skill-файла, каждый из которых — законченный workflow.

graph TD
    INTENT["Намерение пользователя"]
    RESOLVER["RESOLVER.md — диспетчер навыков"]
    S1["brain-ops — поиск и запись в мозг"]
    S2["ingest — приём контента"]
    S3["enrich — обогащение сущностей"]
    S4["daily-task-manager — управление задачами"]
    S5["book-mirror — анализ книг"]
    S6["maintain — ночной цикл здоровья"]

    INTENT --> RESOLVER
    RESOLVER --> S1
    RESOLVER --> S2
    RESOLVER --> S3
    RESOLVER --> S4
    RESOLVER --> S5
    RESOLVER --> S6

Из чего состоит навык:

  • SKILL.md — основной файл: когда срабатывать, что проверять, как связываться с другими навыками
  • Детерминированные скрипты (TypeScript) — части, которые не должны зависеть от LLM: search, import, embed, sync. Аналог автоматизированных двигательных программ
  • Conventions — перекрёстные правила качества (citation format, brain-first lookup, model routing). Аналог калибровки навыков под контекст

Ключевой принцип: «thin harness, fat skills». Интеллект живёт в навыках, а не в рантайме. Модель не «думает» над каждым шагом — она выполняет процедуру. Это и есть процедурная память.

Skillify — рождение навыка из опыта. Когда агент сталкивается с новой ситуацией и успешно её разрешает, пользователь говорит «skillify it!». Запускается мета-навык, который:

  1. Создаёт скелет SKILL.md (scaffold)
  2. Генерирует детерминированный скрипт
  3. Пишет тесты
  4. Регистрирует навык в RESOLVER
  5. Аудирует качество (10-пунктовый чек-лист)

Прямая параллель с тем, как повторение переводит действие из сознательного в автоматическое. Вчерашний разовый успех становится сегодняшним автоматическим навыком.

Процедурная память и аффективные индексы. Навыки тоже несут аффективные индексы. Привычка не просто «умею открыть холодильник» — она окрашена: «открыть холодильник → привлекательно (там еда)» или «открыть холодильник → отвратительно (там испорченные продукты)». Индекс прикрепляется к процедуре через опыт её выполнения. Именно поэтому одни привычки становятся «любимыми», а другие — «тягостными».

Minions — фоновая процедурная память. Детерминированные задачи (импорт, синхронизация, обновление эмбеддингов) выполняются в фоне через очередь задач — без участия LLM. Как дыхание или сердцебиение: нам не нужно осознанно ими управлять.

Роль в ProTeC

Процедурная память — это инструментальный слой между инстинктами и долговременной памятью. Она не хранит факты и не задаёт ценности — она хранит способы действия.

Инстинкт: «Нужно есть» (голод)
Процедурная память: «Я знаю, как открыть холодильник / как заказать еду»
Долговременная память: «В холодильнике есть сыр» / «Доставка из того кафе быстрая»

Уровень 3: Долговременная память (Опытный слой)

В биологии

Личный опыт, накопленный за жизнь. Это то, что отличает каждого из нас — наши воспоминания, знания, смыслы.

Типы долговременной памяти:

Тип Что хранит Пример
Эпизодическая Личные события «Как я встретил жену»
Семантическая Факты, понятия, смыслы «Париж — столица Франции»
Процедурная Навыки (вынесена в отдельный слой) «Как ездить на велосипеде»

Нейробиологические корреляты: - Гиппокамп — консолидация новых воспоминаний, «сборщик» информации - Неокортекс — долгосрочное хранение, особенно семантической памяти - Мозжечок — процедурные навыки

Процесс: сенсорная информация → кратковременная память → гиппокамп (консолидация) → неокортекс (хранение).

В ИИ-агентах

Два ярких примера долговременной памяти для ИИ — gbrain и memPalace. Они воплощают разные подходы к одной задаче.

gbrain: эпизодическая + семантическая + граф

gbrain — это Markdown-репозиторий как source of truth. Каждая страница строится по шаблону «compiled truth + timeline»:

---
type: concept
title: Do Things That Don't Scale
tags: [startups, growth, pg-essay]
---

Пол Грэм утверждает: стартапы должны делать не-масштабируемые вещи
на ранних этапах. Ключевой инсайт: немасштабируемое усилие учит
понимать пользователей — способ, который нельзя заменить ничем другим.

---
- 2013-07-01: Опубликовано на paulgraham.com
- 2024-11-15: Упомянуто в батче YC W25 kickoff talk
  • Compiled truth — текущее понимание факта, переписывается при поступлении новых данных. Аналог семантической памяти
  • Timeline — хронология свидетельств, только добавляется. Аналог эпизодической памяти

Граф знаний на автоизвлечении. При каждой записи страницы gbrain извлекает сущности и строит типизированные связи — без единого LLM-вызова:

«Алиса работает в Acme AI» → works_at(Алиса, Acme AI)
«Боб инвестировал в Стартап X» → invested_in(Боб, Стартап X)
«Кэрол была на встрече с Дэйвом» → attended(Кэрол, Дэйв)
graph LR
    A["Алиса"] -->|works_at| C["Acme AI"]
    B["Боб"] -->|invested_in| D["Стартап X"]
    A -->|attended| B
    D -->|founded_by| A
    style A fill:#f9f,stroke:#333
    style B fill:#f9f,stroke:#333
    style C fill:#bbf,stroke:#333
    style D fill:#bfb,stroke:#333

Аналог ассоциативных связей неокортекса: понятия связаны не просто «рядом», а типизированными отношениями.

Гибридный поиск — как мозг ищет релевантный опыт:

graph TD
    Q["Запрос: «Во что инвестировал Боб?»"]
    Q --> IC["Классификатор намерения: entity lookup"]
    IC --> MQ["Multi-query expansion: 3 формулировки"]
    MQ --> VS["Векторный поиск — семантические совпадения"]
    MQ --> KS["Ключевой поиск — точные совпадения"]
    VS --> RRF["Reciprocal Rank Fusion"]
    KS --> RRF
    RRF --> RERANK["Косинусный реранкинг + compiled-truth boost"]
    RERANK --> GRAPH["Графовый поиск: invested_in(Боб, ?)"]
    GRAPH --> RESULT["Результаты: Стартап X, Стартап Y..."]

Ключевое слово находит точные совпадения. Вектор — смысловые. Граф — структурные связи, недоступные ни одному из них по отдельности. Так же работает и наш мозг: мы ищем воспоминание по контексту, по ключевым деталям и по ассоциативным связям одновременно.

Масштаб production-развёртывания: - 17 888 страниц, 4 383 человека, 723 компании - 21 cron-задача выполняется автономно - Построено за 12 дней одним человеком

memPalace: дословная эпизодическая память

Если gbrain делает акцент на compiled truth и граф знаний, то memPalace решает другую задачу: дословное сохранение истории разговоров.

Метафора дворца памяти. Древняя мнемоническая техника: чтобы запомнить последовательность, мы мысленно размещаем её элементы в знакомом пространстве — дворце. memPalace воплощает эту метафору архитектурно:

graph TD
    PALACE["Дворец памяти"]
    WING1["Крыло: проект А"]
    WING2["Крыло: проект Б"]
    WING3["Крыло: человек Х"]
    ROOM1["Комната: архитектура"]
    ROOM2["Комната: баги"]
    ROOM3["Комната: встречи"]
    DRAWER1["Ящик: сессия 2025-03-01"]
    DRAWER2["Ящик: сессия 2025-03-15"]
    DRAWER3["Ящик: сессия 2025-04-10"]

    PALACE --> WING1
    PALACE --> WING2
    PALACE --> WING3
    WING1 --> ROOM1
    WING1 --> ROOM2
    WING2 --> ROOM3
    ROOM1 --> DRAWER1
    ROOM1 --> DRAWER2
    ROOM3 --> DRAWER3
  • Крылья — люди и проекты. Пространственная организация по контексту
  • Комнаты — темы внутри проектов
  • Ящики — конкретные разговоры, сохранённые дословно

Ключевое отличие от gbrain: memPalace не суммаризирует. Он хранит verbatim — точные реплики. Это эпизодическая память в чистом виде: мы помним не «среднюю температуру по больнице», а конкретные события.

Результат: 96.6% recall на LongMemEval (500 вопросов) без единого LLM-вызова для поиска. Поиск чисто семантический, локальный, без API-ключей.

Локально-первый подход. Ничего не покидает машину пользователя без его явного согласия. Память принадлежит агенту, а не облаку — так же, как наша память принадлежит нам, а не «внешнему серверу».

Роль в ProTeC

Долговременная память — это материал для симуляций. Без неё веера были бы пустыми — не на что было бы опираться.

Веер А: «Пойти в кафе»
  → воспоминание: «Там вкусный кофе» → положительно
  → воспоминание: «Там было шумно» → отрицательно
  → ИТОГ: нейтрально/слабо положительно

Уровень 4: Справочная память (RAG и внешние источники)

В биологии

Человек не хранит всю информацию в собственной голове. Мы используем транзактивную память — знание о том, где найти информацию, а не о самой информации.

Примеры: - «Я не помню формулу, но знаю, в каком учебнике она есть» - «Спрошу у коллеги — он в этом разбирается» - «Погуглю» — интернет как внешний расширитель памяти

Когнитивисты изучают этот феномен как «Google effect»: когда мы знаем, что информация доступна в поиске, мы хуже запоминаем её саму, но лучше запоминаем, как её найти. Это не баг — это адаптивная стратегия распределения когнитивных ресурсов.

В ИИ-агентах: RAG

Retrieval-Augmented Generation — паттерн, при котором агент не хранит факты в своих весах, а подгружает их из внешней базы знаний по мере необходимости.

graph LR
    USER["Пользователь: вопрос"]
    EMBED["Эмбеддинг запроса"]
    VDB["Векторная база данных<br/>документы, статьи, код"]
    RETRIEVE["Найденные релевантные фрагменты"]
    LLM["LLM: ответ с опорой на фрагменты"]

    USER --> EMBED
    EMBED --> VDB
    VDB --> RETRIEVE
    RETRIEVE --> LLM
    USER --> LLM

Отличие RAG от долговременной памяти: - Долговременная память — это свой опыт, свои знания. Она формируется через консолидацию и принадлежит субъекту - RAG — это внешний источник. Агент не «помнит» документ — он знает, как его найти

Почему это отдельный слой, а не часть долговременной памяти: Мозг тоже различает «я знаю» и «я знаю, где посмотреть». Это разные когнитивные операции с разной нейробиологией. Префронтальная кора активируется при обращении к внешним источникам иначе, чем при извлечении собственных воспоминаний.


Уровень 5: Рабочая память (Операционный слой)

В биологии

Рабочая память — это «верстак», на котором прямо сейчас строится веер. Она удерживает информацию, с которой мы работаем в данный момент.

Примеры: - Вы запоминаете номер телефона, пока записываете его - Вы держите в уме задачу «купить хлеб», пока обсуждаете с другом работу

Ограничения: Рабочая память ограничена. Классическая оценка — 7±2 элемента (число Миллера), современные исследования указывают на ~4 независимых чанка (Cowan, 2001). Именно это ограничение определяет W≤4 — максимальную ширину веера в прожективном блоке (см. Архитектура интеллекта).

Нейробиологические корреляты: - Префронтальная кора (дорсолатеральная) — центр рабочей памяти - Теменная кора — интеграция информации - Связь гиппокамп-кора — быстрый доступ к долговременной памяти

В ИИ-агентах

User prompt + история диалога = оперативная память. То, что попадает в контекстное окно модели — это и есть её «рабочая память» на данный момент. Модель «держит в уме» весь диалог, включая инструкции пользователя, результаты поиска (RAG), извлечённые из долговременной памяти факты — всё, что нужно для ответа.

Ограниченная ёмкость — другая природа, та же функция:

  • У человека: 7±2 элемента (классическая оценка Миллера), современные данные ~4 чанка, активно удерживаемых вниманием
  • У LLM: контекстное окно (128K токенов у современных моделей), пассивно доступное через self-attention

Важный нюанс: человек активно удерживает элементы в рабочей памяти — это требует усилий. LLM не «забывает» старые токены — они просто выпадают из окна при превышении лимита. Механика разная, но ограничение то же: объём текущего контекста конечен.

graph TD
    CTX["Контекстное окно LLM (128K токенов)"]
    SP["System prompt — инстинкты"]
    UP["User prompt — текущая задача"]
    HIST["История диалога — недавний опыт"]
    RAG["RAG-фрагменты — внешние данные"]
    LTM["Извлечённое из долговременной памяти"]

    CTX --> SP
    CTX --> UP
    CTX --> HIST
    CTX --> RAG
    CTX --> LTM

Роль в ProTeC

Рабочая память — это текущий контекст для генерации вееров. Проективный блок берёт данные из рабочей памяти и строит из них варианты будущего:

В рабочей памяти: «Сейчас утро, я спешу на работу»
Веер А: «Если выйду сейчас → успею» → принять
Веер Б: «Если загуляю → опоздаю» → отклонить

Сон как консолидация и оптимизация памяти

Ночная фаза — не пауза. Это активный процесс, без которого невозможна ни биологическая, ни искусственная память.

В биологии

Пока мы спим, гиппокамп переписывает эпизодические воспоминания в семантические знания неокортекса. Этот процесс — системная консолидация — превращает «я был в кафе X три раза, и каждый раз было шумно» в «в кафе X шумно».

Что происходит во сне:

Процесс Описание
Консолидация Гиппокамп переписывает эпизоды в семантические знания неокортекса
Синаптический прунинг Ослабление неиспользуемых связей, удаление шума
Эмоциональная переработка Снижение аффективного заряда воспоминаний: событие остаётся в памяти, но перестаёт вызывать острую реакцию
Инсайты Связывание разрозненных фактов в новые идеи

В ИИ-агентах: dream cycle

gbrain реализует 9-фазный ночной цикл обслуживания — «dream cycle». Пока пользователь спит, его агент консолидирует опыт:

graph TD
    LINT["1. lint — проверка качества"]
    BACKLINKS["2. backlinks — обновление связей"]
    SYNC["3. sync — синхронизация с репозиторием"]
    SYNTH["4. synthesize — консолидация транскриптов"]
    EXTRACT["5. extract — извлечение сущностей и связей"]
    PATTERNS["6. patterns — обнаружение тем"]
    EMOTION["7. recompute_emotional_weight — пересчёт значимости"]
    EMBED["8. embed — обновление эмбеддингов"]
    ORPHANS["9. orphans — очистка неиспользуемого"]

    LINT --> BACKLINKS --> SYNC --> SYNTH --> EXTRACT --> PATTERNS --> EMOTION --> EMBED --> ORPHANS

Параллели с биологическим сном поразительно точны:

  • Synthesize — из транскриптов разговоров рождаются structured pages, reflections, 25-year patterns. Аналог гиппокампальной консолидации: эпизод → семантическое знание
  • Extract — из контента извлекаются сущности и связи, обновляется граф знаний. Аналог формирования семантических связей в неокортексе
  • Patterns — обнаружение повторяющихся тем и идей. Аналог инсайтов во сне: разрозненные факты связываются в новое понимание
  • Recompute emotional weight (v0.29) — пересчёт эмоциональной значимости информации. Аналог эмоциональной переработки: событие остаётся, но его аффективный заряд снижается
  • Orphans + dead links — очистка неиспользуемого. Аналог синаптического прунинга: слабые связи удаляются, сильные укрепляются

Почему это станет стандартом для ИИ-агентов:

  1. Контекстное окно ограничено. Дневной опыт нельзя копить в сыром виде бесконечно — его нужно консолидировать в сжатые структуры. Без ночного цикла агент либо теряет старый опыт, либо раздувает контекст до предела через бесконечную суммаризацию
  2. Консолидация — это не оптимизация, а архитектурная необходимость. Любая долгоживущая система, оперирующая опытом, нуждается в механизме перевода эпизодического в семантическое, иначе она захлебнётся в данных
  3. gbrain доказал работоспособность: 19 cron-задач, 45K-страничный мозг, автономная консолидация каждую ночь. Результат: «I wake up and the brain is smarter than when I went to sleep»

Методы оптимизации контекста и их биологические аналоги

ИИ-агенты сталкиваются с той же проблемой, что и мозг: рабочая память ограничена, а поток информации бесконечен. Методы, которые инженеры изобретают для решения этой проблемы, часто имеют прямые параллели в биологии.

Метод ИИ Что делает Биологический аналог
Суммаризация Сжимает историю диалога до краткого конспекта Консолидация памяти: гиппокамп перерабатывает эпизоды в семантические знания во сне
Sliding window Хранит только последние N сообщений, старые вытесняются Ограниченная ёмкость рабочей памяти: новые элементы вытесняют старые
Sticky facts / key-value DB Ключевые факты хранятся отдельно и всегда доступны Семантическая память: мы всегда помним, что Париж — столица Франции, это не занимает «слоты» рабочей памяти
Mid-context optimization Модель теряет внимание к середине длинного контекста Эффект первичности/недавности (primacy/recency): мы лучше помним начало и конец списка
Онлайн-обучение Модель дообучается на новых данных Синаптическая пластичность: долговременная потенциация (LTP) при повторении
Mixture of experts Только часть весов активна для конкретного запроса Латерализация и специализация полушарий / зон коры

Взаимодействие пяти уровней

graph TD
    subgraph "Инстинктивный слой"
        INSTINCT["System prompt + RLHF<br/>Базовые ограничения и предпочтения<br/>Всегда активен"]
    end

    subgraph "Процедурный слой"
        SKILLS["Skills + Conventions<br/>Знание КАК действовать<br/>Автоматизированные workflow"]
    end

    subgraph "Долговременная память"
        LTM["Memory Bank<br/>Compiled truth + Timeline<br/>Граф знаний"]
    end

    subgraph "Справочная память"
        RAG_LAYER["RAG / Внешние источники<br/>Знание ГДЕ найти<br/>Не своё — подгружается"]
    end

    subgraph "Оперативная память"
        WM["Контекстное окно<br/>User prompt + история<br/>Текущий контекст"]
    end

    subgraph "Цикл консолидации"
        SLEEP["Dream Cycle<br/>Консолидация ночью<br/>Synthesize → Extract → Patterns → Prune"]
    end

    INSTINCT --> WM
    SKILLS --> WM
    LTM --> WM
    RAG_LAYER --> WM
    WM --> SKILLS
    SLEEP --> LTM
    WM -.->|"новый опыт"| SLEEP

    style INSTINCT fill:#f99,stroke:#333
    style SKILLS fill:#ff9,stroke:#333
    style LTM fill:#9f9,stroke:#333
    style RAG_LAYER fill:#9cf,stroke:#333
    style WM fill:#c9f,stroke:#333
    style SLEEP fill:#fc9,stroke:#333

Пример полного цикла:

  1. Инстинкт: «Нужно есть» (базовое влечение)
  2. Процедурная память: «Я знаю, как открыть холодильник, как заказать доставку»
  3. Долговременная память: «В холодильнике есть сыр, доставка из кафе X быстрая»
  4. Справочная память: «Открою приложение доставки, проверю актуальное меню»
  5. Рабочая память: «Но у меня мало времени до встречи...»
  6. Генерация вееров:
  7. Веер А: «Забежать в кафе» → «Успею поесть, но опоздаю»
  8. Веер Б: «Потерпеть до обеда» → «Не голоден, но продуктивен»
  9. Выбор → действие
  10. Ночью: опыт консолидируется — «в этот день недели лучше заказывать заранее»

Сенсорные индексы: как память поддерживает аффективную оценку

Каждый элемент памяти — будь то инстинктивный шаблон, эпизод или текущий контекст — несёт аффективный индекс. Это метаданные, прикреплённые к воспоминанию и позволяющие мгновенно оценить его эмоциональную валентность без разворачивания полного содержания.

Что индексируется

Измерение Полюса Пример
Валентность Опасно ↔ Безопасно Змея (−) vs яблоко (+)
Знакомость Знакомо ↔ Незнакомо Родной подъезд vs новый город
Привлекательность Привлекательно ↔ Отвратительно Запах еды (+) vs запах гнили (−)
Социальность Свой ↔ Чужой Лицо друга vs незнакомец в тёмном переулке

Индексы работают на всех трёх уровнях, участвующих в аффективной оценке:

  • Инстинктивная память — врождённые индексы: змея = опасно, сладкое = привлекательно, высота = опасно. Не требуют обучения, срабатывают с первой встречи.
  • Долговременная память — приобретённые индексы: этот подъезд = опасно (однажды ограбили), этот голос = привлекательно (голос любимого человека). Формируются через личный опыт.
  • Рабочая память — контекстуальные индексы: «я только что смотрел фильм ужасов, поэтому скрип половицы сейчас пугает сильнее обычного». Действуют в пределах текущей сессии.

Механизм сенсорного RAG

Когда сенсорный стимул попадает в систему, запускается параллельный поиск по аффективным индексам всех трёх уровней:

flowchart LR
    STIMULUS["Сенсорный стимул<br>«шелест в кустах»"]

    subgraph INST["Инстинктивная"]
        I1["шелест → движение → возможно, хищник → ОПАСНО"]
    end

    subgraph LTM["Долговременная"]
        L1["вчера в этом парке<br>видел бродячую собаку → ОПАСНО"]
        L2["позавчера здесь<br>кормил белок → БЕЗОПАСНО"]
    end

    subgraph WM["Рабочая"]
        W1["только что прочитал<br>новость о нападении → ОПАСНО"]
    end

    STIMULUS --> INST
    STIMULUS --> LTM
    STIMULUS --> WM

    INST --> RESULT["Кумулятивная аффективная оценка:<br>ОПАСНО (3:0) → ИЗБЕГАТЬ"]
    LTM --> RESULT
    WM --> RESULT

Поиск идёт не по содержанию, а по индексам. Системе не нужно вспоминать детали каждого эпизода — достаточно считать их аффективные метки. Это даёт скорость порядка 100 мс — быстрее, чем формируется осознанное восприятие.

Индексы как основа социальных инстинктов

Аффективные индексы лежат в основе более сложных социальных механизмов. Понятия «дом», «семья», «любовь» — это не абстрактные категории, а устойчивые аффективные профили: совокупности индексов, многократно подтверждённых опытом.

Понятие Индексный профиль
Дом Безопасно + Знакомо + Привлекательно + Свой
Семья Безопасно + Свой + Привлекательно
Любовь Привлекательно + Безопасно + Свой + стремление приблизиться
Чужак Незнакомо + Неопределённо (легко смещается к Опасно)

Эти профили не статичны — они пересчитываются с каждым новым опытом. Если дом перестаёт быть безопасным (пожар, вторжение), его индексный профиль перестраивается. Подробно — в главе Социальные инстинкты.

Связь с нарушениями

Сбой в системе индексов — один из ключевых механизмов психических расстройств:

  • Депрессия: индексы смещены в негативную сторону. Нейтральные воспоминания получают индекс «опасно» или «отвратительно». Позитивные индексы ослаблены.
  • ПТСР: индексы застревают. Событие десятилетней давности сохраняет индекс «опасно» максимальной силы, даже если контекст давно изменился.
  • Тревожное расстройство: индекс «опасно» присваивается стимулам, которые для большинства людей нейтральны. Поиск по памяти возвращает ложные срабатывания.

Подробно механизм аффективной оценки и его нарушения разбираются в главе Аффективная оценка.


Нарушения памяти и их влияние на веера

Понимание многоуровневой структуры объясняет многие расстройства:

Нарушение Уровень Что ломается
Болезнь Альцгеймера Долговременная память Разрушение гиппокампа → веера становятся бедными, примитивными, не опираются на прошлый опыт
Депрессия Рабочая память Префронтальная кора не удерживает позитивные веера → «сужение горизонта», видны только негативные варианты
PTSD Инстинктивная память Гиперфункция миндалины → все веера окрашиваются угрозой, безопасные ситуации воспринимаются как опасные
Апраксия Процедурная память Нарушение моторных программ → знает, что делать, но не может выполнить
Агнозия Справочная память Нарушение узнавания → видит объект, но не может назвать (не может «найти» значение)

Резюме

Память — это не монолитное хранилище, а многоуровневая система, где каждый слой решает свою задачу:

Уровень Биология ИИ-агент Функция
Инстинктивный Миндалина, ствол мозга System prompt, RLHF-веса Задаёт базовые ограничения и предпочтения
Процедурный Мозжечок, базальные ганглии Skills, conventions, minions Хранит знание как — автоматизированные способы действия
Долговременный Гиппокамп → неокортекс Memory bank (gbrain, mempalace), граф знаний Хранит факты, события, смыслы — материал для симуляций
Справочный Транзактивная память RAG, поисковые системы Знание о том, где найти информацию
Оперативный Префронтальная кора Контекстное окно, user prompt Текущий контекст, «верстак» для вееров
Консолидация Ночная работа гиппокампа Dream cycle (synthesize, extract, patterns) Переводит эпизоды в семантические знания, удаляет шум

Ключевые выводы: - Все пять уровней взаимодействуют в реальном времени, каждый выполняет свою незаменимую роль - Нарушение любого уровня меняет картину мира — веера становятся искажёнными или бедными - Современные ИИ-агенты воспроизводят ту же многоуровневую архитектуру, что и биологический мозг - Ночная консолидация — не опция, а архитектурная необходимость для любой долгоживущей системы с памятью


Применение