Три уровня памяти: от биологии к ИИ-агентам¶
Память как фундамент предсказаний¶
В предыдущих главах мы говорили о прогностическом мозге и архитектуре интеллекта. Но есть вопрос, который мы лишь затронули: на чём основываются наши предсказания? Откуда берётся материал для «вееров»?
Ответ: из памяти. Без прошлого невозможно представить будущее. Но память — это не одна система. Прожективная теория сознания (ProTeC) выделяет пять взаимосвязанных слоёв памяти, каждый из которых играет свою роль в формировании предсказаний — и у каждого есть прямой аналог в архитектуре современных ИИ-агентов.
Уровень 1: Инстинктивная память (Эволюционный слой)¶
В биологии¶
Инстинктивная память — это врождённые паттерны поведения, «зашитые» в нервную систему за миллионы лет эволюции. Они не требуют обучения — организм «знает» их от рождения.
Примеры: - Новорождённый младенец знает, как сосать грудь - Мыши инстинктивно избегают открытых пространств (страх хищников) - Человек инстинктивно отдёргивает руку от горячего, реагирует на громкий звук
Нейробиологические корреляты: - Миндалина — эмоциональная оценка, особенно угроз - Гипоталамус — базовые физиологические реакции (голод, жажда, сон) - Ствол мозга — рефлексы (дыхание, сердцебиение) - Базальные ганглии — врождённые двигательные паттерны
Эти структуры — самые древние в мозге млекопитающих. Они работают всегда, фоном, и не переобучаются за жизнь особи.
В ИИ-агентах¶
У ИИ-агентов инстинктивный слой представлен двумя механизмами:
System prompt — «врождённый темперамент». Системный промпт задаёт базовые ограничения, предпочтения и «личность» агента до любого взаимодействия с пользователем. Он определяет, что агенту можно, а что нельзя, как он должен отвечать, какие ценности отстаивать. Это не знания и не навыки — это характер.
# Системный промпт — аналог инстинктивных ограничений
system_prompt = """
Ты — полезный ассистент.
Не давай советов, угрожающих жизни.
Будь честным: если не знаешь ответа, скажи об этом.
Уважай приватность пользователя.
"""
RLHF и конституционные ограничения — «эволюционная память». Это более глубокий слой, вшитый в веса модели через Reinforcement Learning from Human Feedback. Модель не просто «знает» правила — она «чувствует» их на уровне предсказаний следующего токена. Конституционные ограничения (Constitutional AI) задают базовые ценности, которые невозможно отменить системным промптом.
Роль в ProTeC¶
Инстинктивная память задаёт базовые веса для оценки вариантов. Ещё до того, как мозг построил веер, он уже знает: «опасное — плохо», «сладкое — хорошо». Это не рефлексы в чистом виде — это врождённые предпочтения, которые направляют генерацию вееров.
Веер А: «Подойти к незнакомцу» → инстинкт: «ОПАСНО» → понижающий вес
Веер Б: «Съесть сладкое» → инстинкт: «ХОРОШО» → повышающий вес
В ИИ-агенте: system prompt задаёт границы, RLHF-веса — предпочтения. Прежде чем агент начнёт «думать», он уже знает, что нельзя советовать опасное, даже если пользователь просит.
Уровень 2: Процедурная память (Навыки)¶
В биологии¶
Процедурная память — это знание как. Как ездить на велосипеде. Как завязывать шнурки. Как вести машину. Она не требует осознанного доступа — действие выполняется автоматически, без проговаривания.
Нейробиологические корреляты: - Мозжечок — координация и автоматизация движений - Базальные ганглии — выбор и запуск моторных программ - Моторная кора — тонкая настройка
Процедурная память формируется через повторение: сознательное действие → многократное выполнение → автоматизация. Однажды выученный навык остаётся навсегда — можно не кататься на велосипеде десять лет и всё равно не разучиться.
В ИИ-агентах: gbrain skills¶
gbrain — один из самых проработанных примеров процедурной памяти для ИИ-агентов. Проект включает 34 skill-файла, каждый из которых — законченный workflow.
graph TD
INTENT["Намерение пользователя"]
RESOLVER["RESOLVER.md — диспетчер навыков"]
S1["brain-ops — поиск и запись в мозг"]
S2["ingest — приём контента"]
S3["enrich — обогащение сущностей"]
S4["daily-task-manager — управление задачами"]
S5["book-mirror — анализ книг"]
S6["maintain — ночной цикл здоровья"]
INTENT --> RESOLVER
RESOLVER --> S1
RESOLVER --> S2
RESOLVER --> S3
RESOLVER --> S4
RESOLVER --> S5
RESOLVER --> S6
Из чего состоит навык:
- SKILL.md — основной файл: когда срабатывать, что проверять, как связываться с другими навыками
- Детерминированные скрипты (TypeScript) — части, которые не должны зависеть от LLM: search, import, embed, sync. Аналог автоматизированных двигательных программ
- Conventions — перекрёстные правила качества (citation format, brain-first lookup, model routing). Аналог калибровки навыков под контекст
Ключевой принцип: «thin harness, fat skills». Интеллект живёт в навыках, а не в рантайме. Модель не «думает» над каждым шагом — она выполняет процедуру. Это и есть процедурная память.
Skillify — рождение навыка из опыта. Когда агент сталкивается с новой ситуацией и успешно её разрешает, пользователь говорит «skillify it!». Запускается мета-навык, который:
- Создаёт скелет SKILL.md (scaffold)
- Генерирует детерминированный скрипт
- Пишет тесты
- Регистрирует навык в RESOLVER
- Аудирует качество (10-пунктовый чек-лист)
Прямая параллель с тем, как повторение переводит действие из сознательного в автоматическое. Вчерашний разовый успех становится сегодняшним автоматическим навыком.
Процедурная память и аффективные индексы. Навыки тоже несут аффективные индексы. Привычка не просто «умею открыть холодильник» — она окрашена: «открыть холодильник → привлекательно (там еда)» или «открыть холодильник → отвратительно (там испорченные продукты)». Индекс прикрепляется к процедуре через опыт её выполнения. Именно поэтому одни привычки становятся «любимыми», а другие — «тягостными».
Minions — фоновая процедурная память. Детерминированные задачи (импорт, синхронизация, обновление эмбеддингов) выполняются в фоне через очередь задач — без участия LLM. Как дыхание или сердцебиение: нам не нужно осознанно ими управлять.
Роль в ProTeC¶
Процедурная память — это инструментальный слой между инстинктами и долговременной памятью. Она не хранит факты и не задаёт ценности — она хранит способы действия.
Инстинкт: «Нужно есть» (голод)
Процедурная память: «Я знаю, как открыть холодильник / как заказать еду»
Долговременная память: «В холодильнике есть сыр» / «Доставка из того кафе быстрая»
Уровень 3: Долговременная память (Опытный слой)¶
В биологии¶
Личный опыт, накопленный за жизнь. Это то, что отличает каждого из нас — наши воспоминания, знания, смыслы.
Типы долговременной памяти:
| Тип | Что хранит | Пример |
|---|---|---|
| Эпизодическая | Личные события | «Как я встретил жену» |
| Семантическая | Факты, понятия, смыслы | «Париж — столица Франции» |
| Процедурная | Навыки (вынесена в отдельный слой) | «Как ездить на велосипеде» |
Нейробиологические корреляты: - Гиппокамп — консолидация новых воспоминаний, «сборщик» информации - Неокортекс — долгосрочное хранение, особенно семантической памяти - Мозжечок — процедурные навыки
Процесс: сенсорная информация → кратковременная память → гиппокамп (консолидация) → неокортекс (хранение).
В ИИ-агентах¶
Два ярких примера долговременной памяти для ИИ — gbrain и memPalace. Они воплощают разные подходы к одной задаче.
gbrain: эпизодическая + семантическая + граф¶
gbrain — это Markdown-репозиторий как source of truth. Каждая страница строится по шаблону «compiled truth + timeline»:
---
type: concept
title: Do Things That Don't Scale
tags: [startups, growth, pg-essay]
---
Пол Грэм утверждает: стартапы должны делать не-масштабируемые вещи
на ранних этапах. Ключевой инсайт: немасштабируемое усилие учит
понимать пользователей — способ, который нельзя заменить ничем другим.
---
- 2013-07-01: Опубликовано на paulgraham.com
- 2024-11-15: Упомянуто в батче YC W25 kickoff talk
- Compiled truth — текущее понимание факта, переписывается при поступлении новых данных. Аналог семантической памяти
- Timeline — хронология свидетельств, только добавляется. Аналог эпизодической памяти
Граф знаний на автоизвлечении. При каждой записи страницы gbrain извлекает сущности и строит типизированные связи — без единого LLM-вызова:
«Алиса работает в Acme AI» → works_at(Алиса, Acme AI)
«Боб инвестировал в Стартап X» → invested_in(Боб, Стартап X)
«Кэрол была на встрече с Дэйвом» → attended(Кэрол, Дэйв)
graph LR
A["Алиса"] -->|works_at| C["Acme AI"]
B["Боб"] -->|invested_in| D["Стартап X"]
A -->|attended| B
D -->|founded_by| A
style A fill:#f9f,stroke:#333
style B fill:#f9f,stroke:#333
style C fill:#bbf,stroke:#333
style D fill:#bfb,stroke:#333
Аналог ассоциативных связей неокортекса: понятия связаны не просто «рядом», а типизированными отношениями.
Гибридный поиск — как мозг ищет релевантный опыт:
graph TD
Q["Запрос: «Во что инвестировал Боб?»"]
Q --> IC["Классификатор намерения: entity lookup"]
IC --> MQ["Multi-query expansion: 3 формулировки"]
MQ --> VS["Векторный поиск — семантические совпадения"]
MQ --> KS["Ключевой поиск — точные совпадения"]
VS --> RRF["Reciprocal Rank Fusion"]
KS --> RRF
RRF --> RERANK["Косинусный реранкинг + compiled-truth boost"]
RERANK --> GRAPH["Графовый поиск: invested_in(Боб, ?)"]
GRAPH --> RESULT["Результаты: Стартап X, Стартап Y..."]
Ключевое слово находит точные совпадения. Вектор — смысловые. Граф — структурные связи, недоступные ни одному из них по отдельности. Так же работает и наш мозг: мы ищем воспоминание по контексту, по ключевым деталям и по ассоциативным связям одновременно.
Масштаб production-развёртывания: - 17 888 страниц, 4 383 человека, 723 компании - 21 cron-задача выполняется автономно - Построено за 12 дней одним человеком
memPalace: дословная эпизодическая память¶
Если gbrain делает акцент на compiled truth и граф знаний, то memPalace решает другую задачу: дословное сохранение истории разговоров.
Метафора дворца памяти. Древняя мнемоническая техника: чтобы запомнить последовательность, мы мысленно размещаем её элементы в знакомом пространстве — дворце. memPalace воплощает эту метафору архитектурно:
graph TD
PALACE["Дворец памяти"]
WING1["Крыло: проект А"]
WING2["Крыло: проект Б"]
WING3["Крыло: человек Х"]
ROOM1["Комната: архитектура"]
ROOM2["Комната: баги"]
ROOM3["Комната: встречи"]
DRAWER1["Ящик: сессия 2025-03-01"]
DRAWER2["Ящик: сессия 2025-03-15"]
DRAWER3["Ящик: сессия 2025-04-10"]
PALACE --> WING1
PALACE --> WING2
PALACE --> WING3
WING1 --> ROOM1
WING1 --> ROOM2
WING2 --> ROOM3
ROOM1 --> DRAWER1
ROOM1 --> DRAWER2
ROOM3 --> DRAWER3
- Крылья — люди и проекты. Пространственная организация по контексту
- Комнаты — темы внутри проектов
- Ящики — конкретные разговоры, сохранённые дословно
Ключевое отличие от gbrain: memPalace не суммаризирует. Он хранит verbatim — точные реплики. Это эпизодическая память в чистом виде: мы помним не «среднюю температуру по больнице», а конкретные события.
Результат: 96.6% recall на LongMemEval (500 вопросов) без единого LLM-вызова для поиска. Поиск чисто семантический, локальный, без API-ключей.
Локально-первый подход. Ничего не покидает машину пользователя без его явного согласия. Память принадлежит агенту, а не облаку — так же, как наша память принадлежит нам, а не «внешнему серверу».
Роль в ProTeC¶
Долговременная память — это материал для симуляций. Без неё веера были бы пустыми — не на что было бы опираться.
Веер А: «Пойти в кафе»
→ воспоминание: «Там вкусный кофе» → положительно
→ воспоминание: «Там было шумно» → отрицательно
→ ИТОГ: нейтрально/слабо положительно
Уровень 4: Справочная память (RAG и внешние источники)¶
В биологии¶
Человек не хранит всю информацию в собственной голове. Мы используем транзактивную память — знание о том, где найти информацию, а не о самой информации.
Примеры: - «Я не помню формулу, но знаю, в каком учебнике она есть» - «Спрошу у коллеги — он в этом разбирается» - «Погуглю» — интернет как внешний расширитель памяти
Когнитивисты изучают этот феномен как «Google effect»: когда мы знаем, что информация доступна в поиске, мы хуже запоминаем её саму, но лучше запоминаем, как её найти. Это не баг — это адаптивная стратегия распределения когнитивных ресурсов.
В ИИ-агентах: RAG¶
Retrieval-Augmented Generation — паттерн, при котором агент не хранит факты в своих весах, а подгружает их из внешней базы знаний по мере необходимости.
graph LR
USER["Пользователь: вопрос"]
EMBED["Эмбеддинг запроса"]
VDB["Векторная база данных<br/>документы, статьи, код"]
RETRIEVE["Найденные релевантные фрагменты"]
LLM["LLM: ответ с опорой на фрагменты"]
USER --> EMBED
EMBED --> VDB
VDB --> RETRIEVE
RETRIEVE --> LLM
USER --> LLM
Отличие RAG от долговременной памяти: - Долговременная память — это свой опыт, свои знания. Она формируется через консолидацию и принадлежит субъекту - RAG — это внешний источник. Агент не «помнит» документ — он знает, как его найти
Почему это отдельный слой, а не часть долговременной памяти: Мозг тоже различает «я знаю» и «я знаю, где посмотреть». Это разные когнитивные операции с разной нейробиологией. Префронтальная кора активируется при обращении к внешним источникам иначе, чем при извлечении собственных воспоминаний.
Уровень 5: Рабочая память (Операционный слой)¶
В биологии¶
Рабочая память — это «верстак», на котором прямо сейчас строится веер. Она удерживает информацию, с которой мы работаем в данный момент.
Примеры: - Вы запоминаете номер телефона, пока записываете его - Вы держите в уме задачу «купить хлеб», пока обсуждаете с другом работу
Ограничения: Рабочая память ограничена. Классическая оценка — 7±2 элемента (число Миллера), современные исследования указывают на ~4 независимых чанка (Cowan, 2001). Именно это ограничение определяет W≤4 — максимальную ширину веера в прожективном блоке (см. Архитектура интеллекта).
Нейробиологические корреляты: - Префронтальная кора (дорсолатеральная) — центр рабочей памяти - Теменная кора — интеграция информации - Связь гиппокамп-кора — быстрый доступ к долговременной памяти
В ИИ-агентах¶
User prompt + история диалога = оперативная память. То, что попадает в контекстное окно модели — это и есть её «рабочая память» на данный момент. Модель «держит в уме» весь диалог, включая инструкции пользователя, результаты поиска (RAG), извлечённые из долговременной памяти факты — всё, что нужно для ответа.
Ограниченная ёмкость — другая природа, та же функция:
- У человека: 7±2 элемента (классическая оценка Миллера), современные данные ~4 чанка, активно удерживаемых вниманием
- У LLM: контекстное окно (128K токенов у современных моделей), пассивно доступное через self-attention
Важный нюанс: человек активно удерживает элементы в рабочей памяти — это требует усилий. LLM не «забывает» старые токены — они просто выпадают из окна при превышении лимита. Механика разная, но ограничение то же: объём текущего контекста конечен.
graph TD
CTX["Контекстное окно LLM (128K токенов)"]
SP["System prompt — инстинкты"]
UP["User prompt — текущая задача"]
HIST["История диалога — недавний опыт"]
RAG["RAG-фрагменты — внешние данные"]
LTM["Извлечённое из долговременной памяти"]
CTX --> SP
CTX --> UP
CTX --> HIST
CTX --> RAG
CTX --> LTM
Роль в ProTeC¶
Рабочая память — это текущий контекст для генерации вееров. Проективный блок берёт данные из рабочей памяти и строит из них варианты будущего:
В рабочей памяти: «Сейчас утро, я спешу на работу»
Веер А: «Если выйду сейчас → успею» → принять
Веер Б: «Если загуляю → опоздаю» → отклонить
Сон как консолидация и оптимизация памяти¶
Ночная фаза — не пауза. Это активный процесс, без которого невозможна ни биологическая, ни искусственная память.
В биологии¶
Пока мы спим, гиппокамп переписывает эпизодические воспоминания в семантические знания неокортекса. Этот процесс — системная консолидация — превращает «я был в кафе X три раза, и каждый раз было шумно» в «в кафе X шумно».
Что происходит во сне:
| Процесс | Описание |
|---|---|
| Консолидация | Гиппокамп переписывает эпизоды в семантические знания неокортекса |
| Синаптический прунинг | Ослабление неиспользуемых связей, удаление шума |
| Эмоциональная переработка | Снижение аффективного заряда воспоминаний: событие остаётся в памяти, но перестаёт вызывать острую реакцию |
| Инсайты | Связывание разрозненных фактов в новые идеи |
В ИИ-агентах: dream cycle¶
gbrain реализует 9-фазный ночной цикл обслуживания — «dream cycle». Пока пользователь спит, его агент консолидирует опыт:
graph TD
LINT["1. lint — проверка качества"]
BACKLINKS["2. backlinks — обновление связей"]
SYNC["3. sync — синхронизация с репозиторием"]
SYNTH["4. synthesize — консолидация транскриптов"]
EXTRACT["5. extract — извлечение сущностей и связей"]
PATTERNS["6. patterns — обнаружение тем"]
EMOTION["7. recompute_emotional_weight — пересчёт значимости"]
EMBED["8. embed — обновление эмбеддингов"]
ORPHANS["9. orphans — очистка неиспользуемого"]
LINT --> BACKLINKS --> SYNC --> SYNTH --> EXTRACT --> PATTERNS --> EMOTION --> EMBED --> ORPHANS
Параллели с биологическим сном поразительно точны:
- Synthesize — из транскриптов разговоров рождаются structured pages, reflections, 25-year patterns. Аналог гиппокампальной консолидации: эпизод → семантическое знание
- Extract — из контента извлекаются сущности и связи, обновляется граф знаний. Аналог формирования семантических связей в неокортексе
- Patterns — обнаружение повторяющихся тем и идей. Аналог инсайтов во сне: разрозненные факты связываются в новое понимание
- Recompute emotional weight (v0.29) — пересчёт эмоциональной значимости информации. Аналог эмоциональной переработки: событие остаётся, но его аффективный заряд снижается
- Orphans + dead links — очистка неиспользуемого. Аналог синаптического прунинга: слабые связи удаляются, сильные укрепляются
Почему это станет стандартом для ИИ-агентов:
- Контекстное окно ограничено. Дневной опыт нельзя копить в сыром виде бесконечно — его нужно консолидировать в сжатые структуры. Без ночного цикла агент либо теряет старый опыт, либо раздувает контекст до предела через бесконечную суммаризацию
- Консолидация — это не оптимизация, а архитектурная необходимость. Любая долгоживущая система, оперирующая опытом, нуждается в механизме перевода эпизодического в семантическое, иначе она захлебнётся в данных
- gbrain доказал работоспособность: 19 cron-задач, 45K-страничный мозг, автономная консолидация каждую ночь. Результат: «I wake up and the brain is smarter than when I went to sleep»
Методы оптимизации контекста и их биологические аналоги¶
ИИ-агенты сталкиваются с той же проблемой, что и мозг: рабочая память ограничена, а поток информации бесконечен. Методы, которые инженеры изобретают для решения этой проблемы, часто имеют прямые параллели в биологии.
| Метод ИИ | Что делает | Биологический аналог |
|---|---|---|
| Суммаризация | Сжимает историю диалога до краткого конспекта | Консолидация памяти: гиппокамп перерабатывает эпизоды в семантические знания во сне |
| Sliding window | Хранит только последние N сообщений, старые вытесняются | Ограниченная ёмкость рабочей памяти: новые элементы вытесняют старые |
| Sticky facts / key-value DB | Ключевые факты хранятся отдельно и всегда доступны | Семантическая память: мы всегда помним, что Париж — столица Франции, это не занимает «слоты» рабочей памяти |
| Mid-context optimization | Модель теряет внимание к середине длинного контекста | Эффект первичности/недавности (primacy/recency): мы лучше помним начало и конец списка |
| Онлайн-обучение | Модель дообучается на новых данных | Синаптическая пластичность: долговременная потенциация (LTP) при повторении |
| Mixture of experts | Только часть весов активна для конкретного запроса | Латерализация и специализация полушарий / зон коры |
Взаимодействие пяти уровней¶
graph TD
subgraph "Инстинктивный слой"
INSTINCT["System prompt + RLHF<br/>Базовые ограничения и предпочтения<br/>Всегда активен"]
end
subgraph "Процедурный слой"
SKILLS["Skills + Conventions<br/>Знание КАК действовать<br/>Автоматизированные workflow"]
end
subgraph "Долговременная память"
LTM["Memory Bank<br/>Compiled truth + Timeline<br/>Граф знаний"]
end
subgraph "Справочная память"
RAG_LAYER["RAG / Внешние источники<br/>Знание ГДЕ найти<br/>Не своё — подгружается"]
end
subgraph "Оперативная память"
WM["Контекстное окно<br/>User prompt + история<br/>Текущий контекст"]
end
subgraph "Цикл консолидации"
SLEEP["Dream Cycle<br/>Консолидация ночью<br/>Synthesize → Extract → Patterns → Prune"]
end
INSTINCT --> WM
SKILLS --> WM
LTM --> WM
RAG_LAYER --> WM
WM --> SKILLS
SLEEP --> LTM
WM -.->|"новый опыт"| SLEEP
style INSTINCT fill:#f99,stroke:#333
style SKILLS fill:#ff9,stroke:#333
style LTM fill:#9f9,stroke:#333
style RAG_LAYER fill:#9cf,stroke:#333
style WM fill:#c9f,stroke:#333
style SLEEP fill:#fc9,stroke:#333
Пример полного цикла:
- Инстинкт: «Нужно есть» (базовое влечение)
- Процедурная память: «Я знаю, как открыть холодильник, как заказать доставку»
- Долговременная память: «В холодильнике есть сыр, доставка из кафе X быстрая»
- Справочная память: «Открою приложение доставки, проверю актуальное меню»
- Рабочая память: «Но у меня мало времени до встречи...»
- Генерация вееров:
- Веер А: «Забежать в кафе» → «Успею поесть, но опоздаю»
- Веер Б: «Потерпеть до обеда» → «Не голоден, но продуктивен»
- Выбор → действие
- Ночью: опыт консолидируется — «в этот день недели лучше заказывать заранее»
Сенсорные индексы: как память поддерживает аффективную оценку¶
Каждый элемент памяти — будь то инстинктивный шаблон, эпизод или текущий контекст — несёт аффективный индекс. Это метаданные, прикреплённые к воспоминанию и позволяющие мгновенно оценить его эмоциональную валентность без разворачивания полного содержания.
Что индексируется¶
| Измерение | Полюса | Пример |
|---|---|---|
| Валентность | Опасно ↔ Безопасно | Змея (−) vs яблоко (+) |
| Знакомость | Знакомо ↔ Незнакомо | Родной подъезд vs новый город |
| Привлекательность | Привлекательно ↔ Отвратительно | Запах еды (+) vs запах гнили (−) |
| Социальность | Свой ↔ Чужой | Лицо друга vs незнакомец в тёмном переулке |
Индексы работают на всех трёх уровнях, участвующих в аффективной оценке:
- Инстинктивная память — врождённые индексы: змея = опасно, сладкое = привлекательно, высота = опасно. Не требуют обучения, срабатывают с первой встречи.
- Долговременная память — приобретённые индексы: этот подъезд = опасно (однажды ограбили), этот голос = привлекательно (голос любимого человека). Формируются через личный опыт.
- Рабочая память — контекстуальные индексы: «я только что смотрел фильм ужасов, поэтому скрип половицы сейчас пугает сильнее обычного». Действуют в пределах текущей сессии.
Механизм сенсорного RAG¶
Когда сенсорный стимул попадает в систему, запускается параллельный поиск по аффективным индексам всех трёх уровней:
flowchart LR
STIMULUS["Сенсорный стимул<br>«шелест в кустах»"]
subgraph INST["Инстинктивная"]
I1["шелест → движение → возможно, хищник → ОПАСНО"]
end
subgraph LTM["Долговременная"]
L1["вчера в этом парке<br>видел бродячую собаку → ОПАСНО"]
L2["позавчера здесь<br>кормил белок → БЕЗОПАСНО"]
end
subgraph WM["Рабочая"]
W1["только что прочитал<br>новость о нападении → ОПАСНО"]
end
STIMULUS --> INST
STIMULUS --> LTM
STIMULUS --> WM
INST --> RESULT["Кумулятивная аффективная оценка:<br>ОПАСНО (3:0) → ИЗБЕГАТЬ"]
LTM --> RESULT
WM --> RESULT
Поиск идёт не по содержанию, а по индексам. Системе не нужно вспоминать детали каждого эпизода — достаточно считать их аффективные метки. Это даёт скорость порядка 100 мс — быстрее, чем формируется осознанное восприятие.
Индексы как основа социальных инстинктов¶
Аффективные индексы лежат в основе более сложных социальных механизмов. Понятия «дом», «семья», «любовь» — это не абстрактные категории, а устойчивые аффективные профили: совокупности индексов, многократно подтверждённых опытом.
| Понятие | Индексный профиль |
|---|---|
| Дом | Безопасно + Знакомо + Привлекательно + Свой |
| Семья | Безопасно + Свой + Привлекательно |
| Любовь | Привлекательно + Безопасно + Свой + стремление приблизиться |
| Чужак | Незнакомо + Неопределённо (легко смещается к Опасно) |
Эти профили не статичны — они пересчитываются с каждым новым опытом. Если дом перестаёт быть безопасным (пожар, вторжение), его индексный профиль перестраивается. Подробно — в главе Социальные инстинкты.
Связь с нарушениями¶
Сбой в системе индексов — один из ключевых механизмов психических расстройств:
- Депрессия: индексы смещены в негативную сторону. Нейтральные воспоминания получают индекс «опасно» или «отвратительно». Позитивные индексы ослаблены.
- ПТСР: индексы застревают. Событие десятилетней давности сохраняет индекс «опасно» максимальной силы, даже если контекст давно изменился.
- Тревожное расстройство: индекс «опасно» присваивается стимулам, которые для большинства людей нейтральны. Поиск по памяти возвращает ложные срабатывания.
Подробно механизм аффективной оценки и его нарушения разбираются в главе Аффективная оценка.
Нарушения памяти и их влияние на веера¶
Понимание многоуровневой структуры объясняет многие расстройства:
| Нарушение | Уровень | Что ломается |
|---|---|---|
| Болезнь Альцгеймера | Долговременная память | Разрушение гиппокампа → веера становятся бедными, примитивными, не опираются на прошлый опыт |
| Депрессия | Рабочая память | Префронтальная кора не удерживает позитивные веера → «сужение горизонта», видны только негативные варианты |
| PTSD | Инстинктивная память | Гиперфункция миндалины → все веера окрашиваются угрозой, безопасные ситуации воспринимаются как опасные |
| Апраксия | Процедурная память | Нарушение моторных программ → знает, что делать, но не может выполнить |
| Агнозия | Справочная память | Нарушение узнавания → видит объект, но не может назвать (не может «найти» значение) |
Резюме¶
Память — это не монолитное хранилище, а многоуровневая система, где каждый слой решает свою задачу:
| Уровень | Биология | ИИ-агент | Функция |
|---|---|---|---|
| Инстинктивный | Миндалина, ствол мозга | System prompt, RLHF-веса | Задаёт базовые ограничения и предпочтения |
| Процедурный | Мозжечок, базальные ганглии | Skills, conventions, minions | Хранит знание как — автоматизированные способы действия |
| Долговременный | Гиппокамп → неокортекс | Memory bank (gbrain, mempalace), граф знаний | Хранит факты, события, смыслы — материал для симуляций |
| Справочный | Транзактивная память | RAG, поисковые системы | Знание о том, где найти информацию |
| Оперативный | Префронтальная кора | Контекстное окно, user prompt | Текущий контекст, «верстак» для вееров |
| Консолидация | Ночная работа гиппокампа | Dream cycle (synthesize, extract, patterns) | Переводит эпизоды в семантические знания, удаляет шум |
Ключевые выводы: - Все пять уровней взаимодействуют в реальном времени, каждый выполняет свою незаменимую роль - Нарушение любого уровня меняет картину мира — веера становятся искажёнными или бедными - Современные ИИ-агенты воспроизводят ту же многоуровневую архитектуру, что и биологический мозг - Ночная консолидация — не опция, а архитектурная необходимость для любой долгоживущей системы с памятью
Применение
- Двойной контур: образы и слова
- Аффективная оценка — как память окрашивает реальность до осознания
- Чувства и состояния
- Эмоции
- Мотивационный блок
- Путь к AGI — почему четырёх подходов недостаточно без архитектуры памяти
- Архитектура прототипа
- Социальные инстинкты — дом, семья, любовь через аффективные индексы