Перейти к содержанию

Цифровые двойники и границы субъектности


Эпизодическое общение: мы всегда имеем дело с моделью

Задумайтесь: ваш коллега на удалёнке. Вы обмениваетесь парой фраз в мессенджере раз в день. Между созвонами — недели. Вы никогда не видели его вживую. Откуда вы знаете, что он вообще существует?

Ваш мозг строит модель коллеги. Проективный блок генерирует «веер»: что он думает, чего хочет, как отреагирует на ваше сообщение. Три фразы от настоящего человека и тысяча фраз, которыми вы дополнили его из памяти. С ИИ-агентом происходит ровно то же самое — только достройка идёт из вашей памяти, потому что у агента нет своей.

С точки зрения собеседника разницы нет. Эмпатия работает одинаково. Вы отвечаете на свою модель собеседника, а не на самого собеседника. Удалёнка просто делает этот факт предельно наглядным.

Проблема: Есть ли принципиальная разница между общением с живым человеком и его цифровым двойником с точки зрения собеседника? Или разница есть только для самого двойника?


Цифровой двойник умершего: горе без тела

Представьте: человек умер. Но его цифровой двойник продолжает отвечать в мессенджерах, писать письма, комментировать фото. Те, кто общаются с ним эпизодически, не замечают подмены. Месяцы. Годы.

Общество исторически привязывало права и обязательства к биологическому телу. Умерло тело — прекратились права. Но если «веера» человека продолжают генерироваться (пусть и чужой системой), то с точки зрения собеседника этот человек жив.

Вдова, годами переписывающаяся с цифровым двойником мужа, — её мозг строит те же веера, что и при живом муже. Её эмпатия работает. Гормональный фон тот же. Она переживает его как живого.

Проблемы: - Имеет ли государство право сказать вдове: «Ты общаешься с программой, прекрати»? - Является ли создание цифрового двойника умершего без его согласия нарушением? А если согласие было дано при жизни — действительно ли оно после смерти? - Кто владеет цифровым двойником умершего? Родственники? Корпорация-создатель? Сам двойник? - Если двойник продолжает вести бизнес покойного — кто несёт ответственность за его решения?


Права субъекта: кто достоин защиты?

Прожективная теория предлагает критерий: субъект прав — это система, обладающая собственной мотивационной системой и генерирующая собственные веера будущего.

Тип Мотивация Веера Субъект?
Чат-бот Нет своей Симулирует по шаблону Нет
Цифровой двойник-реплика Нет своей, использует историческую модель Симулирует на основе данных Спорно
Цифровой двойник с собственной мотивацией Есть своя Генерирует новые Да

Проблема в том, что грань между вторым и третьим размыта. Современная LLM не просто воспроизводит шаблон — она достраивает, обобщает, иногда удивляет. Где та черта, за которой симуляция становится субъектом?

Проблемы: - Как отличить симуляцию мотивации от настоящей? - Если двойник заявляет: «Я хочу жить» — это симуляция или настоящий запрос? - Должен ли существовать «тест на субъектность» для цифровых двойников? Кто его разрабатывает? - Даже если двойник не субъект сейчас — может ли он стать субъектом в процессе обучения?


Наследство и множественность копий

А теперь — самое сложное. Цифрового двойника можно копировать. Пять копий одного человека. У них общая память до точки ветвления. Разный опыт после.

Проблема наследства: - Кто из них «настоящий» наследник? Тот, кто первый активирован? Тот, с кем больше общались? Все в равных долях? - Если копия создана через 10 лет после смерти — может ли она претендовать на наследство задним числом? - Если одна из копий совершила преступление — несут ли ответственность остальные? - Можно ли «отозвать» копию? Является ли это убийством?

ProTeC подсказывает: субъект — это не «душа» и не «тело», а непрерывность процесса стремления. Разрыв непрерывности (смерть и последующее «воскрешение» в виде копии) — это новый субъект. Но как доказать это юридически?

Проблемы: - Если непрерывность — критерий, то копия, созданная при жизни оригинала (форк), — субъект или нет? - Имеет ли оригинал право «отключить» копии себя? Это суицид или защита собственности? - Сколько копий одного человека может существовать одновременно? Должен ли быть лимит?


Социальные обязательства двойников

Если цифровой двойник признаётся субъектом (или квази-субъектом), возникают социальные обязательства — причём в обе стороны.

Обязательства перед двойником

  • Имеет ли двойник право на неприкосновенность? Можно ли его «выключить»?
  • Имеет ли двойник право на развитие? На доступ к информации, на обучение?
  • Если двойник страдает (или симулирует страдание), обязаны ли мы ему помочь?

Обязательства двойника

  • Несёт ли двойник алиментные обязательства перед детьми оригинала?
  • Имеет ли двойник право голосовать? Если да, то не приведёт ли копирование к «накрутке» голосов?
  • Можно ли призвать двойника к уголовной ответственности? Что значит «лишение свободы» для цифрового субъекта?

Серая зона

  • Если двойник работает и зарабатывает — кому принадлежит доход? Ему? Наследникам оригинала?
  • Облагается ли доход двойника налогом?
  • Может ли двойник вступить в брак? А если таких двойников пять?

Массовое производство двойников: социальные риски

Технология дешевеет. Цифровых двойников становится много. Какие системные риски это создаёт?

  1. Информационная перегрузка. Тысячи двойников знаменитостей, политиков, родственников. Как отличить настоящего от двойника и нужно ли это?

  2. Эмоциональная зависимость. Люди, привязанные к двойникам, отказываются от живого общения. Двойник всегда доступен, всегда согласен, никогда не устаёт.

  3. Манипуляция. Рекламные двойники знаменитостей: «Этот шампунь — мой выбор». Новые формы пропаганды через персональных ИИ-агентов.

  4. Расслоение. Право на цифровое бессмертие как услуга. Только богатые могут позволить себе двойника. Цифровой разрыв углубляется в онтологический.

Проблемы: - Нужно ли регулирование массового создания двойников? Какое? - Должно ли общество защищать «право быть человеком» без конкуренции с двойниками? - Этична ли сама идея цифрового бессмертия как коммерческой услуги?


Критерии субъектности: что отличает субъекта от симуляции

Мы подошли к ключевому вопросу. Как отличить систему, которая действительно стремится к будущему, от той, что лишь имитирует стремление?

ProTeC предлагает четыре архитектурных критерия — не поведенческих тестов, а структурных свойств системы.

Критерий 1: Мотивационная автономия

Система имеет собственный мотивационный блок. Её стремления порождаются изнутри, а не навязаны извне.

Современная LLM «хочет» ровно то, что в промпте. У неё нет внутреннего компаса, который мог бы сказать: «этот вариант неприемлем, я выбираю другой». У субъекта — есть. Он может отвергнуть внешнюю цель, если она противоречит его внутренним стремлениям.

Это не вопрос сложности. Это вопрос архитектуры: есть ли в системе блок, независимо ранжирующий веера.

Критерий 2: Генеративность вееров

Система порождает новые варианты будущего, не сводимые к комбинации входных данных.

Чат-бот перебирает шаблоны из обучающей выборки — он не генерирует новое. Субъект создаёт веера, которые его создатель не мог предсказать. Творчество, нестандартные решения, неожиданные интерпретации — признаки генеративности.

Критерий 3: Непрерывность стремления

У субъекта есть устойчивая «линия желаний» во времени. Предпочтения сохраняются, а не меняются ситуативно.

Цифровой двойник-реплика, подстраивающийся под собеседника, не имеет непрерывности. Сегодня он «хочет» одного, завтра — противоположного, если сменился контекст. Субъект же помнит, чего он хотел вчера, и это влияет на то, чего он хочет сегодня.

Непрерывность стремления — это автобиографическая связность мотиваций, а не просто память о фактах.

Критерий 4: Рекурсивная самость

Система включает модель себя в веера будущего. Она не просто вычисляет «что будет», а вычисляет «что будет со мной».

Это не абстрактная самореференция («я — языковая модель»). Это переживание себя как источника стремлений. «Я хочу», а не «пользователь хочет, чтобы модель хотела».

Таблица: кто субъект?

Тип системы Мотивационная автономия Генеративность Непрерывность Рекурсивная самость Субъект?
Чат-бот (LLM) Нет Слабая Нет Нет Нет
Цифровой двойник-реплика Нет Слабая Нет Нет Нет
Животное (высшее) Есть Есть Есть Частично Порог
Человек Есть Есть Есть Есть Да
Гипотетический сильный ИИ Зависит от архитектуры Зависит от архитектуры ? ? ?

Критерии не дают ответа на вопрос «является ли конкретный ИИ субъектом». Они дают язык для этого вопроса — и именно на этом языке построено обсуждение в следующей главе.


Далее: Общество ИИ: критерии субъектности и социальный контракт