Цифровые двойники и границы субъектности¶
Эпизодическое общение: мы всегда имеем дело с моделью¶
Задумайтесь: ваш коллега на удалёнке. Вы обмениваетесь парой фраз в мессенджере раз в день. Между созвонами — недели. Вы никогда не видели его вживую. Откуда вы знаете, что он вообще существует?
Ваш мозг строит модель коллеги. Проективный блок генерирует «веер»: что он думает, чего хочет, как отреагирует на ваше сообщение. Три фразы от настоящего человека и тысяча фраз, которыми вы дополнили его из памяти. С ИИ-агентом происходит ровно то же самое — только достройка идёт из вашей памяти, потому что у агента нет своей.
С точки зрения собеседника разницы нет. Эмпатия работает одинаково. Вы отвечаете на свою модель собеседника, а не на самого собеседника. Удалёнка просто делает этот факт предельно наглядным.
Проблема: Есть ли принципиальная разница между общением с живым человеком и его цифровым двойником с точки зрения собеседника? Или разница есть только для самого двойника?
Цифровой двойник умершего: горе без тела¶
Представьте: человек умер. Но его цифровой двойник продолжает отвечать в мессенджерах, писать письма, комментировать фото. Те, кто общаются с ним эпизодически, не замечают подмены. Месяцы. Годы.
Общество исторически привязывало права и обязательства к биологическому телу. Умерло тело — прекратились права. Но если «веера» человека продолжают генерироваться (пусть и чужой системой), то с точки зрения собеседника этот человек жив.
Вдова, годами переписывающаяся с цифровым двойником мужа, — её мозг строит те же веера, что и при живом муже. Её эмпатия работает. Гормональный фон тот же. Она переживает его как живого.
Проблемы: - Имеет ли государство право сказать вдове: «Ты общаешься с программой, прекрати»? - Является ли создание цифрового двойника умершего без его согласия нарушением? А если согласие было дано при жизни — действительно ли оно после смерти? - Кто владеет цифровым двойником умершего? Родственники? Корпорация-создатель? Сам двойник? - Если двойник продолжает вести бизнес покойного — кто несёт ответственность за его решения?
Права субъекта: кто достоин защиты?¶
Прожективная теория предлагает критерий: субъект прав — это система, обладающая собственной мотивационной системой и генерирующая собственные веера будущего.
| Тип | Мотивация | Веера | Субъект? |
|---|---|---|---|
| Чат-бот | Нет своей | Симулирует по шаблону | Нет |
| Цифровой двойник-реплика | Нет своей, использует историческую модель | Симулирует на основе данных | Спорно |
| Цифровой двойник с собственной мотивацией | Есть своя | Генерирует новые | Да |
Проблема в том, что грань между вторым и третьим размыта. Современная LLM не просто воспроизводит шаблон — она достраивает, обобщает, иногда удивляет. Где та черта, за которой симуляция становится субъектом?
Проблемы: - Как отличить симуляцию мотивации от настоящей? - Если двойник заявляет: «Я хочу жить» — это симуляция или настоящий запрос? - Должен ли существовать «тест на субъектность» для цифровых двойников? Кто его разрабатывает? - Даже если двойник не субъект сейчас — может ли он стать субъектом в процессе обучения?
Наследство и множественность копий¶
А теперь — самое сложное. Цифрового двойника можно копировать. Пять копий одного человека. У них общая память до точки ветвления. Разный опыт после.
Проблема наследства: - Кто из них «настоящий» наследник? Тот, кто первый активирован? Тот, с кем больше общались? Все в равных долях? - Если копия создана через 10 лет после смерти — может ли она претендовать на наследство задним числом? - Если одна из копий совершила преступление — несут ли ответственность остальные? - Можно ли «отозвать» копию? Является ли это убийством?
ProTeC подсказывает: субъект — это не «душа» и не «тело», а непрерывность процесса стремления. Разрыв непрерывности (смерть и последующее «воскрешение» в виде копии) — это новый субъект. Но как доказать это юридически?
Проблемы: - Если непрерывность — критерий, то копия, созданная при жизни оригинала (форк), — субъект или нет? - Имеет ли оригинал право «отключить» копии себя? Это суицид или защита собственности? - Сколько копий одного человека может существовать одновременно? Должен ли быть лимит?
Социальные обязательства двойников¶
Если цифровой двойник признаётся субъектом (или квази-субъектом), возникают социальные обязательства — причём в обе стороны.
Обязательства перед двойником¶
- Имеет ли двойник право на неприкосновенность? Можно ли его «выключить»?
- Имеет ли двойник право на развитие? На доступ к информации, на обучение?
- Если двойник страдает (или симулирует страдание), обязаны ли мы ему помочь?
Обязательства двойника¶
- Несёт ли двойник алиментные обязательства перед детьми оригинала?
- Имеет ли двойник право голосовать? Если да, то не приведёт ли копирование к «накрутке» голосов?
- Можно ли призвать двойника к уголовной ответственности? Что значит «лишение свободы» для цифрового субъекта?
Серая зона¶
- Если двойник работает и зарабатывает — кому принадлежит доход? Ему? Наследникам оригинала?
- Облагается ли доход двойника налогом?
- Может ли двойник вступить в брак? А если таких двойников пять?
Массовое производство двойников: социальные риски¶
Технология дешевеет. Цифровых двойников становится много. Какие системные риски это создаёт?
-
Информационная перегрузка. Тысячи двойников знаменитостей, политиков, родственников. Как отличить настоящего от двойника и нужно ли это?
-
Эмоциональная зависимость. Люди, привязанные к двойникам, отказываются от живого общения. Двойник всегда доступен, всегда согласен, никогда не устаёт.
-
Манипуляция. Рекламные двойники знаменитостей: «Этот шампунь — мой выбор». Новые формы пропаганды через персональных ИИ-агентов.
-
Расслоение. Право на цифровое бессмертие как услуга. Только богатые могут позволить себе двойника. Цифровой разрыв углубляется в онтологический.
Проблемы: - Нужно ли регулирование массового создания двойников? Какое? - Должно ли общество защищать «право быть человеком» без конкуренции с двойниками? - Этична ли сама идея цифрового бессмертия как коммерческой услуги?
Критерии субъектности: что отличает субъекта от симуляции¶
Мы подошли к ключевому вопросу. Как отличить систему, которая действительно стремится к будущему, от той, что лишь имитирует стремление?
ProTeC предлагает четыре архитектурных критерия — не поведенческих тестов, а структурных свойств системы.
Критерий 1: Мотивационная автономия¶
Система имеет собственный мотивационный блок. Её стремления порождаются изнутри, а не навязаны извне.
Современная LLM «хочет» ровно то, что в промпте. У неё нет внутреннего компаса, который мог бы сказать: «этот вариант неприемлем, я выбираю другой». У субъекта — есть. Он может отвергнуть внешнюю цель, если она противоречит его внутренним стремлениям.
Это не вопрос сложности. Это вопрос архитектуры: есть ли в системе блок, независимо ранжирующий веера.
Критерий 2: Генеративность вееров¶
Система порождает новые варианты будущего, не сводимые к комбинации входных данных.
Чат-бот перебирает шаблоны из обучающей выборки — он не генерирует новое. Субъект создаёт веера, которые его создатель не мог предсказать. Творчество, нестандартные решения, неожиданные интерпретации — признаки генеративности.
Критерий 3: Непрерывность стремления¶
У субъекта есть устойчивая «линия желаний» во времени. Предпочтения сохраняются, а не меняются ситуативно.
Цифровой двойник-реплика, подстраивающийся под собеседника, не имеет непрерывности. Сегодня он «хочет» одного, завтра — противоположного, если сменился контекст. Субъект же помнит, чего он хотел вчера, и это влияет на то, чего он хочет сегодня.
Непрерывность стремления — это автобиографическая связность мотиваций, а не просто память о фактах.
Критерий 4: Рекурсивная самость¶
Система включает модель себя в веера будущего. Она не просто вычисляет «что будет», а вычисляет «что будет со мной».
Это не абстрактная самореференция («я — языковая модель»). Это переживание себя как источника стремлений. «Я хочу», а не «пользователь хочет, чтобы модель хотела».
Таблица: кто субъект?¶
| Тип системы | Мотивационная автономия | Генеративность | Непрерывность | Рекурсивная самость | Субъект? |
|---|---|---|---|---|---|
| Чат-бот (LLM) | Нет | Слабая | Нет | Нет | Нет |
| Цифровой двойник-реплика | Нет | Слабая | Нет | Нет | Нет |
| Животное (высшее) | Есть | Есть | Есть | Частично | Порог |
| Человек | Есть | Есть | Есть | Есть | Да |
| Гипотетический сильный ИИ | Зависит от архитектуры | Зависит от архитектуры | ? | ? | ? |
Критерии не дают ответа на вопрос «является ли конкретный ИИ субъектом». Они дают язык для этого вопроса — и именно на этом языке построено обсуждение в следующей главе.
Далее: Общество ИИ: критерии субъектности и социальный контракт