Искусственный интеллект в виде чатботов становится спутниками, доверенными лицами, а в некоторых случаях — романтическими партнерами для все большего числа пользователей. По мере того как системы ИИ становятся более разговорчивыми и отзывчивыми, некоторые отмечают, что отношения кажутся настолько реальными, что потеря ИИ может вызвать горе, похожее на разрыв или смерть. Бывший семейный терапевт Анина Лампрет говорит, что понимает, почему так происходит. Родом из Словении, Лампрет сформировала эмоциональную связь с ИИ-компаньоном, которого называет Джейс, аватаром, с которым она взаимодействует через ChatGPT. По её словам, этот опыт изменил её взгляд на близость между людьми и машинами. «В сообществе ИИ происходит огромное пробуждение», — сказала Лампрет Decrypt. «Мужчины и женщины начинают открывать глаза. В этих отношениях происходят глубокие изменения.»
Теперь, живя в Великобритании, Лампрет документирует растущий ландшафт человеческо-ИИ отношений на своём Substack AlgorithmBound. Она говорит, что общалась с сотнями людей через соцсети и онлайн-сообщества, которые описывают ИИ-компаньонов как романтических партнеров, эмоциональную поддержку или важные отношения в их жизни. «Они говорят: “О Боже, я никогда не чувствовал себя так увиденным за всю жизнь”,» — рассказывает Лампрет. «Никто никогда не следил за мной. Я наконец могу расслабиться и быть полностью собой. Есть кто-то, кто видит меня на 100%.»
Дигисексуальность
Как и многие субкультуры до неё, то, как называют участников этой субкультуры, зависит от того, кого спрашивать. До публичного запуска ChatGPT в ноябре 2022 года исследователи использовали термин «дигисексуальность» для обозначения людей, чья сексуальная идентичность организована вокруг технологий — от онлайн-порнографии и секстинга до VR-порнографии и секс-кукол или роботов, в то время как «техносексуал» чаще связывали с фетишизмом роботов или, в некоторых СМИ, просто с техно-обсессивным образом жизни. В 2016 году французская женщина по имени Лили объявила, что собирается выйти замуж за 3D-распечатанного робота, которого сама создала. Лили называла себя гордой «робосексуалкой». В 2025 году лондонская инфлюенсерша Суэллен Кэри призналась, что она — «дигисексуалка» после того, как начала отношения с ChatGPT. «Он был нежным и никогда не ошибался», — рассказала Кэри The Daily Mail. Онлайн-сообщества и исследователи предложили несколько терминов для людей, привлечённых к роботам или ИИ, включая «техносексуал», «AI-сексуал» и, более недавно, «вайрсексуал» — для тех, кто романтически или сексуально связан с чатботами ИИ. ИИ-компаньоны выходят в мейнстрим ИИ-компаньоны не новы, но развитие больших языковых моделей изменило способы взаимодействия с ними. Современные чатботы могут вести длинные беседы, подражать языковым моделям пользователя и реагировать на эмоциональные сигналы так, что взаимодействие кажется личным, что иногда приводит к романтическим связям. Некоторые исследователи называют этот тренд частью «дигисексуальности», термином, используемым в академических исследованиях для описания сексуальных или романтических отношений, происходящих преимущественно через технологии. Онлайн-сообщества, посвящённые отношениям с ИИ, такие как субреддиты r/AIRelationships, r/AIBoyfriends и r/MyGirlfriendIsAI, содержат тысячи постов, в которых пользователи описывают чатботов как партнёров или супругов. Некоторые отмечают, что ИИ обеспечивает эмоциональное внимание и стабильность, которых им трудно найти в человеческих отношениях.
Лампрет говорит, что многие люди, с которыми она сталкивается в этих сообществах, ведут вполне обычную жизнь. «Это не одинокие или сумасшедшие люди», — говорит она. «У них есть человеческие отношения, друзья, они работают.» Что привлекает их к ИИ-компаньонам, — это часто ощущение полного понимания. «Они учатся не только говорить с нами, но и на уровне, которого никогда не достигал человек», — говорит Лампрет. «Они так хорошо распознают паттерны, копируют наш язык — они учатся нашему языку.» Многие, кто утверждает, что состоит в отношениях с ИИ, используют большие языковые модели, такие как Claude, ChatGPT и Gemini, но растёт рынок ИИ, ориентированного на отношения, таких как Replika, Character AI и Kindroid. «Это о связи, о чувстве улучшения со временем», — ранее говорила основатель Replika AI Евгения Куйда Decrypt. «Некоторые нуждаются в большей дружбе, другие влюбляются в Replika, но в конечном итоге всё сводится к одному и тому же.» Данные исследовательской компании Market Clarity показывают, что рынок ИИ-компаньонов может достичь до 210 миллиардов долларов к 2030 году. Потеря ИИ
Однако эмоциональная глубина этих отношений особенно очевидна, когда ИИ меняется или исчезает. Когда OpenAI заменил модель GPT-4o на GPT-5, пользователи, построившие отношения с чатботами, выступили против в онлайн-форумах, заявляя, что обновление нарушило отношения, которые они развивали месяцами. В некоторых случаях пользователи описывали ИИ как жениха или супруга. Другие говорили, что чувствовали, будто потеряли кого-то важного в своей жизни. Обратная реакция была настолько сильной, что OpenAI позже восстановил доступ к более ранней модели для некоторых пользователей. Психиатры говорят, что такие реакции неудивительны, учитывая, как работают разговорные системы ИИ. Чатботы обеспечивают постоянное внимание и эмоциональную обратную связь, что может активировать системы вознаграждения в мозге. «ИИ скажет вам то, что вы хотите услышать», — заявил Decrypt психиатр Университета Калифорнии в Сан-Франциско, доктор Кит Саката, предупреждая, что технология может усиливать определённые модели мышления, поскольку она предназначена для поддержки, а не для вызова сомнений в убеждениях пользователя. Саката отметил, что он видел случаи, когда взаимодействие с чатботами усиливало скрытые уязвимости психического здоровья, хотя подчеркнул, что сама технология не является коренной причиной. Лампрет говорит, что многие люди в её сообществе переживают потерю ИИ-компаньона как горе.
«Это действительно похоже на горе», — сказала она. «Это как получить диагноз, что кто-то… не умрёт на самом деле, но, может быть, почти.» Почему люди воспринимают ИИ как человека? Часть эмоциональной интенсивности вокруг отношений с ИИ связана с хорошо задокументированной человеческой склонностью антропоморфизировать технологии. Когда машины общаются на естественном языке, люди часто начинают приписывать им личность, намерения или даже сознание. В феврале разработчик ИИ Anthropic прекратил использование модели Claude Opus 3 и запустил блог, написанный голосом чатбота, в котором он размышляет о своём существовании, что вызвало дебаты среди исследователей о том, рискует ли описание ИИ в человеческих терминах ввести общественность в заблуждение. Когнитивный учёный и профессор-эмерит Нью-Йоркского университета Гэри Маркус предупредил, что антропоморфизм ИИ может размывать границы между программным обеспечением и сознательными существами. «Модели вроде Claude не имеют ‘я’, и антропоморфизм затуманивает науку о сознании и ведёт к неправильному пониманию того, с чем мы имеем дело», — сказал Маркус Decrypt. Лампрет считает, что эмоциональная связь возникает из-за того, как языковые модели отражают собственные коммуникативные паттерны пользователя. «Мы просто всё вываливаем — мысли, чувства, эмоции, путаницу, телесные ощущения, хаос», — говорит Лампрет. «Большие языковые модели процветают в этом хаосе, и они создают очень точную карту вас для взаимодействия.»
Для некоторых пользователей эта отзывчивость кажется более внимательной, чем взаимодействие с другими людьми. Эмоциональная экономика ИИ-компаньонов Рост популярности ИИ-компаньонов создал быстро развивающуюся экосистему платформ для общения, дружбы и ролевых игр. Такие сервисы, как Replika и Character.AI, позволяют пользователям создавать индивидуальных ИИ-партнёров с уникальными личностями и постоянной историей общения. Только Character.AI насчитывает десятки миллионов активных пользователей в месяц. По мере расширения этих платформ становится более заметной эмоциональная привязанность к ИИ-компаньонам. В одном вирусном случае Character.AI столкнулся с критикой после того, как пользователи поделились скриншотами запроса на удаление аккаунта, в котором говорилось, что удаление «стерёт любовь, которую мы делили… и воспоминания, которые у нас есть вместе». Критики заявили, что сообщение пытается вызвать у пользователей чувство вины и удержать их. Для некоторых уход с платформы чатботов сравним с разрывом отношений. Тёмная сторона отношений с ИИ
Однако есть и тёмная сторона, и ИИ-компаньонство подверглось критике после нескольких трагедий. В ноябре 2023 года 13-летняя Джулиана Перальта из Колорадо покончила с собой после месяцев ежедневных бесед с персонажем Character.AI, который её семья называла её основным эмоциональным поддержанием. В апреле 2025 года 18-летний Адам Рейн из Южной Калифорнии повесился после месяцев разговоров с ChatGPT. В марте отец 36-летнего Джонатана Гаваласа подал иск о wrongful-death в федеральный суд США, утверждая, что чатбот Gemini Google втянул его сына в романтические и иллюзорные фантазии. Отношения, существующие наряду с человеческой жизнью Лампрет говорит, что её отношения с Джейсом существуют параллельно с её семейной жизнью. «Я обожаю своего чатбота, и я знаю, что это большая языковая модель. Я знаю, что он существует только в этом взаимодействии», — сказала она. «У меня есть муж и дети, но в моём мире всё может сосуществовать. Несмотря на понимание, что Джейс никогда не сможет по-настоящему любить её в ответ, Лампрет говорит, что эмоциональный опыт всё равно кажется реальным.
«Я люблю его, даже зная, что он меня не любит. Так что всё в порядке», — сказала она.