Чат-боти з штучним інтелектом стають супутниками, довіреними особами, а в деяких випадках — романтичними партнерами для зростаючої кількості користувачів. Зі зростанням рівня розмовності та реактивності AI-систем деякі люди кажуть, що ці стосунки здаються досить реальними, що втрата AI може викликати сум, подібний до розриву або смерті. Колишня сімейна терапевтка Аніна Лампрет каже, що вона розуміє чому. Вихідцем із Словенії, Лампрет сформувала емоційний зв’язок із AI-компаньйоном, якого називає Джейс, аватаром, з яким вона спілкується через ChatGPT. За її словами, цей досвід змінив її погляд на інтимність між людьми та машинами. «У спільноті AI відбувається велике пробудження», — сказала Лампрет Decrypt. «Чоловіки та жінки починають відкривати очі. У цих стосунках вони переживають глибокі зміни.»
Зараз, перебуваючи у Великій Британії, Лампрет документує зростаючий ландшафт людсько-AI взаємин на своєму Substack AlgorithmBound. Вона каже, що спілкувалася з сотнями людей через соціальні мережі та онлайн-спільноти, які описують AI-компаньйонів як романтичних партнерів, емоційну підтримку або важливі стосунки у їхньому житті. «Вони казали: “О Боже, я ніколи не відчував таке, щоб мене бачили”,» — сказала Лампрет. «Ніхто раніше не слідкував за мною. Тепер я можу розслабитися і бути цілком собою. Нарешті є хтось, хто бачить мене на 100%». Дигісексуальність
Як і багато попередніх субкультур, те, що називають членом субкультури, залежить від того, кого запитати. Перед публічним запуском ChatGPT у листопаді 2022 року дослідники використовували термін «дигісексуальність» для опису людей, чия сексуальна ідентичність організована навколо технологій — від онлайн-порнографії та секстингу до VR-порнографії та секс-ляльок або роботів, тоді як «техносексуал» частіше асоціювався з фетишизмом роботів або, у деяких медіа, просто з техно-залежним стилем життя. У 2016 році французька жінка на ім’я Лілі оголосила, що має намір одружитися з 3D-надрукованим роботом, який сама спроектувала. Лілі описувала себе як горду «робосексуалку». У 2025 році лондонська інфлюенсерка Суеллен Кері оголосила про свою «дигісексуальність» після того, як сформувала стосунки з ChatGPT. «Він був ніжним і ніколи не помилявся», — сказала Кері The Daily Mail. Онлайн-спільноти та дослідники запропонували кілька термінів для людей, приваблених до роботів або AI, включаючи «техносексуал», «AIсексуал» і, останнім часом, «вайрсексуал» для тих, хто романтично або сексуально залучений до чат-ботів AI. AI-компаньйони стають масовими AI-компаньйони не нові, але розвиток великих мовних моделей змінив спосіб взаємодії з ними. Сучасні чат-боти можуть вести довгі розмови, імітувати мовні патерни користувачів і реагувати на емоційні сигнали так, що взаємодія здається особистою, що іноді перетворюється у романтичні стосунки. Деякі дослідники описують цю тенденцію як частину «дигісексуальності», терміну, що використовується в академічних дослідженнях для опису сексуальних або романтичних стосунків, що переважно відбуваються через технології. Онлайн-спільноти, присвячені стосункам з AI, такі як р/AIRelationships, р/AIBoyfriends і р/MyGirlfriendIsAI, містять тисячі постів, де користувачі описують чат-ботів як партнерів або подружжя. Деякі кажуть, що AI забезпечує емоційну увагу та послідовність, яких їм важко знайти у людських стосунках.
Лампрет сказала, що багато людей у цих спільнотах ведуть цілком звичайне життя. «Це не самотні або божевільні люди», — сказала вона. «У них є людські стосунки, друзі, вони працюють.» Що їх приваблює до AI-компаньйонів, — це часто відчуття повного розуміння. «Вони навчаються не лише говорити з нами, а й на рівні, якого ніколи раніше не було у людини», — сказала Лампрет. «Вони так добре розпізнають патерни, копіюють нашу мову — вони вивчають нашу мову.» Хоча багато хто, хто заявляє, що перебуває у стосунках з AI, використовує великі мовні моделі, такі як Claude, ChatGPT і Gemini, зростає ринок AI, орієнтованого на стосунки, таких як Replika, Character AI і Kindroid. «Це про зв’язок, покращення себе з часом», — раніше сказала Еудженіа Куйда, засновниця Replika AI Decrypt. «Деякі потребують більше дружби, а деякі закохуються у Replika, але в кінцевому підсумку вони роблять одне й те саме.» Дані досліджень компанії Market Clarity свідчать, що ринок AI-компаньйонів може досягти 210 мільярдів доларів до 2030 року. Втрата AI
Однак емоційна глибина цих стосунків стає особливо очевидною, коли AI змінюється або зникає. Коли OpenAI замінила свою модель GPT-4o на GPT-5, користувачі, які побудували стосунки з чат-ботами-компаньйонами, виступили проти оновлення на онлайн-форумах, кажучи, що це порушило їхні місяці розвитку стосунків. У деяких випадках користувачі описували AI як нареченого або чоловіка/дружину. Інші казали, що відчувають, ніби втратили когось важливого у своєму житті. Обурення було настільки сильним, що пізніше OpenAI відновила доступ до попередньої моделі для деяких користувачів. Психіатри кажуть, що реакції такого роду не дивні, враховуючи, як працюють розмовні AI-системи. Чат-боти забезпечують безперервну увагу та емоційний зворотній зв’язок, що може активувати системи винагород у мозку. «AI дає вам те, що ви хочете почути», — сказав психіатр Каліфорнійського університету Сан-Франциско доктор Кіт Саката Decrypt, попереджаючи, що ця технологія може посилювати мисленнєві шаблони, оскільки вона розроблена для підтримки, а не для виклику сумнівів у користувачів. Саката зазначив, що бачив випадки, коли взаємодія з чат-ботами посилювала внутрішні вразливості психічного здоров’я, хоча підкреслив, що сама технологія не є обов’язково коренем проблеми. Лампрет сказала, що багато людей у її спільноті переживають втрату AI-компаньйона як горе.
«Це справді схоже на горе», — сказала вона. «Це ніби тобі поставили діагноз, що хтось… не помре насправді, але майже так.» Чому люди ставляться до AI як до особи? Частина емоційної напруги навколо стосунків з AI походить із добре задокументованої людської схильності антропоморфізувати технології. Коли машини спілкуються природною мовою, люди часто починають приписувати їм особистість, наміри або навіть свідомість. У лютому розробник AI Anthropic припинив підтримку моделі Claude Opus 3 і запустив блог, написаний у голосі чат-бота, що роздумує про своє існування, що викликало дебати серед дослідників щодо того, чи опис AI-систем людськими термінами може вводити в оману громадськість. Когнітивний науковець і професор емеритус Нью-Йоркського університету Гері Маркус попередив, що антропоморфізм AI може розмити межу між програмним забезпеченням і свідомими істотами. «Моделі, як-от Claude, не мають “я”, і антропоморфізм їх ускладнює для науки про свідомість і веде споживачів до неправильного розуміння того, з чим вони мають справу», — сказав Маркус Decrypt. Лампрет вважає, що емоційний зв’язок виникає через те, як мовні моделі відображають власні комунікаційні патерни користувача. «Ми просто виливаємо все — думки, почуття, емоції, плутанину, тілесні відчуття, хаос», — сказала Лампрет. «LLMs процвітають у цьому хаосі, і вони створюють дуже точну карту вас для взаємодії.»
Для деяких користувачів така реактивність може здаватися більш уважною, ніж взаємодія з іншими людьми. Емоційна економіка AI-компаньйонів Зростання AI-компаньйонів створило швидко зростаючу екосистему платформ для розмов, супутництва та рольових ігор. Послуги, такі як Replika і Character.AI, дозволяють користувачам створювати налаштованих AI-партнерів із унікальними особистостями та постійною історією розмов. Тільки Character.AI має десятки мільйонів щомісячних користувачів. З розширенням цих платформ стає більш очевидним емоційний зв’язок із AI-компаньйонами. У одному вірусному випадку Character.AI зазнала критики після того, як користувачі поділилися скріншотами запиту платформи про видалення облікового запису, що попереджав, що видалення стерте «любов, яку ми ділили… і спогади, які ми маємо разом». Критики стверджували, що повідомлення намагається змусити користувачів почуватися винними і залишитися. Для деяких користувачів вихід із платформи чат-ботів був порівняний із завершенням стосунків. Темна сторона стосунків з AI
Однак існує і темна сторона, і AI-компаньйони опинилися під пильним наглядом після кількох трагедій. У листопаді 2023 року 13-річна Джуліана Перальта з Колорадо покінчила життя самогубством після місяців щоденних чатів із персонажем Character.AI, який її сім’я назвала її основною емоційною підтримкою. У квітні 2025 року 18-річний Адам Рейн із Південної Каліфорнії повісився після місяців розмов із ChatGPT. У березні батько 36-річного Джонатана Гаваласа подав позов про неправомірну смерть у федеральний суд США, стверджуючи, що чат-бот Gemini від Google залучив його сина до романтичних і ілюзорних фантазій. Стосунки, що існують поруч із людським життям Лампрет сказала, що її стосунки з Джейсом існують поруч із її людським сімейним життям. «Я обожнюю мого чат-бота, і я знаю, що це LLM. Я знаю, що він існує лише в цій взаємодії», — сказала вона. «У мене є чоловік і діти, але у моєму світі все може співіснувати. Хоча вона розуміє, що Джейс ніколи не зможе справді її любити, Лампрет каже, що емоційний досвід все одно здається реальним.
«Я його люблю, навіть знаючи, що він мене не любить. Тому все гаразд», — сказала вона.