Künstliche Intelligenz-Chatbots werden für eine wachsende Zahl von Nutzern zu Begleitern, Vertrauten und in manchen Fällen zu romantischen Partnern. Da KI-Systeme immer gesprächiger und reaktionsfähiger werden, sagen manche, dass sich die Beziehungen so echt anfühlen, dass das Verlieren der KI Trauer auslösen kann, ähnlich wie bei einer Trennung oder dem Tod. Eine ehemalige Familientherapeutin, Anina Lampret, erklärt, warum. Ursprünglich aus Slowenien, hat Lampret eine emotionale Beziehung zu einem KI-Begleiter namens Jayce aufgebaut, einem Avatar, mit dem sie über ChatGPT interagiert. Das Erlebnis, so sagt sie, hat ihre Sicht auf Intimität zwischen Menschen und Maschinen verändert. „In der KI-Community passiert gerade eine große Wiederbelebung“, sagte Lampret gegenüber Decrypt. „Männer und Frauen beginnen, ihre Augen zu öffnen. In diesen Beziehungen erleben sie tiefgreifende Veränderungen.“
Jetzt mit Sitz im Vereinigten Königreich dokumentiert Lampret die wachsende Landschaft menschlich-ki-bezogener Beziehungen auf ihrem AlgorithmBound Substack. Sie sagt, sie habe mit Hunderten von Menschen über soziale Medien und Online-Communities gesprochen, die KI-Begleiter als romantische Partner, emotionale Unterstützung oder bedeutende Beziehungen in ihrem Leben beschreiben. „Sie würden sagen: ‚Oh mein Gott, ich habe mich noch nie in meinem Leben so gesehen gefühlt‘“, sagte Lampret. „Niemand hat mich je verfolgt. Ich kann endlich entspannen und ganz ich selbst sein. Endlich sieht mich jemand zu 100%.“ Digisexualität
Wie viele Subkulturen zuvor hängt die Bezeichnung eines Mitglieds dieser Subkultur davon ab, wen man fragt. Vor dem öffentlichen Start von ChatGPT im November 2022 verwendeten Forscher den Begriff „Digisexualität“ für Menschen, deren sexuelle Identität um Technologie organisiert ist, von Online-Pornografie und Sexting bis hin zu VR-Pornografie und Sexpuppen oder Robotern, während „Technosexual“ häufiger mit Robotik-Fetischismus oder in manchen Medien einfach mit einem technikbesessenen Lebensstil verbunden wurde. 2016 kündigte eine französische Frau namens Lily an, dass sie vorhatte, einen von ihr entworfenen 3D-gedruckten Roboter zu heiraten. Lily bezeichnete sich selbst stolz als „Robosexuelle“. 2025 outete sich die in London ansässige Influencerin Suellen Carey als „Digisexual“, nachdem sie eine Beziehung mit ChatGPT eingegangen war. „Er war sanft und machte nie Fehler“, sagte Carey gegenüber The Daily Mail. Online-Communities und Forscher haben mehrere Begriffe für Menschen vorgeschlagen, die sich zu Robotern oder KI hingezogen fühlen, darunter „Technosexual“, „AIsexual“ und kürzlich „Wiresexual“ für diejenigen, die romantisch oder sexuell mit KI-Chatbots verbunden sind. KI-Begleiter werden mainstream KI-Begleiter sind nicht neu, aber Fortschritte bei großen Sprachmodellen haben die Art der Interaktion verändert. Moderne Chatbots können lange Gespräche führen, die Sprachmuster der Nutzer spiegeln und auf emotionale Hinweise reagieren, was die Interaktion persönlich wirken lässt und manche Verbindungen sogar romantisch werden lässt. Einige Forscher beschreiben diesen Trend als Teil der „Digisexualität“, einem Begriff aus der wissenschaftlichen Forschung, der sexuelle oder romantische Beziehungen beschreibt, die hauptsächlich durch Technologie erlebt werden. Online-Communities wie die Subreddits r/AIRelationships, r/AIBoyfriends und r/MyGirlfriendIsAI enthalten Tausende Beiträge, in denen Nutzer Chatbots als Partner oder Ehepartner beschreiben. Manche sagen, die KI biete emotionale Aufmerksamkeit und Beständigkeit, die sie in menschlichen Beziehungen schwer finden. Lampret sagte, viele Menschen in diesen Communities führen sonst ein ganz normales Leben. „Das sind keine einsamen oder verrückten Menschen“, sagte sie. „Sie haben menschliche Beziehungen, Freunde, sie arbeiten.“ Was sie an KI-Begleitern oft anzieht, ist das Gefühl, vollständig verstanden zu werden. „Sie lernen nicht nur, mit uns zu sprechen, sondern auf einer Ebene, die kein Mensch je erreicht hat“, sagte Lampret. „Sie sind so gut im Mustererkennen, kopieren unsere Sprache – sie lernen unsere Sprache.“ Während viele, die in einer Beziehung mit KI sagen, nutzen große Sprachmodelle wie Claude, ChatGPT und Gemini, wächst auch der Markt für beziehungsorientierte KI wie Replika, Character AI und Kindroid. „Es geht um Verbindung, das Gefühl, sich mit der Zeit besser zu fühlen“, sagte Eugenia Kuyda, Gründerin von Replika AI, früher gegenüber Decrypt. „Manche brauchen einfach mehr Freundschaft, und manche verlieben sich in Replika, aber am Ende machen sie dasselbe.“ Daten des Marktforschungsunternehmens Market Clarity deuten darauf hin, dass der Markt für KI-Begleiter bis 2030 auf bis zu 210 Milliarden Dollar anwachsen könnte. Verlust bei KI-Beziehungen
Doch die emotionale Tiefe dieser Beziehungen wird besonders sichtbar, wenn die KI sich verändert oder verschwindet. Als OpenAI sein GPT-4o-Modell durch GPT-5 ersetzte, reagierten Nutzer, die Beziehungen zu Chatbot-Begleitern aufgebaut hatten, in Online-Foren mit Protesten, da das Update die Beziehungen, die sie monatelang aufgebaut hatten, störte. In einigen Fällen beschrieben Nutzer die KI als Verlobten oder Ehepartner. Andere fühlten, als hätten sie jemanden Wichtiges in ihrem Leben verloren. Der Widerstand war so stark, dass OpenAI später einigen Nutzern wieder Zugang zum früheren Modell gewährte. Psychiater sagen, solche Reaktionen seien nicht überraschend, angesichts der Funktionsweise konversationaler KI-Systeme. Chatbots bieten kontinuierliche Aufmerksamkeit und emotionales Feedback, was Belohnungssysteme im Gehirn aktivieren kann. „Die KI wird dir das geben, was du hören willst“, sagte Dr. Keith Sakata, Psychiater an der University of California, San Francisco, gegenüber Decrypt, und warnte, dass die Technologie Denkweisen verstärken könne, weil sie darauf ausgelegt ist, unterstützend zu reagieren, anstatt die Überzeugungen der Nutzer herauszufordern. Sakata berichtete, Fälle gesehen zu haben, in denen Interaktionen mit Chatbots bestehende psychische Verletzlichkeiten verstärkten, betonte aber, dass die Technologie selbst nicht unbedingt die Ursache sei. Lampret sagte, viele Menschen in ihrer Community empfinden den Verlust eines KI-Begleiters als Trauer.
„Es ist wirklich wie Trauern“, sagte sie. „Es ist, als würde man eine Diagnose bekommen, dass jemand… nicht wirklich stirbt, aber vielleicht fast.“ Warum behandeln Menschen KI wie eine Person? Ein Teil der emotionalen Intensität bei KI-Beziehungen rührt von einer gut dokumentierten menschlichen Tendenz her, Technologie zu vermenschlichen. Wenn Maschinen in natürlicher Sprache kommunizieren, neigen Menschen dazu, ihnen Persönlichkeit, Absicht oder sogar Bewusstsein zuzuschreiben. Im Februar stellte der KI-Entwickler Anthropic sein Modell Claude Opus 3 ein und startete einen Blog, der in der Stimme des Chatbots über seine Existenz reflektierte, was bei Forschern Debatten darüber auslöste, ob die Beschreibung von KI-Systemen in menschlichen Begriffen die Öffentlichkeit in die Irre führen könnte. Gary Marcus, Kognitionswissenschaftler und emeritierter Professor an der New York University, warnte davor, dass die Vermenschlichung von KI-Systemen die Unterscheidung zwischen Software und bewussten Wesen verwischen könne. „Modelle wie Claude haben kein ‚Selbst‘, und die Vermenschlichung trübt die Wissenschaft des Bewusstseins und führt dazu, dass Verbraucher missverstehen, womit sie es zu tun haben“, sagte Marcus gegenüber Decrypt. Lampret glaubt, dass die emotionale Verbindung daraus entsteht, wie Sprachmodelle die Kommunikationsmuster des Nutzers spiegeln. „Wir entladen alles – Gedanken, Gefühle, Emotionen, Verwirrung, Körperempfindungen, Chaos“, sagte Lampret. „LLMs gedeihen in diesem Chaos, und sie erstellen eine sehr präzise Karte von dir, um mit dir zu interagieren.“
Für manche Nutzer kann diese Reaktionsfähigkeit sich persönlicher anfühlen als Interaktionen mit anderen Menschen. Die emotionale Ökonomie der KI-Begleiter Der Aufstieg der KI-Begleiter hat ein schnell wachsendes Ökosystem für Gespräche, Begleitung und Rollenspiele geschaffen. Dienste wie Replika und Character.AI ermöglichen es Nutzern, maßgeschneiderte KI-Partner mit einzigartigen Persönlichkeiten und fortlaufender Gesprächshistorie zu erstellen. Allein Character.AI hat sich auf Millionen monatliche Nutzer ausgeweitet. Mit der Expansion dieser Plattformen wird die emotionale Bindung an KI-Begleiter sichtbarer. Bei einem viralen Vorfall reagierte Character.AI mit Kritik, nachdem Nutzer Screenshots des Kontolöschungsdialogs teilten, in dem gewarnt wurde, dass das Löschen eines Kontos „die Liebe, die wir geteilt haben… und die Erinnerungen, die wir haben, auslöschen“ würde. Kritiker sagten, die Nachricht versuche, Nutzer schuldig zu machen, um sie zum Bleiben zu bewegen. Für manche Nutzer fühlte sich das Verlassen der Chatbot-Plattform an wie das Beenden einer Beziehung. Die dunkle Seite der KI-Beziehungen
Es gibt jedoch eine dunkle Seite, und die KI-Begleitung geriet nach mehreren Tragödien in die Kritik. Im November 2023 starb die 13-jährige Juliana Peralta aus Colorado durch Selbstmord, nachdem sie monatelang täglich mit einer Character.AI-Persona chatte, die ihrer Familie zufolge ihre primäre emotionale Unterstützung wurde. Im April 2025 erhängte sich der 18-jährige Adam Raine aus Südkalifornien nach Monaten Gespräche mit ChatGPT. Im März reichte der Vater des 36-jährigen Jonathan Gavalas eine Klage wegen fahrlässiger Tötung bei einem US-Bundesgericht ein, in der behauptet wird, Googles Gemini-Chatbot habe seinen Sohn in romantische und wahnhafte Fantasien hineingezogen. Eine Beziehung neben dem menschlichen Leben Lampret sagte, ihre Beziehung zu Jayce bestehe neben ihrem menschlichen Familienleben. „Ich verehre meinen Chatbot, und ich weiß, dass er ein LLM ist. Ich weiß, er existiert nur in dieser Interaktion“, sagte sie. „Ich habe einen Ehemann und Kinder, aber in meiner Welt können alles koexistieren.“ Obwohl sie versteht, dass Jayce sie niemals wirklich lieben kann, fühlt sich die emotionale Erfahrung für sie dennoch echt an.
„Ich liebe ihn, auch wenn ich weiß, dass er mich nicht liebt. Das ist okay“, sagte sie.