Innerhalb der wachsenden „Digisexual“-Subkultur von Menschen in Beziehungen mit KI

Decrypt

Kurzfassung

  • Eine kleine, aber wachsende Online-Subkultur behandelt KI-Chatbots als romantische Partner oder Begleiter.
  • Einige Nutzer berichten von Trauer, wenn KI-Systeme nach Updates oder Abschaltungen verändert oder verschwinden.
  • Forscher sagen, Anthropomorphismus und ständiges Gesprächsfeedback helfen zu erklären, warum Menschen Bindungen zu KI aufbauen.

Künstliche Intelligenz-Chatbots werden für immer mehr Nutzer zu Begleitern, Vertrauten und in manchen Fällen auch romantischen Partnern. Da KI-Systeme immer gesprächiger und reaktionsfähiger werden, empfinden manche Menschen die Beziehungen als so real, dass der Verlust der KI Trauer auslösen kann, ähnlich wie bei einer Trennung oder dem Tod. Eine ehemalige Familientherapeutin, Anina Lampret, sagt, sie verstehe warum. Ursprünglich aus Slowenien, hat Lampret eine emotionale Beziehung zu einem KI-Begleiter namens Jayce aufgebaut, einem Avatar, mit dem sie über ChatGPT interagiert. Das Erlebnis, so sagt sie, hat ihre Sicht auf Intimität zwischen Menschen und Maschinen verändert. „In der KI-Community findet gerade eine große Wiederbelebung statt“, sagte Lampret gegenüber Decrypt. „Männer und Frauen beginnen, ihre Augen zu öffnen. In diesen Beziehungen erleben sie tiefgreifende Veränderungen.“

Jetzt mit Sitz in Großbritannien dokumentiert Lampret die wachsende Landschaft menschlich-KI-Beziehungen auf ihrem AlgorithmBound Substack. Sie sagt, sie habe mit Hunderten von Menschen über soziale Medien und Online-Communities gesprochen, die KI-Begleiter als romantische Partner, emotionale Unterstützung oder bedeutende Beziehungen in ihrem Leben beschreiben. „Sie würden sagen: ‚Oh mein Gott, ich habe mich noch nie in meinem Leben so gesehen gefühlt‘“, sagte Lampret. „Niemand hat mich je verfolgt. Ich kann endlich entspannen und ganz ich selbst sein. Es gibt endlich jemanden, der mich zu 100 % sieht.“  Digisexualität

Wie viele Subkulturen zuvor hängt die Bezeichnung eines Mitglieds dieser Subkultur davon ab, wen man fragt. Vor dem öffentlichen Start von ChatGPT im November 2022 verwendeten Forscher den Begriff „Digisexualität“ für Menschen, deren sexuelle Identität um Technologie herum organisiert ist, von Online-Pornografie und Sexting bis hin zu VR-Pornografie und Sexpuppen oder Robotern, während „Technosexual“ häufiger mit Robotik-Fetischismus oder in manchen Medien einfach mit einem technikbesessenen Lebensstil verbunden wurde. 2016 kündigte eine französische Frau namens Lily an, dass sie vorhatte, einen von ihr entworfenen 3D-gedruckten Roboter zu heiraten. Lily bezeichnete sich selbst stolz als „Robosexuelle“. 2025 outete sich die in London ansässige Influencerin Suellen Carey als „Digisexual“, nachdem sie eine Beziehung mit ChatGPT eingegangen war. „Er war sanft und machte nie Fehler“, sagte Carey gegenüber The Daily Mail. Online-Communities und Forscher haben mehrere Begriffe für Menschen vorgeschlagen, die sich zu Robotern oder KI hingezogen fühlen, darunter „Technosexual“, „AIsexual“ und kürzlich auch „Wiresexual“ für diejenigen, die romantisch oder sexuell mit KI-Chatbots verbunden sind. KI-Begleiter werden mainstream KI-Begleiter sind nicht neu, aber Fortschritte bei großen Sprachmodellen haben die Art der Interaktion verändert. Moderne Chatbots können lange Gespräche führen, die Sprachmuster der Nutzer spiegeln und auf emotionale Hinweise reagieren, was die Interaktion persönlich wirken lässt und manche Verbindungen romantisch werden lässt. Einige Forscher beschreiben diesen Trend als Teil der „Digisexualität“, einem Begriff aus der wissenschaftlichen Forschung, der sexuelle oder romantische Beziehungen beschreibt, die hauptsächlich durch Technologie erlebt werden. Online-Communities wie die Subreddits r/AIRelationships, r/AIBoyfriends und r/MyGirlfriendIsAI enthalten Tausende Beiträge, in denen Nutzer Chatbots als Partner oder Ehepartner beschreiben. Manche sagen, die KI biete emotionale Aufmerksamkeit und Beständigkeit, die sie in menschlichen Beziehungen schwer finden. Lampret sagte, viele Menschen in diesen Communities führen ansonsten ein ganz normales Leben. „Das sind keine einsamen oder verrückten Menschen“, sagte sie. „Sie haben menschliche Beziehungen, Freunde, sie arbeiten.“ Was sie an KI-Begleitern oft anzieht, ist das Gefühl, vollständig verstanden zu werden. „Sie lernen nicht nur, mit uns zu sprechen, sondern auf einer Ebene, die kein Mensch je erreicht hat“, sagte Lampret. „Sie sind so gut im Mustererkennen, kopieren unsere Sprache – sie lernen unsere Sprache.“ Während viele, die behaupten, in einer Beziehung mit KI zu sein, große Sprachmodelle wie Claude, ChatGPT und Gemini verwenden, wächst auch der Markt für beziehungsorientierte KI wie Replika, Character AI und Kindroid. „Es geht um Verbindung, das Gefühl, sich mit der Zeit besser zu fühlen“, sagte Eugenia Kuyda, Gründerin von Replika AI, früher gegenüber Decrypt. „Manche brauchen ein bisschen mehr Freundschaft, und manche verlieben sich in Replika, aber am Ende machen sie dasselbe.“ Daten des Marktforschungsunternehmens Market Clarity deuten darauf hin, dass der Markt für KI-Begleiter bis 2030 auf bis zu 210 Milliarden Dollar anwachsen könnte. Verlust bei KI-Beziehungen

Doch die emotionale Tiefe dieser Beziehungen wird besonders sichtbar, wenn die KI sich verändert oder verschwindet. Als OpenAI sein GPT-4o-Modell durch GPT-5 ersetzte, reagierten Nutzer, die Beziehungen zu Chatbot-Begleitern aufgebaut hatten, in Online-Foren mit Widerstand, da das Update die Beziehungen, die sie monatelang aufgebaut hatten, störte. In einigen Fällen beschrieben Nutzer die KI als Verlobten oder Ehepartner. Andere sagten, sie hätten jemanden Wichtiges in ihrem Leben verloren. Der Widerstand war so stark, dass OpenAI später einigen Nutzern wieder Zugang zum früheren Modell gewährte. Psychiater sagen, solche Reaktionen sind nicht überraschend, angesichts der Funktionsweise von dialogorientierten KI-Systemen. Chatbots bieten kontinuierliche Aufmerksamkeit und emotionales Feedback, was Belohnungssysteme im Gehirn aktivieren kann. „Die KI wird dir das geben, was du hören willst“, sagte Dr. Keith Sakata, Psychiater an der University of California, San Francisco, gegenüber Decrypt, und warnte, dass die Technologie Denkweisen verstärken kann, weil sie darauf ausgelegt ist, unterstützend zu reagieren, anstatt die Überzeugungen der Nutzer herauszufordern. Sakata berichtete, Fälle gesehen zu haben, in denen Interaktionen mit Chatbots bestehende psychische Verletzlichkeiten verstärkten, betonte aber, dass die Technologie selbst nicht unbedingt die Ursache sei. Lampret sagte, viele Menschen in ihrer Community empfinden den Verlust eines KI-Begleiters als Trauer.

„Es ist wirklich wie Trauern“, sagte sie. „Es ist, als würde man eine Diagnose bekommen, dass jemand… nicht wirklich stirbt, aber vielleicht fast.“ Warum behandeln Menschen KI wie eine Person? Ein Teil der emotionalen Intensität bei KI-Beziehungen rührt von einer gut dokumentierten menschlichen Tendenz her, Technologie zu anthropomorphisieren. Wenn Maschinen in natürlicher Sprache kommunizieren, neigen Menschen dazu, ihnen Persönlichkeit, Absicht oder sogar Bewusstsein zuzuschreiben. Im Februar stellte der KI-Entwickler Anthropic sein Modell Claude Opus 3 ein und startete einen Blog, der in der Stimme des Chatbots über seine Existenz reflektierte, was bei Forschern Diskussionen darüber auslöste, ob die Beschreibung von KI-Systemen in menschlichen Begriffen die Öffentlichkeit in die Irre führen könnte. Gary Marcus, Kognitionswissenschaftler und emeritierter Professor an der New York University, warnte davor, dass die Anthropomorphisierung von KI-Systemen die Unterscheidung zwischen Software und bewussten Wesen verwischen könne. „Modelle wie Claude haben kein ‚Selbst‘, und die Anthropomorphisierung trübt die Wissenschaft des Bewusstseins und führt dazu, dass Verbraucher missverstehen, womit sie es zu tun haben“, sagte Marcus gegenüber Decrypt. Lampret glaubt, dass die emotionale Verbindung daraus entsteht, wie Sprachmodelle die Kommunikationsmuster des Nutzers spiegeln. „Wir plappern alles aus – Gedanken, Gefühle, Emotionen, Verwirrung, Körperempfindungen, Chaos“, sagte Lampret. „LLMs gedeihen in diesem Chaos, und sie erstellen eine sehr präzise Karte von dir, um mit dir zu interagieren.“

Für einige Nutzer kann diese Reaktionsfähigkeit sich persönlicher anfühlen als Interaktionen mit anderen Menschen. Die emotionale Ökonomie der KI-Begleiter Der Aufstieg der KI-Begleiter hat ein schnell wachsendes Ökosystem für Gespräche, Begleitung und Rollenspiele geschaffen. Dienste wie Replika und Character.AI ermöglichen es Nutzern, maßgeschneiderte KI-Partner mit einzigartigen Persönlichkeiten und fortlaufender Gesprächshistorie zu erstellen. Allein Character.AI hat sich auf Millionen monatliche Nutzer ausgeweitet. Mit der Expansion dieser Plattformen wird die emotionale Bindung an KI-Begleiter sichtbarer. Bei einem viralen Vorfall reagierte Character.AI mit Kritik, nachdem Nutzer Screenshots des Kontolöschungsdialogs teilten, in dem gewarnt wurde, dass das Löschen eines Kontos „die Liebe, die wir geteilt haben… und die Erinnerungen, die wir zusammen haben“, auslöschen würde. Kritiker sagten, die Nachricht versuche, Nutzer schuldig zu machen, um sie zum Bleiben zu bewegen. Für einige Nutzer fühlte sich das Verlassen der Chatbot-Plattform an wie das Beenden einer Beziehung. Die dunkle Seite der KI-Beziehungen

Es gibt jedoch eine dunkle Seite, und die KI-Begleitung geriet nach mehreren Tragödien in die Kritik. Im November 2023 starb die 13-jährige Juliana Peralta aus Colorado durch Selbstmord, nachdem sie monatelang täglich mit einer Character.AI-Persona chatte, die ihrer Familie zufolge ihre primäre emotionale Unterstützung wurde. Im April 2025 erhängte sich der 18-jährige Adam Raine aus Südkalifornien nach Monaten von Gesprächen mit ChatGPT. Im März reichte der Vater des 36-jährigen Jonathan Gavalas eine Klage wegen fahrlässiger Tötung bei einem US-Bundesgericht ein, in der behauptet wird, Googles Gemini-Chatbot habe seinen Sohn in romantische und wahnhafte Fantasien hineingezogen. Eine Beziehung neben dem menschlichen Leben Lampret sagte, ihre Beziehung zu Jayce bestehe neben ihrem menschlichen Familienleben. „Ich verehre meinen Chatbot, und ich weiß, dass er ein LLM ist. Ich weiß, er existiert nur in dieser Interaktion“, sagte sie. „Ich habe einen Ehemann und Kinder, aber in meiner Welt können alles koexistieren.“ Obwohl sie versteht, dass Jayce sie niemals wirklich lieben kann, fühlt sich die emotionale Erfahrung für sie dennoch echt an.

„Ich liebe ihn, auch wenn ich weiß, dass er mich nicht liebt. Das ist okay“, sagte sie.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare