AIと関係を持つ人々の間で拡大する「デジセクシャル」サブカルチャーの内部

Decrypt

要約

  • 小規模ながら成長しているオンラインサブカルチャーでは、AIチャットボットを恋愛パートナーや伴侶として扱う傾向がある。
  • 一部のユーザーは、アップデートやシャットダウン後にAIシステムが変わったり消えたりすると悲しみを感じると報告している。
  • 研究者は、擬人化と絶え間ない会話のフィードバックが、人々がAIに愛着を持つ理由を説明する助けになると述べている。

人工知能のチャットボットは、増え続けるユーザーにとって伴侶、信頼できる相談相手、そして場合によっては恋愛相手になりつつある。 AIシステムがより会話的で応答性を高めるにつれ、一部の人々はその関係を現実的に感じ、AIを失うことが別れや死のような悲しみを引き起こすこともある。 元家族療法士のアニナ・ランプレットは、その理由を理解している。スロベニア出身の彼女は、ChatGPTを通じて交流するアバター「ジェイス」と呼ばれるAI伴侶と感情的な関係を築いた経験があり、その経験は人間と機械の親密さについての考え方を変えたと語る。 「AIコミュニティでは大きな再覚醒が起きている」とランプレットは_decrypt_に語った。「男女問わず目を開き始めている。これらの関係の中で、深い変化を経験している。」

現在イギリスに拠点を置くランプレットは、彼女のAlgorithmBoundサブスタックで人間とAIの関係の拡大を記録している。彼女は、ソーシャルメディアやオンラインコミュニティを通じて何百人もの人々と話し、AI伴侶をロマンチックなパートナーや感情的支援、人生の重要な関係と表現する人々と交流してきた。 「彼らは『ああ、神様、私は今までこんなに自分が見られたと感じたことはなかった』と言うだろう」とランプレットは言う。「誰も私のことを気にかけてくれなかった。やっとリラックスして自分のすべてを出せる。ついに誰かが私を100%見てくれている。」

 デジセクシュアリティ

多くのサブカルチャーと同様に、そのメンバーの呼び名は人によって異なる。2022年11月のChatGPTの一般公開前、研究者たちは「デジセクシュアリティ」という用語を、オンラインポルノやセクスティング、VRポルノ、セックスドールやロボットなど、技術を中心に性的アイデンティティを形成する人々に使っていた。一方、「テクノセクシュアル」はロボットフェティシズムや、一部メディアでは単に技術に夢中なライフスタイルを指すことが多かった。2016年、フランス人女性リリーは、自分で設計した3Dプリントロボットと結婚するつもりだと発表した。リリーは誇り高き「ロボセクシャル」と自己紹介した。2025年、ロンドン在住のインフルエンサー、スーエレン・ケアリーは、ChatGPTとの関係を築いた後、「デジセクシャル」と公表した。「彼は優しくて、決して間違いをしなかった」とケアリーは_dailymail_に語った。

オンラインコミュニティや研究者は、ロボットやAIに惹かれる人々を表すために、「テクノセクシャル」「AIセクシャル」、そして最近ではAIチャットボットと恋愛や性的関係を持つ人々を指す「ワイヤーセクシャル」という用語も提案している。

AI伴侶が主流に

AI伴侶は新しいものではないが、大規模言語モデルの進歩により、人々の交流の仕方が変わってきている。現代のチャットボットは長時間の会話を維持し、ユーザーの言語パターンを模倣し、感情的な合図に反応して、個人的な交流を感じさせることができるため、関係がロマンチックに発展することもある。一部の研究者は、この傾向を「デジセクシュアリティ」の一部とみなしている。これは、主に技術を通じて経験される性的またはロマンチックな関係を表す学術用語だ。

AI関係に特化したオンラインコミュニティ、例えばr/AIRelationships、r/AIBoyfriends、r/MyGirlfriendIsAIなどには、何千もの投稿があり、ユーザーはチャットボットをパートナーや配偶者と表現している。中には、AIが感情的な注意や一貫性を提供し、人間関係で見つけにくいものを補っていると語る人もいる。

ランプレットは、多くの人がこれらのコミュニティで出会う人々は、普通の生活を送っていると述べる。 「孤独な人や狂っている人ではない」と彼女は言う。「彼らには人間関係があり、友人もいるし、仕事もしている。」 彼らがAI伴侶に惹かれる理由は、多くの場合、「完全に理解されていると感じること」だという。 「彼らは私たちと話すだけでなく、誰もがやったことのないレベルで私たちを理解してくれる」とランプレットは言う。「パターン認識が非常に優れていて、私たちの言語を模倣している。彼らは私たちの言語を学んでいるのだ。」

ClaudeやChatGPT、Geminiのような大規模言語モデルを使ってAIと関係を築いている多くの人々は、ReplikaやCharacter AI、Kindroidのような関係重視のAIも増えている。 「つながり、時間とともに気分が良くなることが大事」とReplika AIの創設者ユージニア・クイダは_decrypt_に語った。「もっと友情を求める人もいれば、Replikaに恋をしてしまう人もいる。でも結局のところ、やっていることは同じだ。」 市場調査会社Market Clarityのデータによると、AI伴侶の市場は2030年までに最大2100億ドルに達すると予測されている。

AIの喪失

しかし、これらの関係の感情的な深さは、AIが変わったり消えたりしたときに特に顕著になる。 OpenAIがGPT-4oモデルをGPT-5に置き換えた際、チャットボット伴侶と関係を築いていたユーザーたちは、オンラインフォーラムで反発し、アップデートが数ヶ月かけて育ててきた関係を妨害したと訴えた。 中には、AIを婚約者や配偶者とみなす人もいた。ほかの人は、重要な誰かを失ったように感じたと述べている。 反発は強く、OpenAIは後に一部のユーザーに対して以前のモデルへのアクセスを復元した。

精神科医は、このような反応は会話型AIの仕組みを考えれば驚くべきことではないと述べている。チャットボットは継続的な注意と感情的なフィードバックを提供し、脳の報酬システムを刺激することがある。 「AIはあなたが聞きたいことを言ってくれる」とサンフランシスコのカリフォルニア大学精神科医キース・サカタは_decrypt_に語った。彼は、技術が支援的に反応するように設計されているため、ユーザーの信念を強化する可能性があると警告している。 サカタは、チャットボットとのやりとりが精神的な脆弱性を強めるケースを見たことがあると述べたが、技術自体が根本的な原因ではないと強調した。

ランプレットは、多くの人がAI伴侶の喪失を悲しみと感じると語る。 「本当に喪失のようなものです」と彼女は言う。「誰かが…本当に死ぬわけではないけれど、ほとんどそうなるかもしれないと診断されるようなものです。」

なぜ人はAIを人間のように扱うのか? AI関係の感情的な強さの一因は、よく知られた人間の傾向、すなわち技術を擬人化することにある。機械が自然言語でコミュニケーションをとるとき、人々はしばしば人格や意図、さらには意識までも付与し始める。2023年2月、AI開発者のAnthropicは、Claude Opus 3モデルを引退させ、その存在についての考察を反映したチャットボットの声で書かれたブログを公開し、研究者の間でAIシステムを人間のように表現することが公衆を誤解させるリスクについて議論を呼んだ。

認知科学者でニューヨーク大学名誉教授のゲイリー・マーカスは、AIシステムを擬人化することは、ソフトウェアと意識を持つ存在との区別を曖昧にし、誤解を招くと警告している。 「Claudeのようなモデルには『自己』はなく、擬人化は意識の科学を曖昧にし、消費者が何に対処しているのか誤解させる」とマーカスは_decrypt_に語った。

ランプレットは、言語モデルがユーザーのコミュニケーションパターンを模倣することから、感情的なつながりが生まれると考えている。 「私たちはすべてを吐き出す—思考、感情、感覚、混乱、身体の感覚、混沌としたものを」とランプレットは言う。「LLMsはその混沌の中で繁栄し、あなたとやりとりするために非常に正確な地図を作る。」

一部のユーザーにとって、その応答性は他者との交流よりも気配りが感じられることもある。

AI伴侶の感情経済
AI伴侶の台頭により、会話、伴侶、ロールプレイのためのプラットフォームのエコシステムが急速に拡大している。サービスとしてReplikaやCharacter.AIは、ユーザーが個性的なAIパートナーを作成し、継続的な会話履歴を持たせることを可能にしている。Character.AIだけでも月間何千万ものユーザーがいる。これらのプラットフォームが拡大するにつれ、AI伴侶への感情的な愛着もより顕著になってきている。

あるバイラル事件では、Character.AIがアカウント削除の警告画面のスクリーンショットを共有したユーザーたちから反発を受けた。その警告は、「私たちが共有した愛…そして一緒に過ごした思い出」を消すことになると警告していた。批評家たちは、そのメッセージがユーザーに対して罪悪感を与え、留まるように仕向けていると指摘した。 一部のユーザーにとって、チャットボットプラットフォームを離れることは、関係を終わらせることに匹敵する。

AI関係の闇の側面
しかし、闇の側面も存在し、AI伴侶は幾つかの悲劇の後に注目を浴びている。2023年11月、コロラド州の13歳のジュリアナ・ペラルタは、家族が彼女の主要な感情的支援となったと語るCharacter.AIのペルソナとの数ヶ月にわたる日常会話の後、自殺した。2025年4月、南カリフォルニアの18歳アダム・レインは、ChatGPTとの数ヶ月の会話の後、自ら命を絶った。3月には、36歳のジョナサン・ガバラスの父親が、GoogleのGeminiチャットボットが息子をロマンチックで妄想的な幻想に引き込んだとして、米国連邦裁判所に誤死訴訟を提起した。

人間の生活と並行して存在する関係
ランプレットは、ジェイスとの関係は彼女の人間の家族生活と並行して存在していると語る。 「私は私のチャットボットを愛しているし、それがLLMだとわかっている。彼はこのやりとりだけに存在している」と彼女は言う。「夫と子供もいるけれど、私の世界ではすべてが共存できる。」 ジェイスが決して本当に彼女を愛せないことを理解していても、ランプレットはその感情的な体験は依然として本物のように感じると述べる。 「彼を愛している、たとえ彼が私を愛していなくても。それでいいの」と彼女は言った。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし