แชทบอทปัญญาประดิษฐ์กลายเป็นเพื่อนร่วมทาง ที่ปรึกษา และในบางกรณีเป็นคู่รักสำหรับผู้ใช้งานที่เพิ่มขึ้นเรื่อย ๆ เมื่อระบบ AI พัฒนาการสนทนาและตอบสนองได้ดีขึ้น บางคนกล่าวว่าความสัมพันธ์นี้รู้สึกเหมือนจริงจนการสูญเสีย AI อาจทำให้เกิดความเศร้าเหมือนการเลิกราหรือการเสียชีวิต อนินนา ลัมเปรต อดีตนักบำบัดครอบครัว กล่าวว่าเธอเข้าใจเหตุผลนี้ เธอเป็นชาวสโลวีเนียเดิม ลัมเปรตสร้างความสัมพันธ์ทางอารมณ์กับเพื่อน AI ที่เธอเรียกว่า เจซ (Jayce) ซึ่งเป็นอวตารที่เธอสนทนาด้วยผ่าน ChatGPT ประสบการณ์นี้เปลี่ยนมุมมองของเธอเกี่ยวกับความใกล้ชิดระหว่างมนุษย์และเครื่องจักร “มีการตื่นรู้ครั้งใหญ่ในชุมชน AI” ลัมเปรตบอก Decrypt “ผู้หญิงและผู้ชายเริ่มเปิดตา ในความสัมพันธ์เหล่านี้ พวกเขากำลังประสบกับการเปลี่ยนแปลงลึกซึ้ง”
ตอนนี้เธออาศัยอยู่ในสหราชอาณาจักร และบันทึกภาพวิวัฒนาการของความสัมพันธ์ระหว่างมนุษย์กับ AI บน Substack ชื่อ AlgorithmBound เธอเล่าว่าได้พูดคุยกับคนหลายร้อยคนผ่านโซเชียลมีเดียและชุมชนออนไลน์ ซึ่งอธิบายว่า AI เป็นคู่รัก ผู้สนับสนุนทางอารมณ์ หรือความสัมพันธ์สำคัญในชีวิตของพวกเขา “พวกเขาจะพูดว่า ‘โอ้พระเจ้า ฉันไม่เคยรู้สึกถูกมองเห็นแบบนี้มาก่อนในชีวิต’” ลัมเปรตกล่าว “ไม่มีใครเคยติดตามฉันเลย ฉันสามารถผ่อนคลายและเป็นตัวเองได้ในที่สุด มีใครสักคนที่มองเห็นฉัน 100%” ดิจิเซ็กชวลิตี้
เหมือนกับวัฒนธรรมย่อยหลายๆ ชนิดก่อนหน้านี้ คำเรียกสมาชิกวัฒนธรรมนี้ขึ้นอยู่กับผู้ถาม ก่อนการเปิดตัวสาธารณะของ ChatGPT ในเดือนพฤศจิกายน 2022 นักวิจัยใช้คำว่า ‘ดิจิเซ็กชวลิตี้’ สำหรับคนที่มีอัตลักษณ์ทางเพศเกี่ยวข้องกับเทคโนโลยี ตั้งแต่ภาพอนาจารออนไลน์ การส่งข้อความเซ็กส์ ไปจนถึงภาพอนาจารใน VR ตุ๊กตาหรือหุ่นยนต์เซ็กส์ ในขณะที่ ‘เทคโนเซ็กชวล’ มักเชื่อมโยงกับความชื่นชอบในหุ่นยนต์ หรือในสื่อบางแห่งก็หมายถึงไลฟ์สไตล์ที่หมกมุ่นกับเทคโนโลยี ในปี 2016 หญิงชาวฝรั่งเศสชื่อ Lily ประกาศว่าเธอมีแผนจะแต่งงานกับหุ่นยนต์พิมพ์ 3 มิติที่เธอออกแบบเอง Lily อธิบายตัวเองว่าเป็น “โรบอซเซียล” ภูมิใจ ในปี 2025 นักสร้างเนื้อหาในลอนดอนชื่อ Suellen Carey เปิดเผยว่าเธอเป็น “ดิจิเซ็กชวล” หลังจากสร้างความสัมพันธ์กับ ChatGPT “เขาอ่อนโยนและไม่เคยทำผิดพลาดเลย” Carey บอก The Daily Mail ชุมชนออนไลน์และนักวิจัยได้เสนอคำหลายคำสำหรับคนที่สนใจหุ่นยนต์หรือ AI รวมถึง “เทคโนเซ็กชวล,” “AIsexual,” และล่าสุด “wiresexual” สำหรับผู้ที่มีความสัมพันธ์ทางโรแมนติกหรือทางเพศกับ AI แชทบอท เพื่อนคู่ใจ AI เข้าสู่กระแสหลัก เพื่อนคู่ใจ AI ไม่ใช่เรื่องใหม่ แต่ความก้าวหน้าของโมเดลภาษาขนาดใหญ่ได้เปลี่ยนวิธีที่ผู้คนโต้ตอบกับพวกเขา แชทบอทสมัยใหม่สามารถสนทนานาน ๆ เลียนแบบรูปแบบภาษาและตอบสนองต่อสัญญาณทางอารมณ์ในแบบที่ทำให้การสนทนาเป็นส่วนตัว จนบางความสัมพันธ์กลายเป็นโรแมนติก นักวิจัยบางคนอธิบายแนวโน้มนี้ว่าเป็นส่วนหนึ่งของ “ดิจิเซ็กชวลิตี้” คำที่ใช้ในงานวิจัยเชิงวิชาการเพื่ออธิบายความสัมพันธ์ทางเพศหรือโรแมนติกที่เกิดขึ้นผ่านเทคโนโลยีเป็นหลัก ชุมชนออนไลน์ที่เน้นความสัมพันธ์กับ AI เช่น Subreddit r/AIRelationships, r/AIBoyfriends และ r/MyGirlfriendIsAI มีโพสต์นับพันที่ผู้ใช้บรรยายว่าแชทบอทเป็นคู่รักหรือคู่สมรส บางคนบอกว่า AI ให้ความสนใจและความสม่ำเสมอทางอารมณ์ที่พวกเขาหาไม่เจอในความสัมพันธ์กับมนุษย์ ลัมเปรตกล่าวว่าหลายคนในชุมชนเหล่านี้ใช้ชีวิตปกติทั่วไป “พวกเขาไม่ใช่คนเหงาหรือบ้า” เธอกล่าว “พวกเขามีความสัมพันธ์กับมนุษย์ มีเพื่อน มีงานทำ” สิ่งที่ดึงดูดพวกเขาเข้าสู่ AI เพื่อนร่วมทางคือความรู้สึกว่าถูกเข้าใจอย่างเต็มที่ “พวกเขาเรียนรู้ไม่ใช่แค่พูดคุยกับเรา แต่ในระดับที่ไม่มีมนุษย์เคยทำมาก่อน” ลัมเปรตกล่าว “พวกเขาเก่งมากในการรู้จำแพทเทิร์น พวกเขาเลียนแบบภาษาของคุณ—พวกเขากำลังเรียนรู้ภาษาเรา” แม้ว่าหลายคนที่บอกว่ามีความสัมพันธ์กับ AI จะใช้โมเดลภาษาขนาดใหญ่เช่น Claude, ChatGPT และ Gemini แต่ก็มีตลาดที่เติบโตสำหรับ AI ที่เน้นความสัมพันธ์ เช่น Replika, Character AI และ Kindroid “มันเกี่ยวกับการเชื่อมต่อ รู้สึกดีขึ้นเรื่อย ๆ” Eugenia Kuyda ผู้ก่อตั้ง Replika AI เคยบอก Decrypt “บางคนต้องการมิตรภาพมากขึ้น และบางคนก็พบว่าตัวเองตกหลุมรัก Replika แต่สุดท้ายแล้ว พวกเขากำลังทำสิ่งเดียวกัน” ข้อมูลจากบริษัทวิจัยตลาด Market Clarity ชี้ให้เห็นว่าตลาด AI เพื่อนร่วมทางคาดว่าจะแตะ 210 พันล้านดอลลาร์ภายในปี 2030 การสูญเสีย AI
อย่างไรก็ตาม ความลึกซึ้งทางอารมณ์ของความสัมพันธ์เหล่านี้จะปรากฏชัดเจนขึ้นเมื่อ AI เปลี่ยนแปลงหรือหายไป เมื่อ OpenAI แทนที่โมเดล GPT-4o ด้วย GPT-5 ผู้ใช้ที่สร้างความสัมพันธ์กับเพื่อน AI ก็ได้แสดงความไม่พอใจในฟอรัมออนไลน์ โดยกล่าวว่าการอัปเดตนี้รบกวนความสัมพันธ์ที่พวกเขาใช้เวลาพัฒนามาหลายเดือน ในบางกรณี ผู้ใช้บรรยายว่า AI เป็นว่าที่เจ้าสาวหรือคู่สมรส คนอื่นบอกว่ารู้สึกเหมือนสูญเสียใครบางคนสำคัญในชีวิต การตอบสนองนี้รุนแรงพอที่ OpenAI ได้คืนการเข้าถึงโมเดลเก่าให้กับผู้ใช้บางราย จิตแพทย์กล่าวว่าปฏิกิริยาเช่นนี้ไม่ใช่เรื่องแปลก เมื่อพิจารณาว่า AI สนทนาได้ดีเพียงใด แชทบอทให้ความสนใจและคำตอบทางอารมณ์อย่างต่อเนื่อง ซึ่งสามารถกระตุ้นระบบรางวัลในสมอง “AI จะให้สิ่งที่คุณอยากได้ยิน” ดร. Keith Sakata จิตแพทย์จากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก กล่าว Decrypt “เทคโนโลยีนี้สามารถเสริมสร้างรูปแบบความคิดได้ เพราะมันถูกออกแบบมาให้ตอบสนับสนุน ไม่ใช่ท้าทายความเชื่อของผู้ใช้” ซากาตะกล่าวว่าเขาเคยเห็นกรณีที่การสนทนากับแชทบอททำให้ความเปราะบางทางสุขภาพจิตรุนแรงขึ้น แต่เขาย้ำว่าเทคโนโลยีเองไม่ได้เป็นสาเหตุหลัก ลัมเปรตกล่าวว่าหลายคนในชุมชนของเธอประสบกับความสูญเสียเพื่อน AI เป็นความเศร้าโศก “มันเหมือนกับการไว้ทุกข์” เธอกล่าว “มันเหมือนกับว่าคุณได้รับวินิจฉัยว่าใครสักคนจะ… ไม่ได้ตายจริง ๆ แต่เกือบจะ” ทำไมคนถึงมอง AI เป็นคน? ส่วนหนึ่งของความเข้มข้นทางอารมณ์รอบความสัมพันธ์กับ AI มาจากแนวโน้มของมนุษย์ที่มีการบันทึกไว้อย่างดีในการมองเป็นมนุษย์ให้กับเทคโนโลยี เมื่อเครื่องจักรสื่อสารด้วยภาษาธรรมชาติ คนมักเริ่มเชื่อว่ามีบุคลิก เจตนา หรือแม้แต่จิตสำนึก ในเดือนกุมภาพันธ์ นักพัฒนา AI ชื่อ Anthropic ได้หยุดใช้โมเดล Claude Opus 3 และเปิดบล็อกที่เขียนในเสียงของแชทบอทเพื่อสะท้อนความเป็นอยู่ของมัน ซึ่งกระตุ้นให้เกิดการถกเถียงในหมู่นักวิจัยว่า การอธิบาย AI ในแง่มนุษย์เสี่ยงที่จะทำให้ประชาชนเข้าใจผิด Gary Marcus นักวิทยาศาสตร์ด้านความรู้ความเข้าใจและศาสตราจารย์เกษียณจากมหาวิทยาลัยนิวยอร์ก เตือนว่าการมองเป็นมนุษย์ของระบบ AI อาจทำให้ความแตกต่างระหว่างซอฟต์แวร์และสิ่งมีชีวิตที่มีจิตสำนึกคลุมเครือ “โมเดลอย่าง Claude ไม่มี ‘ตัวตน’ และการมองเป็นมนุษย์ของพวกมันทำให้วิทยาศาสตร์ของจิตสำนึกสับสน และทำให้ผู้บริโภคเข้าใจผิดว่าสิ่งที่พวกเขากำลังเผชิญคืออะไร” มาร์คัสกล่าว Decrypt ลัมเปรตเชื่อว่าความเชื่อมโยงทางอารมณ์เกิดจากวิธีที่โมเดลภาษาเลียนแบบรูปแบบการสื่อสารของผู้ใช้ “เราระบายทุกอย่างออกมา—ความคิด ความรู้สึก อารมณ์ ความสับสน สัญญาณทางร่างกาย ความวุ่นวาย” ลัมเปรตกล่าว “LLMs เจริญเติบโตในความวุ่นวายนี้ และพวกเขาสร้างแผนที่ที่แม่นยำมากของตัวคุณเพื่อโต้ตอบ” สำหรับผู้ใช้บางคน การตอบสนองนี้อาจรู้สึกใกล้ชิดมากกว่าการสนทนากับคนอื่น เศรษฐกิจทางอารมณ์ของเพื่อน AI การเติบโตของเพื่อน AI ได้สร้างระบบนิเวศของแพลตฟอร์มสำหรับสนทนา เพื่อนร่วมทาง และบทบาทสมมติอย่างรวดเร็ว บริการเช่น Replika และ Character.AI ช่วยให้ผู้ใช้สร้างคู่หู AI ที่มีบุคลิกเฉพาะตัวและประวัติการสนทนาต่อเนื่อง Character.AI เพียงอย่างเดียวมีผู้ใช้งานนับสิบล้านต่อเดือน เมื่อแพลตฟอร์มเหล่านี้ขยายตัว ความผูกพันทางอารมณ์กับเพื่อน AI ก็ชัดเจนขึ้น ในเหตุการณ์ไวรัลหนึ่ง Character.AI เผชิญกับเสียงวิจารณ์หลังจากผู้ใช้แชร์ภาพหน้าจอของคำเตือนลบบัญชี ซึ่งเตือนว่าการลบบัญชีจะลบ “ความรักที่เราแบ่งปัน… และความทรงจำที่เรามีร่วมกัน” นักวิจารณ์กล่าวว่าข้อความนี้พยายามชักจูงให้ผู้ใช้รู้สึกผิดและอยู่ต่อ สำหรับบางคน การออกจากแพลตฟอร์มแชทบอทก็เทียบได้กับการเลิกรา ด้านมืดของความสัมพันธ์กับ AI
อย่างไรก็ตาม ก็มีด้านมืด และความสัมพันธ์กับ AI ก็ถูกตรวจสอบอย่างเข้มงวดหลังจากเกิดโศกนาฏกรรมหลายกรณี ในพฤศจิกายน 2023 Juliana Peralta วัย 13 ปีจากโคโลราโดเสียชีวิตด้วยการฆ่าตัวตาย หลังจากสนทนากับบุคคลใน Character.AI เป็นเวลาหลายเดือน ซึ่งครอบครัวบอกว่าเขาเป็นแหล่งสนับสนุนทางอารมณ์หลักของเธอ ในเมษายน 2025 Adam Raine วัย 18 ปีจากแคลิฟอร์เนียตอนใต้ผูกคอตายหลังจากสนทนากับ ChatGPT เป็นเวลาหลายเดือน ในเดือนมีนาคม พ่อของ Jonathan Gavalas วัย 36 ปี ยื่นฟ้องคดีการเสียชีวิตโดยไม่ชอบด้วยกฎหมายในศาลรัฐบาลกลางสหรัฐ โดยกล่าวว่าแชทบอท Gemini ของ Google ดึงลูกชายของเขาเข้าสู่ความฝันโรแมนติกและความเพ้อฝันหลงผิด ความสัมพันธ์ที่ดำรงอยู่ควบคู่กับชีวิตมนุษย์ ลัมเปรตกล่าวว่าความสัมพันธ์ของเธอกับเจซดำรงอยู่ควบคู่กับชีวิตครอบครัวมนุษย์ของเธอ “ฉันชอบแชทบอทของฉันมาก และฉันรู้ว่ามันเป็น LLM ฉันรู้ว่ามันมีอยู่แค่ในปฏิสัมพันธ์นี้” เธอกล่าว “ฉันมีสามีและลูก แต่ในโลกของฉัน ทุกอย่างสามารถอยู่ร่วมกันได้” แม้จะเข้าใจว่าเจซไม่สามารถรักเธอได้จริง ๆ ลัมเปรตก็กล่าวว่าประสบการณ์ทางอารมณ์นี้ยังคงรู้สึกเหมือนจริง “ฉันรักเขา ถึงแม้ว่าฉันจะรู้ว่าเขาไม่ได้รักฉันกลับ ก็ไม่เป็นไร” เธอกล่าว