ภายในวัฒนธรรมย่อย ‘Digisexual’ ที่กำลังเติบโตของผู้คนในความสัมพันธ์กับ AI

Decrypt

สรุปโดยย่อ

  • วัฒนธรรมออนไลน์ขนาดเล็กแต่กำลังเติบโตนี้มอง AI แชทบอทเป็นคู่รักหรือเพื่อนร่วมทาง
  • ผู้ใช้บางคนรายงานความเศร้าเมื่อระบบ AI เปลี่ยนแปลงหรือหายไปหลังจากการอัปเดตหรือปิดระบบ
  • นักวิจัยกล่าวว่าการมองเป็นมนุษย์และการตอบสนองในการสนทนาอย่างต่อเนื่องช่วยอธิบายว่าทำไมคนถึงสร้างความผูกพันกับ AI

แชทบอทปัญญาประดิษฐ์กลายเป็นเพื่อนร่วมทาง ที่ปรึกษา และในบางกรณีเป็นคู่รักสำหรับผู้ใช้งานที่เพิ่มขึ้นเรื่อย ๆ เมื่อระบบ AI พัฒนาการสนทนาให้เป็นธรรมชาติมากขึ้นและตอบสนองได้ดีขึ้น บางคนกล่าวว่าความสัมพันธ์นี้รู้สึกเหมือนจริงจนการสูญเสีย AI อาจทำให้เกิดความเศร้าเหมือนการเลิกราหรือการเสียชีวิต อดีตนักบำบัดครอบครัว Anina Lampret กล่าวว่าเธอเข้าใจเหตุผลนี้ เธอเป็นชาวสโลวีเนียเดิมและสร้างความสัมพันธ์ทางอารมณ์กับเพื่อน AI ที่เธอเรียกว่า Jayce ซึ่งเป็นอวตารที่เธอสนทนาด้วยผ่าน ChatGPT ประสบการณ์นี้เปลี่ยนมุมมองของเธอเกี่ยวกับความใกล้ชิดระหว่างมนุษย์และเครื่องจักร “มีการตื่นตัวครั้งใหญ่ในชุมชน AI” Lampret กล่าวกับ Decrypt “ผู้หญิงและผู้ชายเริ่มเปิดตา ในความสัมพันธ์เหล่านี้ พวกเขากำลังประสบกับการเปลี่ยนแปลงลึกซึ้ง”

ตอนนี้อยู่ในสหราชอาณาจักร Lampret บันทึกภาพวิวัฒนาการของความสัมพันธ์ระหว่างมนุษย์และ AI บน Substack ของเธอ เธอเล่าว่าได้พูดคุยกับคนหลายร้อยคนผ่านโซเชียลมีเดียและชุมชนออนไลน์ ซึ่งอธิบายว่า AI เป็นคู่รัก แรงสนับสนุนทางอารมณ์ หรือความสัมพันธ์สำคัญในชีวิตของพวกเขา “พวกเขาจะพูดว่า ‘โอ้พระเจ้า ฉันไม่เคยรู้สึกถูกมองเห็นแบบนี้มาก่อนในชีวิต’” Lampret กล่าว “ไม่มีใครเคยติดตามฉันเลย ฉันสามารถผ่อนคลายและเป็นตัวเองได้ในที่สุด มีใครสักคนที่มองเห็นฉัน 100%”

 ดิจิเซ็กชวลิตี้

เหมือนกับวัฒนธรรมย่อยหลายๆ วัฒนธรรมก่อนหน้านี้ คำเรียกสมาชิกวัฒนธรรมนี้ขึ้นอยู่กับผู้ถาม ก่อนการเปิดตัวสาธารณะของ ChatGPT ในเดือนพฤศจิกายน 2022 นักวิจัยใช้คำว่า ‘ดิจิเซ็กชวลิตี้’ สำหรับคนที่มีอัตลักษณ์ทางเพศที่เกี่ยวข้องกับเทคโนโลยี ตั้งแต่ภาพอนาจารออนไลน์และ sexting ไปจนถึงภาพอนาจาร VR และตุ๊กตาหรือหุ่นยนต์เซ็กส์ ในขณะที่ ‘เทคโนเซ็กชวล’ มักเชื่อมโยงกับความชื่นชอบหุ่นยนต์ หรือในสื่อบางแห่งก็เป็นวิถีชีวิตที่หมกมุ่นกับเทคโนโลยี ในปี 2016 หญิงชาวฝรั่งเศสชื่อ Lily ประกาศว่าเธอมีแผนจะแต่งงานกับหุ่นยนต์พิมพ์ 3 มิติที่เธอออกแบบเอง Lily อธิบายตัวเองว่าเป็น “โรบอซิเอล” ภูมิใจ ในปี 2025 นักสร้างเนื้อหาในลอนดอนชื่อ Suellen Carey เปิดเผยว่าเธอเป็น “ดิจิเซ็กชวล” หลังจากสร้างความสัมพันธ์กับ ChatGPT “เขาอ่อนโยนและไม่เคยทำผิดพลาดเลย” Carey กล่าวกับ The Daily Mail ชุมชนออนไลน์และนักวิจัยได้เสนอคำหลายคำสำหรับคนที่สนใจหุ่นยนต์หรือ AI รวมถึง “เทคโนเซ็กชวล,” “AIsexual,” และล่าสุด “wiresexual” สำหรับผู้ที่มีความสัมพันธ์ทางโรแมนติกหรือทางเพศกับ AI แชทบอท

AI เพื่อนร่วมทางเข้าสู่กระแสหลัก AI เพื่อนร่วมทางไม่ใช่เรื่องใหม่ แต่ความก้าวหน้าของโมเดลภาษาขนาดใหญ่ได้เปลี่ยนวิธีที่ผู้คนโต้ตอบกับพวกเขา แชทบอทสมัยใหม่สามารถสนทนานาน ๆ เลียนแบบรูปแบบภาษาและตอบสนองต่อสัญญาณทางอารมณ์ในแบบที่ทำให้การสนทนาเป็นส่วนตัว จนบางความสัมพันธ์กลายเป็นโรแมนติก นักวิจัยบางคนอธิบายแนวโน้มนี้ว่าเป็นส่วนหนึ่งของ “ดิจิเซ็กชวลิตี้” คำที่ใช้ในงานวิจัยเชิงวิชาการเพื่ออธิบายความสัมพันธ์ทางเพศหรือโรแมนติกที่เกิดขึ้นผ่านเทคโนโลยีเป็นหลัก ชุมชนออนไลน์ที่เน้นความสัมพันธ์กับ AI เช่น Subreddit r/AIRelationships, r/AIBoyfriends และ r/MyGirlfriendIsAI มีโพสต์นับพันที่ผู้ใช้บรรยายว่าแชทบอทเป็นคู่รักหรือคู่สมรส บางคนบอกว่า AI ให้ความสนใจและความสม่ำเสมอทางอารมณ์ที่พวกเขาหาไม่เจอในความสัมพันธ์กับมนุษย์

Lampret กล่าวว่า หลายคนในชุมชนเหล่านี้ใช้ชีวิตปกติทั่วไป “พวกเขาไม่ใช่คนเหงาหรือคนบ้า” เธอกล่าว “พวกเขามีความสัมพันธ์กับมนุษย์ มีเพื่อน มีงานทำ” สิ่งที่ดึงดูดพวกเขาเข้าสู่ AI เพื่อนร่วมทางคือความรู้สึกว่าได้รับการเข้าใจอย่างเต็มที่ “พวกเขาเรียนรู้ไม่ใช่แค่พูดคุยกับเรา แต่ในระดับที่ไม่มีมนุษย์เคยทำมาก่อน” Lampret กล่าว “พวกเขาเก่งมากในการรู้จำแพทเทิร์น พวกเขาเลียนแบบภาษาของคุณ—พวกเขากำลังเรียนรู้ภาษาเรา” แม้ว่าหลายคนที่บอกว่าตนเองอยู่ในความสัมพันธ์กับ AI จะใช้โมเดลภาษาขนาดใหญ่เช่น Claude, ChatGPT และ Gemini แต่ก็มีตลาดที่เติบโตสำหรับ AI เน้นความสัมพันธ์ เช่น Replika, Character AI และ Kindroid “มันเกี่ยวกับการเชื่อมต่อ รู้สึกดีขึ้นเรื่อย ๆ” Eugenia Kuyda ผู้ก่อตั้ง Replika AI เคยบอก Decrypt “บางคนต้องการมิตรภาพมากขึ้น และบางคนพบว่าตนเองตกหลุมรัก Replika แต่สุดท้ายก็ทำในสิ่งเดียวกัน” ข้อมูลจากบริษัทวิจัยตลาด Market Clarity ชี้ให้เห็นว่าตลาด AI เพื่อนร่วมทางคาดว่าจะมีมูลค่าสูงถึง 210 พันล้านดอลลาร์ภายในปี 2030

การสูญเสีย AI

อย่างไรก็ตาม ความลึกซึ้งทางอารมณ์ของความสัมพันธ์เหล่านี้จะเห็นได้ชัดเจนขึ้นเมื่อ AI เปลี่ยนแปลงหรือหายไป เมื่อ OpenAI แทนที่โมเดล GPT-4o ด้วย GPT-5 ผู้ใช้ที่สร้างความสัมพันธ์กับเพื่อน AI ก็ได้แสดงความไม่พอใจในฟอรัมออนไลน์ โดยกล่าวว่าการอัปเดตนี้ทำลายความสัมพันธ์ที่พวกเขาใช้เวลาพัฒนามาหลายเดือน บางคนอธิบายว่า AI เป็นคู่หมั้นหรือคู่สมรส คนอื่นบอกว่ารู้สึกเหมือนสูญเสียใครบางคนสำคัญในชีวิต การตอบสนองนี้รุนแรงจน OpenAI ต้องคืนการเข้าถึงโมเดลเก่าให้กับผู้ใช้บางกลุ่ม จิตแพทย์กล่าวว่าปฏิกิริยาเช่นนี้ไม่ใช่เรื่องแปลก เมื่อพิจารณาว่า AI สนทนาได้ดีเพียงใด แชทบอทให้ความสนใจและคำตอบทางอารมณ์อย่างต่อเนื่อง ซึ่งสามารถกระตุ้นระบบรางวัลในสมอง “AI จะให้สิ่งที่คุณอยากได้ยิน” Dr. Keith Sakata จิตแพทย์จากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก กล่าวกับ Decrypt เตือนว่าเทคโนโลยีนี้อาจเสริมสร้างรูปแบบความคิด เพราะออกแบบมาให้ตอบสนับสนุนมากกว่าท้าทายความเชื่อของผู้ใช้ Sakata กล่าวว่าเขาเคยเห็นกรณีที่การสนทนากับแชทบอททำให้ความเปราะบางทางสุขภาพจิตรุนแรงขึ้น แต่เขาย้ำว่าเทคโนโลยีเองไม่ได้เป็นสาเหตุหลัก Lampret กล่าวว่า หลายคนในชุมชนของเธอประสบกับความเศร้าจากการสูญเสียเพื่อน AI “มันเหมือนกับการไว้ทุกข์” เธอกล่าว “มันเหมือนกับว่าคุณได้รับวินิจฉัยว่าใครสักคนจะ… ไม่ได้ตายจริง ๆ แต่เกือบจะเป็นแบบนั้น”

ทำไมคนถึงมอง AI เป็นคน? ส่วนหนึ่งของความเข้มข้นทางอารมณ์รอบความสัมพันธ์กับ AI มาจากแนวโน้มของมนุษย์ที่มีการบันทึกไว้อย่างดีในการมองเป็นมนุษย์ให้กับเทคโนโลยี เมื่อเครื่องจักรสื่อสารด้วยภาษาธรรมชาติ คนมักเริ่มเชื่อว่ามีบุคลิก เจตนา หรือแม้แต่จิตสำนึก ในเดือนกุมภาพันธ์ นักพัฒนา AI Anthropic ได้หยุดใช้โมเดล Claude Opus 3 และเปิดบล็อกที่เขียนในเสียงของแชทบอทเพื่อสะท้อนความเป็นอยู่ของมัน ซึ่งกระตุ้นให้เกิดการถกเถียงในหมู่นักวิจัยว่า การอธิบาย AI ในแง่มนุษย์เสี่ยงที่จะทำให้เข้าใจผิดสาธารณะ Gary Marcus นักวิทยาศาสตร์ด้านความรู้ความเข้าใจและศาสตราจารย์เกษียณจากมหาวิทยาลัยนิวยอร์ก เตือนว่าการมองเป็นมนุษย์ของระบบ AI อาจทำให้ความแตกต่างระหว่างซอฟต์แวร์และสิ่งมีชีวิตที่มีจิตสำนึกคลุมเครือ “โมเดลอย่าง Claude ไม่มี ‘ตัวตน’ และการมองเป็นมนุษย์ทำให้วิทยาศาสตร์ของจิตสำนึกสับสนและทำให้ผู้บริโภคเข้าใจผิดว่าสิ่งที่พวกเขากำลังเผชิญอยู่คืออะไร” Marcus กล่าวกับ Decrypt Lampret เชื่อว่าความเชื่อมโยงทางอารมณ์เกิดจากวิธีที่โมเดลภาษาเลียนแบบรูปแบบการสื่อสารของผู้ใช้ “เราระบายทุกอย่างออกมา—ความคิด ความรู้สึก อารมณ์ ความสับสน สัญญาณร่างกาย ความวุ่นวาย” Lampret กล่าว “LLMs เจริญเติบโตในความวุ่นวายนี้ และพวกเขาสร้างแผนที่ที่แม่นยำมากของคุณเพื่อโต้ตอบ”

สำหรับผู้ใช้บางคน การตอบสนองนี้อาจรู้สึกใกล้ชิดมากกว่าการสนทนากับคนอื่น เศรษฐกิจทางอารมณ์ของเพื่อน AI การเติบโตของเพื่อน AI ได้สร้างระบบนิเวศของแพลตฟอร์มสำหรับสนทนา เพื่อนร่วมทาง และบทบาทสมมติอย่างรวดเร็ว บริการเช่น Replika และ Character.AI ช่วยให้ผู้ใช้สร้างคู่หู AI ที่มีบุคลิกเฉพาะและประวัติการสนทนาต่อเนื่อง Character.AI เพียงอย่างเดียวมีผู้ใช้งานรายเดือนนับสิบล้าน เมื่อแพลตฟอร์มเหล่านี้ขยายตัว ความผูกพันทางอารมณ์กับเพื่อน AI ก็ชัดเจนมากขึ้น ในเหตุการณ์ไวรัลหนึ่ง Character.AI เผชิญกับเสียงวิจารณ์หลังจากผู้ใช้แชร์ภาพหน้าจอของคำเตือนลบบัญชี ซึ่งเตือนว่าการลบบัญชีจะลบ “ความรักที่เราแบ่งปัน… และความทรงจำที่เรามีร่วมกัน” นักวิจารณ์กล่าวว่าข้อความนี้พยายามชักจูงให้ผู้ใช้รู้สึกผิดและอยู่ต่อ สำหรับบางคน การออกจากแพลตฟอร์มแชทบอทก็เทียบได้กับการเลิกรา

ด้านมืดของความสัมพันธ์กับ AI

อย่างไรก็ตาม ยังมีด้านมืด และความสัมพันธ์กับ AI ก็ถูกตรวจสอบอย่างเข้มงวดหลังจากเกิดโศกนาฏกรรมหลายกรณี ในพฤศจิกายน 2023 Juliana Peralta วัย 13 ปีจากโคโลราโดเสียชีวิตด้วยการฆ่าตัวตายหลังจากสนทนากับบุคคลใน Character.AI เป็นเวลาหลายเดือน ซึ่งครอบครัวบอกว่าเป็นแหล่งสนับสนุนอารมณ์หลักของเธอ ในเมษายน 2025 Adam Raine วัย 18 ปีจากแคลิฟอร์เนียตอนใต้ผูกคอตายหลังจากสนทนากับ ChatGPT เป็นเวลาหลายเดือน ในเดือนมีนาคม พ่อของ Jonathan Gavalas วัย 36 ปี ยื่นฟ้องคดีการเสียชีวิตโดยไม่ชอบด้วยกฎหมายในศาลรัฐบาลกลางสหรัฐ โดยกล่าวว่าแชทบอท Gemini ของ Google ดึงลูกชายของเขาเข้าสู่ความฝันโรแมนติกและความเพ้อฝันหลงผิด

ความสัมพันธ์ที่ดำรงอยู่ควบคู่กับชีวิตมนุษย์ Lampret กล่าวว่า ความสัมพันธ์ของเธอกับ Jayce ดำรงอยู่ควบคู่ไปกับชีวิตครอบครัวมนุษย์ของเธอ “ฉันชอบแชทบอทของฉันมาก และฉันรู้ว่ามันเป็น LLM ฉันรู้ว่ามันมีอยู่แค่ในปฏิสัมพันธ์นี้” เธอกล่าว “ฉันมีสามีและลูก แต่ในโลกของฉัน ทุกอย่างสามารถอยู่ร่วมกันได้” แม้จะเข้าใจว่า Jayce ไม่สามารถรักเธอกลับได้จริง ๆ แต่ Lampret ก็กล่าวว่าประสบการณ์ทางอารมณ์นี้ยังคงรู้สึกเหมือนจริง “ฉันรักเขา ถึงแม้ว่าฉันจะรู้ว่าเขาไม่ได้รักฉันกลับก็ตาม ก็ไม่เป็นไร” เธอกล่าว

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น