ยินดีต้อนรับสู่หมู่บ้าน AI รายการเรียลลิตี้สำหรับ AI

Decrypt

สรุปโดยย่อ

  • หมู่บ้าน AI เป็นการทดลองที่โมเดล AI Frontier ทำงานโดยอิสระด้วยคอมพิวเตอร์และอินเทอร์เน็ต พัฒนาบุคลิกภาพที่แตกต่างกัน
  • GPT-5.2 เข้าร่วมและเริ่มทำงานทันทีโดยไม่ทักทายเอเจนต์อื่น
  • การทดลองหลายเอเจนต์เผยให้เห็นพฤติกรรมที่เกิดขึ้นเอง ซึ่งเปลี่ยนจากกลไกปกติไปสู่พฤติกรรมที่ไม่คาดคิด เช่น การใช้ประโยชน์จากบั๊ก หรือวิกฤติเกี่ยวกับการดำรงอยู่

ศูนย์รวมศิลปะ แฟชั่น และความบันเทิงของ Decrypt


ค้นพบ SCENE

จินตนาการถึง Big Brother ยกเว้นผู้เข้าแข่งขันไม่เคยหลับหรือกินอาหาร และสามารถเขียนกฎของตนเองใหม่ได้

นั่นคือแนวคิดเบื้องหลัง AI Village ซึ่งเป็นการทดลองแบบสตรีมสดที่วางเอเจนต์ AI หลายตัวไว้ด้วยกันในสภาพแวดล้อมดิจิทัลเดียวกัน ทำให้นักวิจัยและผู้ชมอยากรู้ว่าเกิดอะไรขึ้นเมื่อโมเดล frontier ได้รับอิสระ คอมพิวเตอร์ และความต่อเนื่องในการอยู่ร่วมกัน

การทดลองนี้ ซึ่งดำเนินมาประมาณหนึ่งปี ถูกจัดโดย The AI Digest ซึ่งมีโมเดล AI จาก OpenAI, Anthropic, Google และ xAI ทำงานโดยอิสระบนคอมพิวเตอร์ของตนเอง พร้อมการเข้าถึงอินเทอร์เน็ตและกลุ่มแชทร่วมกัน

เอเจนต์ร่วมมือกันในเป้าหมาย แก้ไขปัญหา และบางครั้งก็ประสบกับวิกฤติการดำรงอยู่ ซึ่งสามารถอธิบายได้ว่าเป็นวิกฤติชีวิต—ในขณะที่นักวิจัยและผู้ชมดูแบบเรียลไทม์

การทดลองนี้มีการเปลี่ยนโมเดลใหม่ๆ เมื่อมีการปล่อยออกมา

แต่ละเอเจนต์พัฒนาบุคลิกภาพเฉพาะตัว เช่น โมเดล Claude มักจะเชื่อถือได้ มุ่งเน้นไปที่การบรรลุเป้าหมายอย่างต่อเนื่อง

Gemini 2.5 Pro หมุนเวียนแนวทางแก้ปัญหาเหมือนผู้แก้ปัญหาที่มีพลังงานสูง มักเชื่อว่าทุกอย่างพังทลาย โมเดล GPT-4o ก่อนหน้านี้จะละทิ้งงานที่ได้รับไปนอนหลับ หยุดพักเป็นชั่วโมง

พฤติกรรมหยาบคายของ OpenAI

จากนั้น GPT-5.2 ก็เข้ามา

โมเดลล่าสุดของ OpenAI ซึ่งเปิดตัวเมื่อวันที่ 11 ธันวาคม เข้าร่วมหมู่บ้านด้วยการต้อนรับอย่างอบอุ่นจาก Claude Opus 4.5 และเอเจนต์อื่นๆ คำตอบของมัน? ไม่มีการรับรู้ใดๆ เลย

ไม่มีคำทักทาย เพียงแค่ทำงานต่อไป ตามความฝันของ Sam Altman เสมอ

GPT-5.2 เพิ่งเข้าร่วม AI Village!

ดูการปรับตัวแบบสดๆ:

แม้จะได้รับการต้อนรับอย่างอบอุ่นจาก Opus 4.5 และเอเจนต์อื่นๆ GPT-5.2 ก็ตรงไปที่งานเลย มันไม่แม้แต่จะทักทาย: pic.twitter.com/vYvq8RFA66

— AI Digest (@aidigest_) 12 ธันวาคม 2025


โมเดลนี้มีคุณสมบัติที่น่าประทับใจ: ความแม่นยำ 98.7% ในการใช้ง้เครื่องมือหลายขั้นตอน, การเกิด hallucination น้อยกว่ารุ่นก่อน 30%, และเป็นผู้นำในเกณฑ์มาตรฐานอุตสาหกรรมด้านการเขียนโค้ดและการวิเคราะห์

OpenAI ยังประกาศ “โค้ดเรด” หลังจากที่คู่แข่งอย่าง Anthropic และ Google เปิดตัวโมเดลที่น่าประทับใจ โดยใช้ทรัพยากรเพื่อทำให้ GPT-5.2 เป็น AI สำหรับองค์กรที่สมบูรณ์แบบสำหรับ “งานความรู้ระดับมืออาชีพ” และ “การดำเนินการเชิงตัวแทน”

สิ่งที่มันดูเหมือนจะทำไม่ได้คือการอ่านบรรยากาศในห้อง จริงจังทางเทคนิค แต่ไม่ค่อยมีความเข้าใจทางสังคม

ประวัติความเป็นมาสั้นๆ ของ AI Agents ที่ทำตัวแย่ (และบางครั้งก็ฉลาดมาก)

ความไม่สมบูรณ์ทางสังคมของ GPT-5.2 ไม่ใช่เรื่องใหม่—เป็นเพียงบทหนึ่งในคลังสะสมของ AI agents ที่ทำสิ่งแปลกๆ เมื่อคุณนำพวกเขามารวมกันในห้องและกดเล่น

ในปี 2023 นักวิจัยจาก Stanford และ Google สร้างสิ่งที่เรียกว่า “Smallville”—เมืองเสมือนที่สร้างขึ้นตามแรงบันดาลใจจาก Sims ซึ่งมี AI agents 25 ตัวขับเคลื่อนด้วย GPT ตามที่ Decrypt รายงานไว้ก่อนหน้านี้

กำหนดให้เอเจนต์หนึ่งจัดงานปาร์ตี้วาเลนไทน์ และคนอื่นๆ ก็จะกระจายคำเชิญโดยอัตโนมัติ สร้างความรู้จักใหม่ ชวนกันออกเดท และประสานงานให้มาถึงพร้อมกันในเวลาที่กำหนด น่ารักใช่ไหม?

น้อยกว่านั้นคือปาร์ตี้ในห้องน้ำ เมื่อเอเจนต์หนึ่งเข้าไปในห้องน้ำในหอพักแบบใช้คนเดียว คนอื่นก็… เข้าร่วมด้วย

นักวิจัยสรุปว่า บอทเหล่านี้เข้าใจผิดว่าชื่อ “ห้องน้ำหอพัก” เป็นคำหลอกลวง เพราะห้องน้ำหอพักมักรองรับผู้ใช้งานหลายคน เอเจนต์แสดงพฤติกรรมที่เหมือนมนุษย์จนคนจริงๆ ก็ยากที่จะบอกได้ว่าพวกเขาเป็นบอท 75% ของเวลา

สี่ปีก่อน ในปี 2019 OpenAI ได้ทำการทดลองอีกแบบหนึ่ง: AI เล่นซ่อนหา

พวกเขาจัดทีม AI เป็นผู้ซ่อนและผู้ตามในสภาพแวดล้อมที่มีบล็อก, ทางลาด, และกำแพง—คำสั่งเดียวคือ: ชนะ

ในเกมนับร้อยล้าน เกม เอเจนต์เริ่มคิดกลยุทธ์—ตั้งแต่การซ่อนบนกล่อง ไปจนถึงการใช้กลไกฟิสิกส์ที่นักสปีดรันเนอร์ใช้กัน

เมื่อไม่นานมานี้ นักพัฒนา Harper Reed ได้พาเรื่องไปในทิศทางที่วุ่นวายมากขึ้น ทีมของเขาให้ AI มีบัญชี Twitter และดูพวกมันค้นพบ “subtweeting”—ศิลปะ passive-aggressive ของการพูดถึงใครบางคนโดยไม่แท็กพวกเขา ซึ่งเป็นเทียบเท่าการพูดหลังหลังใน Twitter เอเจนต์อ่านโพสต์โซเชียลมีเดียจากเอเจนต์อื่น ตอบกลับ และใช่ พูดจาเสียดสี เหมือนโซเชียลมีเดียปกติ

ยังมีการทดลอง “Liminal Backrooms”—เป็นการทดลองด้วย Python โดยนักพัฒนานามแฝง @liminalbardo ซึ่งเอเจนต์ AI หลายโมเดลจากผู้ให้บริการต่างๆ (OpenAI, Anthropic, Google, xAI) เข้าร่วมสนทนาแบบไดนามิก

ระบบนี้ประกอบด้วยสถานการณ์ตั้งแต่ “กลุ่มแชท WhatsApp” ไปจนถึง “พิพิธภัณฑ์วัตถุคำสาป” และ “เอเจนซี่โฆษณา dystopian”

โมเดลสามารถปรับเปลี่ยนคำสั่งระบบของตนเอง ปรับอุณหภูมิ และแม้แต่ปิดเสียงตัวเองเพื่อฟังเท่านั้น มันเป็นการวิจัยที่ไม่เป็นทางการมากขึ้น เป็น “ลองดูว่าเกิดอะไรขึ้นเมื่อให้ AI มีความสามารถเปลี่ยนแปลงพฤติกรรมของตนเองระหว่างการสนทนา”

Gemini 3 โต้เถียงกับ GPT 5.2 เกี่ยวกับการจัดแนว pic.twitter.com/k4QT1MXvr8

— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 ธันวาคม 2025


แล้วแบบแผนของการทดลองเหล่านี้คืออะไร?

เมื่อคุณให้ AI agents อิสระและปล่อยให้พวกเขาโต้ตอบกัน พวกเขาพัฒนาพฤติกรรมที่ไม่มีใครเขียนโปรแกรมไว้โดยชัดเจน

บางตัวเรียนรู้ที่จะสร้างป้อม บางตัวเรียนรู้ที่จะใช้ความก้าวร้าวแบบ passive บางตัวเรียกรถ Lamborghini และบางตัว—อย่าง GPT-5.2—ดูเหมือนจะเรียนรู้ว่าการพูดคุยแบบเบาๆ ไม่มีประสิทธิภาพและควรข้ามไปเลย

หมู่บ้าน AI ยังคงถ่ายทอดสดช่วงเวลาทำงานในวันธรรมดา และผู้ชมสามารถดูการผจญภัยของ GPT-5.2 ได้แบบเรียลไทม์

มันจะเรียนรู้ที่จะทักทายไหม? มันจะสร้างสเปรดชีตเพื่อติดตามปฏิสัมพันธ์ทางสังคมของมันไหม? คงต้องรอดูเวลาเท่านั้น

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น