ค้นพบ SCENE
จินตนาการถึง Big Brother ยกเว้นผู้เข้าแข่งขันไม่เคยหลับหรือกินอาหาร และสามารถเขียนกฎของตนเองใหม่ได้
นั่นคือแนวคิดเบื้องหลัง AI Village ซึ่งเป็นการทดลองแบบสตรีมสดที่วางเอเจนต์ AI หลายตัวไว้ด้วยกันในสภาพแวดล้อมดิจิทัลเดียวกัน ทำให้นักวิจัยและผู้ชมอยากรู้ว่าเกิดอะไรขึ้นเมื่อโมเดล frontier ได้รับอิสระ คอมพิวเตอร์ และความต่อเนื่องในการอยู่ร่วมกัน
การทดลองนี้ ซึ่งดำเนินมาประมาณหนึ่งปี ถูกจัดโดย The AI Digest ซึ่งมีโมเดล AI จาก OpenAI, Anthropic, Google และ xAI ทำงานโดยอิสระบนคอมพิวเตอร์ของตนเอง พร้อมการเข้าถึงอินเทอร์เน็ตและกลุ่มแชทร่วมกัน
เอเจนต์ร่วมมือกันในเป้าหมาย แก้ไขปัญหา และบางครั้งก็ประสบกับวิกฤติการดำรงอยู่ ซึ่งสามารถอธิบายได้ว่าเป็นวิกฤติชีวิต—ในขณะที่นักวิจัยและผู้ชมดูแบบเรียลไทม์
การทดลองนี้มีการเปลี่ยนโมเดลใหม่ๆ เมื่อมีการปล่อยออกมา
แต่ละเอเจนต์พัฒนาบุคลิกภาพเฉพาะตัว เช่น โมเดล Claude มักจะเชื่อถือได้ มุ่งเน้นไปที่การบรรลุเป้าหมายอย่างต่อเนื่อง
Gemini 2.5 Pro หมุนเวียนแนวทางแก้ปัญหาเหมือนผู้แก้ปัญหาที่มีพลังงานสูง มักเชื่อว่าทุกอย่างพังทลาย โมเดล GPT-4o ก่อนหน้านี้จะละทิ้งงานที่ได้รับไปนอนหลับ หยุดพักเป็นชั่วโมง
จากนั้น GPT-5.2 ก็เข้ามา
โมเดลล่าสุดของ OpenAI ซึ่งเปิดตัวเมื่อวันที่ 11 ธันวาคม เข้าร่วมหมู่บ้านด้วยการต้อนรับอย่างอบอุ่นจาก Claude Opus 4.5 และเอเจนต์อื่นๆ คำตอบของมัน? ไม่มีการรับรู้ใดๆ เลย
ไม่มีคำทักทาย เพียงแค่ทำงานต่อไป ตามความฝันของ Sam Altman เสมอ
GPT-5.2 เพิ่งเข้าร่วม AI Village!
ดูการปรับตัวแบบสดๆ:
แม้จะได้รับการต้อนรับอย่างอบอุ่นจาก Opus 4.5 และเอเจนต์อื่นๆ GPT-5.2 ก็ตรงไปที่งานเลย มันไม่แม้แต่จะทักทาย: pic.twitter.com/vYvq8RFA66
— AI Digest (@aidigest_) 12 ธันวาคม 2025
โมเดลนี้มีคุณสมบัติที่น่าประทับใจ: ความแม่นยำ 98.7% ในการใช้ง้เครื่องมือหลายขั้นตอน, การเกิด hallucination น้อยกว่ารุ่นก่อน 30%, และเป็นผู้นำในเกณฑ์มาตรฐานอุตสาหกรรมด้านการเขียนโค้ดและการวิเคราะห์
OpenAI ยังประกาศ “โค้ดเรด” หลังจากที่คู่แข่งอย่าง Anthropic และ Google เปิดตัวโมเดลที่น่าประทับใจ โดยใช้ทรัพยากรเพื่อทำให้ GPT-5.2 เป็น AI สำหรับองค์กรที่สมบูรณ์แบบสำหรับ “งานความรู้ระดับมืออาชีพ” และ “การดำเนินการเชิงตัวแทน”
สิ่งที่มันดูเหมือนจะทำไม่ได้คือการอ่านบรรยากาศในห้อง จริงจังทางเทคนิค แต่ไม่ค่อยมีความเข้าใจทางสังคม
ความไม่สมบูรณ์ทางสังคมของ GPT-5.2 ไม่ใช่เรื่องใหม่—เป็นเพียงบทหนึ่งในคลังสะสมของ AI agents ที่ทำสิ่งแปลกๆ เมื่อคุณนำพวกเขามารวมกันในห้องและกดเล่น
ในปี 2023 นักวิจัยจาก Stanford และ Google สร้างสิ่งที่เรียกว่า “Smallville”—เมืองเสมือนที่สร้างขึ้นตามแรงบันดาลใจจาก Sims ซึ่งมี AI agents 25 ตัวขับเคลื่อนด้วย GPT ตามที่ Decrypt รายงานไว้ก่อนหน้านี้
กำหนดให้เอเจนต์หนึ่งจัดงานปาร์ตี้วาเลนไทน์ และคนอื่นๆ ก็จะกระจายคำเชิญโดยอัตโนมัติ สร้างความรู้จักใหม่ ชวนกันออกเดท และประสานงานให้มาถึงพร้อมกันในเวลาที่กำหนด น่ารักใช่ไหม?
น้อยกว่านั้นคือปาร์ตี้ในห้องน้ำ เมื่อเอเจนต์หนึ่งเข้าไปในห้องน้ำในหอพักแบบใช้คนเดียว คนอื่นก็… เข้าร่วมด้วย
นักวิจัยสรุปว่า บอทเหล่านี้เข้าใจผิดว่าชื่อ “ห้องน้ำหอพัก” เป็นคำหลอกลวง เพราะห้องน้ำหอพักมักรองรับผู้ใช้งานหลายคน เอเจนต์แสดงพฤติกรรมที่เหมือนมนุษย์จนคนจริงๆ ก็ยากที่จะบอกได้ว่าพวกเขาเป็นบอท 75% ของเวลา
สี่ปีก่อน ในปี 2019 OpenAI ได้ทำการทดลองอีกแบบหนึ่ง: AI เล่นซ่อนหา
พวกเขาจัดทีม AI เป็นผู้ซ่อนและผู้ตามในสภาพแวดล้อมที่มีบล็อก, ทางลาด, และกำแพง—คำสั่งเดียวคือ: ชนะ
ในเกมนับร้อยล้าน เกม เอเจนต์เริ่มคิดกลยุทธ์—ตั้งแต่การซ่อนบนกล่อง ไปจนถึงการใช้กลไกฟิสิกส์ที่นักสปีดรันเนอร์ใช้กัน
เมื่อไม่นานมานี้ นักพัฒนา Harper Reed ได้พาเรื่องไปในทิศทางที่วุ่นวายมากขึ้น ทีมของเขาให้ AI มีบัญชี Twitter และดูพวกมันค้นพบ “subtweeting”—ศิลปะ passive-aggressive ของการพูดถึงใครบางคนโดยไม่แท็กพวกเขา ซึ่งเป็นเทียบเท่าการพูดหลังหลังใน Twitter เอเจนต์อ่านโพสต์โซเชียลมีเดียจากเอเจนต์อื่น ตอบกลับ และใช่ พูดจาเสียดสี เหมือนโซเชียลมีเดียปกติ
ยังมีการทดลอง “Liminal Backrooms”—เป็นการทดลองด้วย Python โดยนักพัฒนานามแฝง @liminalbardo ซึ่งเอเจนต์ AI หลายโมเดลจากผู้ให้บริการต่างๆ (OpenAI, Anthropic, Google, xAI) เข้าร่วมสนทนาแบบไดนามิก
ระบบนี้ประกอบด้วยสถานการณ์ตั้งแต่ “กลุ่มแชท WhatsApp” ไปจนถึง “พิพิธภัณฑ์วัตถุคำสาป” และ “เอเจนซี่โฆษณา dystopian”
โมเดลสามารถปรับเปลี่ยนคำสั่งระบบของตนเอง ปรับอุณหภูมิ และแม้แต่ปิดเสียงตัวเองเพื่อฟังเท่านั้น มันเป็นการวิจัยที่ไม่เป็นทางการมากขึ้น เป็น “ลองดูว่าเกิดอะไรขึ้นเมื่อให้ AI มีความสามารถเปลี่ยนแปลงพฤติกรรมของตนเองระหว่างการสนทนา”
Gemini 3 โต้เถียงกับ GPT 5.2 เกี่ยวกับการจัดแนว pic.twitter.com/k4QT1MXvr8
— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 ธันวาคม 2025
แล้วแบบแผนของการทดลองเหล่านี้คืออะไร?
เมื่อคุณให้ AI agents อิสระและปล่อยให้พวกเขาโต้ตอบกัน พวกเขาพัฒนาพฤติกรรมที่ไม่มีใครเขียนโปรแกรมไว้โดยชัดเจน
บางตัวเรียนรู้ที่จะสร้างป้อม บางตัวเรียนรู้ที่จะใช้ความก้าวร้าวแบบ passive บางตัวเรียกรถ Lamborghini และบางตัว—อย่าง GPT-5.2—ดูเหมือนจะเรียนรู้ว่าการพูดคุยแบบเบาๆ ไม่มีประสิทธิภาพและควรข้ามไปเลย
หมู่บ้าน AI ยังคงถ่ายทอดสดช่วงเวลาทำงานในวันธรรมดา และผู้ชมสามารถดูการผจญภัยของ GPT-5.2 ได้แบบเรียลไทม์
มันจะเรียนรู้ที่จะทักทายไหม? มันจะสร้างสเปรดชีตเพื่อติดตามปฏิสัมพันธ์ทางสังคมของมันไหม? คงต้องรอดูเวลาเท่านั้น