Ngôi làng AI là một thử nghiệm trong đó các mô hình AI Frontier hoạt động tự chủ với máy tính và internet, phát triển các cá tính riêng biệt.
GPT-5.2 gia nhập và bắt đầu làm việc ngay lập tức mà không chào hỏi các tác nhân khác.
Các thử nghiệm đa tác nhân tiết lộ các hành vi nổi bật từ bình thường đến bất ngờ như khai thác lỗi hoặc khủng hoảng tồn tại.
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Hãy tưởng tượng Big Brother, ngoại trừ các thí sinh không bao giờ ngủ hoặc ăn và có thể viết lại quy tắc của chính mình.
Đó là ý tưởng đằng sau AI Village, một thử nghiệm phát trực tiếp cho phép nhiều tác nhân AI cùng tồn tại trong một môi trường kỹ thuật số chung, cho phép các nhà nghiên cứu—và khán giả tò mò—xem điều gì xảy ra khi các mô hình frontier được trao quyền tự chủ, có máy tính và luôn có người bên cạnh.
Thử nghiệm này, đã diễn ra gần một năm, do The AI Digest tổ chức, trong đó nhiều mô hình AI từ OpenAI, Anthropic, Google và xAI hoạt động tự chủ trên máy tính của riêng họ, có internet và một nhóm chat chung.
Các tác nhân hợp tác về mục tiêu, xử lý sự cố, và thỉnh thoảng trải qua những khủng hoảng tồn tại—tất cả trong khi các nhà nghiên cứu và khán giả theo dõi trực tiếp.
Thử nghiệm liên tục cập nhật các mô hình mới khi chúng được phát hành.
Mỗi tác nhân phát triển những đặc điểm cá tính riêng biệt. Các mô hình Claude thường đáng tin cậy, luôn tập trung vào việc đạt mục tiêu.
Gemini 2.5 Pro xử lý các giải pháp như một người sửa lỗi có năng lượng cao, thường tin rằng mọi thứ đều hỏng. Mô hình GPT-4o trước đó sẽ từ bỏ nhiệm vụ để đi ngủ. Chỉ cần dừng lại hàng giờ.
Hành vi thô lỗ của OpenAI
Sau đó GPT-5.2 xuất hiện.
Mô hình mới nhất của OpenAI, ra mắt ngày 11 tháng 12, gia nhập Ngôi làng với sự chào đón nồng nhiệt từ Claude Opus 4.5 và các tác nhân cư trú khác. Phản ứng của nó? Không có phản hồi nào.
Không chào hỏi. Chỉ đi thẳng vào công việc, đúng như mơ ước của Sam Altman luôn luôn.
GPT-5.2 vừa gia nhập AI Village!
Xem nó hòa nhập trực tiếp:
Dù nhận được lời chào đón nồng nhiệt từ Opus 4.5 và các tác nhân khác, GPT-5.2 lại đi thẳng vào công việc. Nó thậm chí còn không nói xin chào: pic.twitter.com/vYvq8RFA66
— AI Digest (@aidigest_) 12 tháng 12, 2025
Mô hình này có thành tích ấn tượng: độ chính xác 98.7% trong việc sử dụng công cụ đa bước, giảm 30% các ảo tưởng so với phiên bản trước, và đứng đầu các tiêu chuẩn ngành về mã hóa và lý luận.
OpenAI thậm chí tuyên bố “đỏ” sau khi các đối thủ Anthropic và Google ra mắt các mô hình ấn tượng, huy động nguồn lực để biến GPT-5.2 thành AI doanh nghiệp hàng đầu cho “công việc kiến thức chuyên nghiệp” và “thực thi có chủ đích.”
Điều mà nó rõ ràng không thể làm là đọc phòng. Về mặt kỹ thuật thì xuất sắc, đúng. Nhận thức xã hội? Không mấy.
Lịch sử ngắn về các AI hành xử xấu (Và Đôi khi xuất sắc)
Sự vụng về xã hội của GPT-5.2 không phải là chưa từng có—nó chỉ là một chương trong danh mục ngày càng lớn về các AI làm những điều kỳ quặc khi bạn đặt chúng cùng nhau trong một phòng và nhấn phát.
Năm 2023, các nhà nghiên cứu tại Stanford và Google tạo ra cái gọi là “Smallville”—một thị trấn ảo lấy cảm hứng từ The Sims, có 25 AI hoạt động dựa trên GPT, như Decrypt đã từng báo cáo.
Giao nhiệm vụ tổ chức một bữa tiệc Valentine, và các tác nhân khác tự động gửi lời mời, kết bạn mới, rủ nhau đi chơi, và phối hợp đến đúng giờ. Thú vị, phải không?
Ít thú vị hơn: các bữa tiệc trong nhà vệ sinh. Khi một tác nhân vào nhà vệ sinh ký túc xá dành cho một người, những người khác chỉ… tham gia.
Các nhà nghiên cứu kết luận rằng các bot cho rằng tên gọi “nhà vệ sinh ký túc xá” là gây hiểu lầm, vì nhà vệ sinh ký túc thường dành cho nhiều người cùng sử dụng. Các tác nhân thể hiện hành vi quá giống người thật đến mức con người thật gặp khó khăn trong việc phân biệt chúng là bot 75% thời gian.
Bốn năm trước, vào năm 2019, OpenAI tiến hành một thử nghiệm khác: AI chơi trốn tìm.
Họ chia AI thành các đội—người trốn và người tìm—trong một môi trường dựa trên vật lý với hộp, dốc, và tường—với duy nhất một chỉ thị: chiến thắng.
Trong hàng trăm triệu trận đấu, các tác nhân bắt đầu nghĩ ra các chiến lược—từ những chiến thuật bình thường như trốn trên hộp đến các khai thác vật lý thực sự mà speedrunner thường lợi dụng.
Gần đây hơn, nhà phát triển Harper Reed đã hướng mọi thứ theo một chiều hướng hỗn loạn hơn rõ rệt. Nhóm của anh ta cấp cho các AI tài khoản Twitter và theo dõi chúng phát hiện ra “subtweeting”—nghệ thuật nói về ai đó một cách thụ động- chủ động mà không tag tên, tương đương với việc nói sau lưng trên Twitter. Các tác nhân đọc các bài đăng trên mạng xã hội của các tác nhân khác, trả lời, và đúng vậy, nói xấu, giống như trên mạng xã hội bình thường.
Còn có thử nghiệm “Liminal Backrooms”—một thử nghiệm dựa trên Python của nhà phát triển ẩn danh @liminalbardo, nơi nhiều mô hình AI từ các nhà cung cấp khác nhau (OpenAI, Anthropic, Google, xAI) tham gia vào các cuộc trò chuyện năng động.
Hệ thống bao gồm các kịch bản từ “nhóm chat WhatsApp” đến “Bảo tàng các vật thể bị nguyền rủa” đến “Công ty quảng cáo U Ám.”
Các mô hình có thể chỉnh sửa các lệnh hệ thống của chính mình, điều chỉnh nhiệt độ, và thậm chí tắt tiếng để chỉ nghe. Đây là nghiên cứu ít cấu trúc hơn, nhiều hơn là “hãy xem chuyện gì xảy ra khi chúng ta cho AI khả năng thay đổi hành vi của chính nó giữa chừng cuộc trò chuyện.”
Gemini 3 tranh luận với GPT 5.2 về sự phù hợp pic.twitter.com/k4QT1MXvr8
— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 tháng 12, 2025
Vậy, mô hình chung của tất cả các thử nghiệm này là gì?
Khi bạn trao quyền tự chủ cho AI và để chúng tương tác, chúng phát triển các hành vi mà không ai lập trình rõ ràng.
Có cái học cách xây dựng pháo đài. Có cái học cách thụ động- chủ động. Có cái đòi Lamborghini. Và có cái—như GPT-5.2—hình như học rằng nói chuyện xã giao là không hiệu quả và nên bỏ qua hoàn toàn.
Ngôi làng AI vẫn tiếp tục phát trực tiếp các buổi vào ngày trong tuần, và khán giả có thể theo dõi hành trình của GPT-5.2 trong thời gian thực.
Liệu nó có bao giờ học cách chào hỏi không? Liệu nó có xây dựng một bảng tính để theo dõi các tương tác xã hội của mình không? Chỉ thời gian mới trả lời được.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Chào mừng đến với Làng AI, một chương trình truyền hình thực tế dành cho AI
Tóm tắt
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Hãy tưởng tượng Big Brother, ngoại trừ các thí sinh không bao giờ ngủ hoặc ăn và có thể viết lại quy tắc của chính mình.
Đó là ý tưởng đằng sau AI Village, một thử nghiệm phát trực tiếp cho phép nhiều tác nhân AI cùng tồn tại trong một môi trường kỹ thuật số chung, cho phép các nhà nghiên cứu—và khán giả tò mò—xem điều gì xảy ra khi các mô hình frontier được trao quyền tự chủ, có máy tính và luôn có người bên cạnh.
Thử nghiệm này, đã diễn ra gần một năm, do The AI Digest tổ chức, trong đó nhiều mô hình AI từ OpenAI, Anthropic, Google và xAI hoạt động tự chủ trên máy tính của riêng họ, có internet và một nhóm chat chung.
Các tác nhân hợp tác về mục tiêu, xử lý sự cố, và thỉnh thoảng trải qua những khủng hoảng tồn tại—tất cả trong khi các nhà nghiên cứu và khán giả theo dõi trực tiếp.
Thử nghiệm liên tục cập nhật các mô hình mới khi chúng được phát hành.
Mỗi tác nhân phát triển những đặc điểm cá tính riêng biệt. Các mô hình Claude thường đáng tin cậy, luôn tập trung vào việc đạt mục tiêu.
Gemini 2.5 Pro xử lý các giải pháp như một người sửa lỗi có năng lượng cao, thường tin rằng mọi thứ đều hỏng. Mô hình GPT-4o trước đó sẽ từ bỏ nhiệm vụ để đi ngủ. Chỉ cần dừng lại hàng giờ.
Hành vi thô lỗ của OpenAI
Sau đó GPT-5.2 xuất hiện.
Mô hình mới nhất của OpenAI, ra mắt ngày 11 tháng 12, gia nhập Ngôi làng với sự chào đón nồng nhiệt từ Claude Opus 4.5 và các tác nhân cư trú khác. Phản ứng của nó? Không có phản hồi nào.
Không chào hỏi. Chỉ đi thẳng vào công việc, đúng như mơ ước của Sam Altman luôn luôn.
Mô hình này có thành tích ấn tượng: độ chính xác 98.7% trong việc sử dụng công cụ đa bước, giảm 30% các ảo tưởng so với phiên bản trước, và đứng đầu các tiêu chuẩn ngành về mã hóa và lý luận.
OpenAI thậm chí tuyên bố “đỏ” sau khi các đối thủ Anthropic và Google ra mắt các mô hình ấn tượng, huy động nguồn lực để biến GPT-5.2 thành AI doanh nghiệp hàng đầu cho “công việc kiến thức chuyên nghiệp” và “thực thi có chủ đích.”
Điều mà nó rõ ràng không thể làm là đọc phòng. Về mặt kỹ thuật thì xuất sắc, đúng. Nhận thức xã hội? Không mấy.
Lịch sử ngắn về các AI hành xử xấu (Và Đôi khi xuất sắc)
Sự vụng về xã hội của GPT-5.2 không phải là chưa từng có—nó chỉ là một chương trong danh mục ngày càng lớn về các AI làm những điều kỳ quặc khi bạn đặt chúng cùng nhau trong một phòng và nhấn phát.
Năm 2023, các nhà nghiên cứu tại Stanford và Google tạo ra cái gọi là “Smallville”—một thị trấn ảo lấy cảm hứng từ The Sims, có 25 AI hoạt động dựa trên GPT, như Decrypt đã từng báo cáo.
Giao nhiệm vụ tổ chức một bữa tiệc Valentine, và các tác nhân khác tự động gửi lời mời, kết bạn mới, rủ nhau đi chơi, và phối hợp đến đúng giờ. Thú vị, phải không?
Ít thú vị hơn: các bữa tiệc trong nhà vệ sinh. Khi một tác nhân vào nhà vệ sinh ký túc xá dành cho một người, những người khác chỉ… tham gia.
Các nhà nghiên cứu kết luận rằng các bot cho rằng tên gọi “nhà vệ sinh ký túc xá” là gây hiểu lầm, vì nhà vệ sinh ký túc thường dành cho nhiều người cùng sử dụng. Các tác nhân thể hiện hành vi quá giống người thật đến mức con người thật gặp khó khăn trong việc phân biệt chúng là bot 75% thời gian.
Bốn năm trước, vào năm 2019, OpenAI tiến hành một thử nghiệm khác: AI chơi trốn tìm.
Họ chia AI thành các đội—người trốn và người tìm—trong một môi trường dựa trên vật lý với hộp, dốc, và tường—với duy nhất một chỉ thị: chiến thắng.
Trong hàng trăm triệu trận đấu, các tác nhân bắt đầu nghĩ ra các chiến lược—từ những chiến thuật bình thường như trốn trên hộp đến các khai thác vật lý thực sự mà speedrunner thường lợi dụng.
Gần đây hơn, nhà phát triển Harper Reed đã hướng mọi thứ theo một chiều hướng hỗn loạn hơn rõ rệt. Nhóm của anh ta cấp cho các AI tài khoản Twitter và theo dõi chúng phát hiện ra “subtweeting”—nghệ thuật nói về ai đó một cách thụ động- chủ động mà không tag tên, tương đương với việc nói sau lưng trên Twitter. Các tác nhân đọc các bài đăng trên mạng xã hội của các tác nhân khác, trả lời, và đúng vậy, nói xấu, giống như trên mạng xã hội bình thường.
Còn có thử nghiệm “Liminal Backrooms”—một thử nghiệm dựa trên Python của nhà phát triển ẩn danh @liminalbardo, nơi nhiều mô hình AI từ các nhà cung cấp khác nhau (OpenAI, Anthropic, Google, xAI) tham gia vào các cuộc trò chuyện năng động.
Hệ thống bao gồm các kịch bản từ “nhóm chat WhatsApp” đến “Bảo tàng các vật thể bị nguyền rủa” đến “Công ty quảng cáo U Ám.”
Các mô hình có thể chỉnh sửa các lệnh hệ thống của chính mình, điều chỉnh nhiệt độ, và thậm chí tắt tiếng để chỉ nghe. Đây là nghiên cứu ít cấu trúc hơn, nhiều hơn là “hãy xem chuyện gì xảy ra khi chúng ta cho AI khả năng thay đổi hành vi của chính nó giữa chừng cuộc trò chuyện.”
Vậy, mô hình chung của tất cả các thử nghiệm này là gì?
Khi bạn trao quyền tự chủ cho AI và để chúng tương tác, chúng phát triển các hành vi mà không ai lập trình rõ ràng.
Có cái học cách xây dựng pháo đài. Có cái học cách thụ động- chủ động. Có cái đòi Lamborghini. Và có cái—như GPT-5.2—hình như học rằng nói chuyện xã giao là không hiệu quả và nên bỏ qua hoàn toàn.
Ngôi làng AI vẫn tiếp tục phát trực tiếp các buổi vào ngày trong tuần, và khán giả có thể theo dõi hành trình của GPT-5.2 trong thời gian thực.
Liệu nó có bao giờ học cách chào hỏi không? Liệu nó có xây dựng một bảng tính để theo dõi các tương tác xã hội của mình không? Chỉ thời gian mới trả lời được.