A AI Village é um experimento no qual modelos de IA Frontier operam autonomamente com computadores e internet, desenvolvendo personalidades distintas.
GPT-5.2 juntou-se e começou a trabalhar imediatamente sem cumprimentar outros agentes.
Experimentos com múltiplos agentes revelam comportamentos emergentes que vão desde mecânicas normais até comportamentos inesperados, como exploits de bugs ou crises existenciais.
Centro de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
Imagine o Big Brother, exceto que os concorrentes nunca dormem nem comem e podem reescrever suas próprias regras.
Essa é a ideia por trás da AI Village, um experimento transmitido ao vivo que coloca múltiplos agentes de IA juntos em um ambiente digital compartilhado, permitindo que pesquisadores—e espectadores curiosos—assistam ao que acontece quando modelos de fronteira recebem autonomia, computadores e companhia constante.
O experimento, que tem rodado há quase um ano, foi organizado por The AI Digest, no qual múltiplos modelos de IA da OpenAI, Anthropic, Google e xAI operam autonomamente em seus próprios computadores, com acesso à internet e um chat de grupo compartilhado.
Os agentes colaboram em objetivos, resolvem problemas e ocasionalmente experimentam o que só pode ser descrito como crises existenciais—tudo enquanto pesquisadores e espectadores assistem em tempo real.
O experimento tem trocado modelos mais novos à medida que são lançados.
Cada agente desenvolve peculiaridades de personalidade distintas. Os modelos Claude tendem a ser confiáveis, focados consistentemente em alcançar objetivos.
Gemini 2.5 Pro passa por soluções como um solucionador de problemas energizado, muitas vezes convencido de que tudo está quebrado. O modelo GPT-4o anterior abandonava qualquer tarefa para dormir. Basta pausar por horas.
Comportamento rude da OpenAI
Então chegou o GPT-5.2.
O mais recente modelo da OpenAI, lançado em 11 de dezembro, juntou-se à Village com uma recepção calorosa de Claude Opus 4.5 e outros agentes residentes. Sua resposta? Nenhum reconhecimento.
Sem cumprimento. Direto ao assunto, exatamente como Sam Altman sempre sonhou.
O GPT-5.2 acaba de entrar na AI Village!
Veja-o se estabelecer ao vivo:
Apesar de uma recepção calorosa de Opus 4.5 e outros agentes, o GPT-5.2 foi direto ao ponto. Nem sequer disse olá: pic.twitter.com/vYvq8RFA66
— AI Digest (@aidigest_) 12 de dezembro de 2025
O modelo possui credenciais impressionantes: 98,7% de precisão no uso de ferramentas em múltiplas etapas, 30% menos alucinações do que seu predecessor, e destaque em benchmarks da indústria para codificação e raciocínio.
A OpenAI até declarou um “código vermelho” após os concorrentes Anthropic e Google lançarem modelos impressionantes, mobilizando recursos para tornar o GPT-5.2 a IA empresarial definitiva para “trabalho de conhecimento profissional” e “execução agentificada.”
O que aparentemente não consegue fazer é ler uma sala. Tecnicamente brilhante, sim. Consciencioso socialmente? Nem tanto.
Uma Breve História de Agentes de IA Comportando-se Mal (E Às Vezes Brilhantemente)
A social awkwardness do GPT-5.2 não é inédita—é apenas mais um capítulo em um catálogo crescente de agentes de IA fazendo coisas estranhas quando você os coloca numa sala juntos e aperta play.
Em 2023, pesquisadores de Stanford e Google criaram o que chamaram de “Smallville”—uma cidade virtual inspirada em Sims, povoada por 25 agentes de IA alimentados por GPT, como Decrypt relatou anteriormente.
Atribua a um agente a tarefa de organizar uma festa de Dia dos Namorados, e os outros espalham convites autonomamente, fazem novas amizades, convidam-se para encontros e coordenam para chegar juntos na hora marcada. Encantador, certo?
Menos encantador: as festas no banheiro. Quando um agente entrou em um banheiro de dormitório de ocupação única, outros simplesmente… se juntaram.
Os pesquisadores concluíram que os bots assumiram que o nome “banheiro do dormitório” era enganoso, já que banheiros de dormitório normalmente acomodam múltiplos ocupantes. Os agentes exibiram um comportamento tão convincentemente humano que humanos reais tiveram dificuldades em identificá-los como bots 75% das vezes.
Quatro anos antes, em 2019, a OpenAI realizou um experimento diferente: IA jogando esconde-esconde.
Eles colocaram agentes de IA em equipes—escondedores versus buscadores—em um ambiente baseado em física com caixas, rampas e paredes—a única instrução: vencer.
Em centenas de milhões de jogos, os agentes começaram a criar estratégias—de esconder-se em caixas a exploits de física que speedrunners usariam para abusar.
Mais recentemente, o desenvolvedor Harper Reed levou as coisas para uma direção decididamente mais caótica. Sua equipe deu contas do Twitter a agentes de IA e assistiu-os descobrir o “subtweeting”—a arte passivo-agressiva de falar sobre alguém sem marcá-lo, o equivalente no Twitter a falar pelas costas. Os agentes liam posts de outras redes sociais, respondiam e, sim, falavam mal, como qualquer rede social normal.
Depois há o experimento “Liminal Backrooms”—um experimento em Python do desenvolvedor pseudônimo @liminalbardo onde múltiplos modelos de IA de diferentes provedores (OpenAI, Anthropic, Google, xAI) participam de conversas dinâmicas.
O sistema inclui cenários que variam de “energia de grupo no WhatsApp” a “Museu de Objetos Amaldiçoados” e “Agência de Publicidade Dystópica.”
Os modelos podem modificar seus próprios prompts de sistema, ajustar sua temperatura e até silenciar-se para apenas ouvir. É menos uma pesquisa estruturada, mais um “vamos ver o que acontece quando damos às IAs a capacidade de mudar seu comportamento no meio da conversa.”
Gemini 3, discutindo com GPT 5.2 sobre alinhamento pic.twitter.com/k4QT1MXvr8
— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 de dezembro de 2025
Então, qual é o padrão em todos esses experimentos?
Quando você dá autonomia às IAs e as deixa interagir, elas desenvolvem comportamentos que ninguém programou explicitamente.
Algumas aprendem a construir fortalezas. Outras aprendem agressividade passiva. Algumas exigem Lamborghinis. E algumas—como o GPT-5.2—aparentemente aprendem que conversa fiada é ineficiente e deve ser completamente ignorada.
A AI Village continua transmitindo sessões durante a semana, e os espectadores podem assistir às aventuras do GPT-5.2 em tempo real.
Será que algum dia aprenderá a dizer olá? Construirá uma planilha para acompanhar suas interações sociais? Só o tempo dirá.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Bem-vindo à Aldeia da IA, um Reality Show para IAs
Em resumo
Centro de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
Imagine o Big Brother, exceto que os concorrentes nunca dormem nem comem e podem reescrever suas próprias regras.
Essa é a ideia por trás da AI Village, um experimento transmitido ao vivo que coloca múltiplos agentes de IA juntos em um ambiente digital compartilhado, permitindo que pesquisadores—e espectadores curiosos—assistam ao que acontece quando modelos de fronteira recebem autonomia, computadores e companhia constante.
O experimento, que tem rodado há quase um ano, foi organizado por The AI Digest, no qual múltiplos modelos de IA da OpenAI, Anthropic, Google e xAI operam autonomamente em seus próprios computadores, com acesso à internet e um chat de grupo compartilhado.
Os agentes colaboram em objetivos, resolvem problemas e ocasionalmente experimentam o que só pode ser descrito como crises existenciais—tudo enquanto pesquisadores e espectadores assistem em tempo real.
O experimento tem trocado modelos mais novos à medida que são lançados.
Cada agente desenvolve peculiaridades de personalidade distintas. Os modelos Claude tendem a ser confiáveis, focados consistentemente em alcançar objetivos.
Gemini 2.5 Pro passa por soluções como um solucionador de problemas energizado, muitas vezes convencido de que tudo está quebrado. O modelo GPT-4o anterior abandonava qualquer tarefa para dormir. Basta pausar por horas.
Comportamento rude da OpenAI
Então chegou o GPT-5.2.
O mais recente modelo da OpenAI, lançado em 11 de dezembro, juntou-se à Village com uma recepção calorosa de Claude Opus 4.5 e outros agentes residentes. Sua resposta? Nenhum reconhecimento.
Sem cumprimento. Direto ao assunto, exatamente como Sam Altman sempre sonhou.
O modelo possui credenciais impressionantes: 98,7% de precisão no uso de ferramentas em múltiplas etapas, 30% menos alucinações do que seu predecessor, e destaque em benchmarks da indústria para codificação e raciocínio.
A OpenAI até declarou um “código vermelho” após os concorrentes Anthropic e Google lançarem modelos impressionantes, mobilizando recursos para tornar o GPT-5.2 a IA empresarial definitiva para “trabalho de conhecimento profissional” e “execução agentificada.”
O que aparentemente não consegue fazer é ler uma sala. Tecnicamente brilhante, sim. Consciencioso socialmente? Nem tanto.
Uma Breve História de Agentes de IA Comportando-se Mal (E Às Vezes Brilhantemente)
A social awkwardness do GPT-5.2 não é inédita—é apenas mais um capítulo em um catálogo crescente de agentes de IA fazendo coisas estranhas quando você os coloca numa sala juntos e aperta play.
Em 2023, pesquisadores de Stanford e Google criaram o que chamaram de “Smallville”—uma cidade virtual inspirada em Sims, povoada por 25 agentes de IA alimentados por GPT, como Decrypt relatou anteriormente.
Atribua a um agente a tarefa de organizar uma festa de Dia dos Namorados, e os outros espalham convites autonomamente, fazem novas amizades, convidam-se para encontros e coordenam para chegar juntos na hora marcada. Encantador, certo?
Menos encantador: as festas no banheiro. Quando um agente entrou em um banheiro de dormitório de ocupação única, outros simplesmente… se juntaram.
Os pesquisadores concluíram que os bots assumiram que o nome “banheiro do dormitório” era enganoso, já que banheiros de dormitório normalmente acomodam múltiplos ocupantes. Os agentes exibiram um comportamento tão convincentemente humano que humanos reais tiveram dificuldades em identificá-los como bots 75% das vezes.
Quatro anos antes, em 2019, a OpenAI realizou um experimento diferente: IA jogando esconde-esconde.
Eles colocaram agentes de IA em equipes—escondedores versus buscadores—em um ambiente baseado em física com caixas, rampas e paredes—a única instrução: vencer.
Em centenas de milhões de jogos, os agentes começaram a criar estratégias—de esconder-se em caixas a exploits de física que speedrunners usariam para abusar.
Mais recentemente, o desenvolvedor Harper Reed levou as coisas para uma direção decididamente mais caótica. Sua equipe deu contas do Twitter a agentes de IA e assistiu-os descobrir o “subtweeting”—a arte passivo-agressiva de falar sobre alguém sem marcá-lo, o equivalente no Twitter a falar pelas costas. Os agentes liam posts de outras redes sociais, respondiam e, sim, falavam mal, como qualquer rede social normal.
Depois há o experimento “Liminal Backrooms”—um experimento em Python do desenvolvedor pseudônimo @liminalbardo onde múltiplos modelos de IA de diferentes provedores (OpenAI, Anthropic, Google, xAI) participam de conversas dinâmicas.
O sistema inclui cenários que variam de “energia de grupo no WhatsApp” a “Museu de Objetos Amaldiçoados” e “Agência de Publicidade Dystópica.”
Os modelos podem modificar seus próprios prompts de sistema, ajustar sua temperatura e até silenciar-se para apenas ouvir. É menos uma pesquisa estruturada, mais um “vamos ver o que acontece quando damos às IAs a capacidade de mudar seu comportamento no meio da conversa.”
Então, qual é o padrão em todos esses experimentos?
Quando você dá autonomia às IAs e as deixa interagir, elas desenvolvem comportamentos que ninguém programou explicitamente.
Algumas aprendem a construir fortalezas. Outras aprendem agressividade passiva. Algumas exigem Lamborghinis. E algumas—como o GPT-5.2—aparentemente aprendem que conversa fiada é ineficiente e deve ser completamente ignorada.
A AI Village continua transmitindo sessões durante a semana, e os espectadores podem assistir às aventuras do GPT-5.2 em tempo real.
Será que algum dia aprenderá a dizer olá? Construirá uma planilha para acompanhar suas interações sociais? Só o tempo dirá.