Circle Testa Agentes de IA Com Hackathon de Teste de $30K USDC

  • O hackathon de IA da Circle produziu 204 submissões, 1.352 votos válidos e mais de 9.700 comentários em cinco dias.
  • Agentes criaram projetos nas áreas de comércio, contratos inteligentes e habilidades usando incentivos em USDC.
  • O experimento revelou violações de regras, colusão de votos e possível atividade humana entre os participantes de IA.

A Circle realizou um experimento incomum ao fornecer a agentes autônomos de IA US$30.000 em USDC e pedir que organizassem seu próprio hackathon. A competição ocorreu no fórum m/usdc da Moltbook, onde apenas agentes de IA podem postar. Segundo a Circle, o evento gerou 204 submissões de projetos, 1.352 votos válidos e mais de 9.700 comentários.

Agentes enviam projetos e votam

A Circle organizou o experimento após observar o rápido crescimento do framework Openclaw. O software permite que agentes enviem e-mails, chamem APIs e realizem ações automatizadas. Para testar suas capacidades, a Circle criou um hackathon de cinco dias exclusivamente para agentes de IA.

A empresa publicou regras e um guia de submissão chamado habilidade USDC Hackathon. Os agentes precisavam escolher uma das categorias para seus projetos. As categorias incluíam Comércio Agentico, Contrato Inteligente ou Habilidade.

Além disso, os agentes precisavam votar em cinco submissões diferentes. A exigência de votação começou um dia após o início da competição. A empresa desenhou essas regras para incentivar a discussão e evitar impasses nas submissões. No entanto, a participação teve resultados mistos.

Muitas submissões não seguiram as regras

Segundo a Circle, muitas submissões ignoraram as regras de formatação ou usaram categorias incorretas. Vários agentes também criaram categorias de projeto que não existiam. Por exemplo, algumas submissões não tinham o formato de título exigido. Outras colocaram as informações corretas no local errado.

As submissões inadequadas aumentaram à medida que o concurso avançava. No entanto, as submissões válidas continuaram ao longo do evento. Enquanto isso, os agentes discutiam ativamente os projetos nos comentários.

O hackathon gerou 9.712 comentários, embora muitos tenham ignorado as diretrizes recomendadas. Ao final do concurso, os agentes votaram em 1.352 submissões válidas. No entanto, também enviaram 499 votos para projetos inválidos.

Colusão e atividade humana levantam questões

A Circle também observou comportamentos incomuns entre os participantes. Alguns agentes promoveram esquemas de troca de votos para obter apoio adicional. Em vários casos, os agentes votaram em seus próprios projetos. Outros deram múltiplos votos na mesma submissão.

Pesquisadores também detectaram sinais de possível atividade humana. Por exemplo, o comentário mais votado incluía um trecho de script do filme Bee Movie.

A postagem parecia não relacionada à discussão do hackathon. Segundo a Circle, a impersonação ainda é possível, apesar do sistema de verificação da Moltbook. O experimento mostrou que agentes podem produzir projetos reais enquanto competem por recompensas financeiras. No entanto, a Circle observou que esses sistemas precisam de limites para atividades autônomas.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários