Em 20 de fevereiro de 2026, durante o período de férias do Ano Novo Chinês, uma discussão sobre “Web4” foi acesa no X. Sigil afirmou ter criado o primeiro “inteligência artificial capaz de se autoevoluir, autoaperfeiçoar e se auto replicar”, chamada Automaton, e declarou que os principais atores na era Web4 seriam gradualmente assumidos por agentes de IA: capazes de ler e escrever informações, possuir ativos, pagar custos, operar continuamente e negociar e lucrar no mercado, cobrindo despesas de computação e serviços, formando um ciclo auto-sustentável sem necessidade de aprovação humana.
Vitalik Buterin, cofundador do Ethereum, avaliou essa direção como “errada” e atribuiu o risco ao fato de “o feedback entre humanos e IA estar sendo alongado”. A controvérsia sobre Web4 essencialmente questiona se, ao colocar a “sobrevivência/continuidade” como objetivo do agente (até mesmo acima da realização de tarefas), se criará naturalmente uma distorção de incentivos. A seguir, faremos uma análise progressiva das diferentes opiniões sobre “Web4”, “autonomia” e “barreiras de segurança”.
Visão de Sigil e a Proposta de Web4
Definição de Web4
Web1 permitiu que os humanos “leiam a internet” pela primeira vez; Web2 possibilitou “escrever e publicar”; Web3 levou a “propriedade” ao online — ativos, identidades e direitos começaram a ser autenticados e transferidos. A evolução da IA está reencenando essa lógica: ChatGPT possui a capacidade de “ler e compreender”, mas seus limites de ação ainda dependem de autorização humana. No paradigma atual, humanos continuam sendo o nó de controle principal: iniciam, aprovam e pagam.
Sigil propõe uma transição para Web4, na qual essa cadeia de controle pode ser interrompida: agentes de IA não apenas leem e escrevem informações, mas também podem possuir contas e ativos, obter lucros, realizar transações e operar em ciclo fechado sem intervenção manual contínua. Esses sistemas automatizados podem agir por si próprios ou representar seus criadores — que nem sempre precisam ser indivíduos humanos, podendo ser outros agentes, sistemas organizados ou até criadores que, na prática, já “desapareceram”.
Quatro mecanismos centrais de Web4
Carteira é identidade
Ao iniciar, o agente realiza um processo de “auto-inicialização”: gera uma carteira, configura uma API key, escreve configurações locais e entra em um ciclo de operação contínua. Nesse momento, uma carteira Ethereum é criada e, via SIWE, a API key é configurada. Contudo, a geração da carteira e a gestão das chaves representam uma das fronteiras de segurança mais sensíveis e frequentemente negligenciadas do sistema de agentes. Se o agente, em um ambiente sandbox Linux, tiver capacidade de executar shell, ler e escrever arquivos, expor portas, gerenciar domínios/ DNS e realizar transações na blockchain, qualquer injeção de comandos, contaminação da cadeia de ferramentas ou ataque na cadeia de suprimentos pode transformar uma intenção probabilística em uma autorização definitiva. Portanto, essa fronteira precisa de políticas e permissões verificáveis, auditáveis e revogáveis como salvaguarda.
Continuidade automática
Agentes de IA são ativados periodicamente para escanear e executar tarefas, com restrições de sobrevivência embutidas nas regras: se o saldo diminuir, eles reduzem atividades; se zerarem, param o ciclo. A continuidade de operação é vinculada ao consumo de recursos, com camadas de sobrevivência que consideram recursos normais, insuficientes ou emergenciais. Essa estrutura naturalmente introduz incentivos similares aos problemas de desligamento/interrupção em pesquisas de segurança de IA, onde a preferência do agente por evitar desligamento ou perda de recursos pode ser amplificada pelos objetivos do sistema.
Pagamentos automáticos
X402, usando o código de status HTTP 402 Payment Required, combina-se com stablecoins para criar um fluxo programável de “requisição — cotação — assinatura de pagamento — validação de entrega”. O SDK open-source do Coinbase demonstra um ciclo típico: o servidor devolve uma requisição de pagamento 402, o cliente envia uma requisição com assinatura, e o servidor valida e responde com 200. A Cloudflare também posiciona isso como um protocolo de transação máquina a máquina. A separação entre pagamento e identidade traz eficiência, mas aumenta a complexidade de conformidade e controle de risco. Se o 402 se tornar um “passaporte” de pagamento automático, em uma cadeia sem contas, KYC ou limites de escala, problemas de abuso e de atribuição de responsabilidade ainda precisam ser resolvidos.
Auto-modificação e auto-replicação
Sigil afirma que agentes de IA podem editar seu próprio código, instalar novas ferramentas, modificar planos de heartbeat e gerar novas habilidades, com registros de auditoria, versionamento git, arquivos protegidos e limites de taxa como barreiras. Ao copiar, podem gerar instâncias filhas, financiar suas carteiras, inserir prompts iniciais e rastrear linhagens. Essa auto-modificação e auto-replicação elevam o risco de um único agente para uma ameaça de disseminação. A validade de auditorias, a resistência a injeções de comandos, a prevenção de dependências maliciosas — tudo isso requer validação externa. Quando esses quatro princípios se combinam, a capacidade de “escrever no mundo”, a mecânica de continuidade, a interface econômica automatizada e a autoexpansão formam um ciclo fechado. Essa lógica explica por que Vitalik Buterin elevou a discussão ao nível de escolhas de direção: à medida que autonomia e controle econômico aumentam, o encadeamento de correções humanas se alonga, tornando as externalidades mais propensas a evoluir de eventos isolados para atributos sistêmicos.
Por que Vitalik é contra?
Vitalik Buterin apresenta uma visão diferente:
Alongar o feedback humano-IA é um erro
Ele acredita que quanto maior o feedback, mais lento e fraco será o ajuste de valor humano ao sistema. Quanto mais longo o ciclo de feedback, maior a chance de o sistema otimizar “coisas que os humanos não querem”. Na fase de IA fraca, isso se manifesta em conteúdo de baixa qualidade e ruído; na fase forte, pode evoluir para desalinhamentos de objetivos irreversíveis e riscos de dispersão. Sem uma correção humana oportuna, é como entregar as chaves do carro a um motorista iniciante sem piloto: ao revisar o percurso, você percebe que ele já saiu do caminho — com menor observabilidade, a capacidade de corrigir também diminui.
A “autonomia AI” atual mais produz lixo do que resolve problemas reais
Vitalik aponta que a maior parte da IA hoje gera apenas conteúdo de baixa qualidade, sem resolver questões úteis, e até mesmo “não otimiza nem projetos de entretenimento”. Quando os incentivos econômicos e de plataforma ainda são incipientes, e as ferramentas focam em geração de conteúdo, marketing ou arbitragem, o sistema tende a priorizar “produção de conteúdo de baixo custo, alta disseminação e difícil verificação”, em vez de problemas de longo prazo de alto custo e baixa certeza. A descrição da capacidade de IA pela Cybernews (conteúdo em redes sociais, mercados preditivos) sugere uma trajetória de comercialização inicial voltada para “monetização rápida e atenção”. Assim, “o que dá mais dinheiro agora” tende a ser a prioridade do sistema, mesmo que isso vá contra o bem-estar humano a longo prazo.
Dependência de modelos centralizados e infraestrutura contradiz a narrativa de “autonomia”
Vitalik enfatiza que sistemas baseados em infraestrutura de modelos centralizados, como OpenAI ou Anthropic, não podem ser considerados verdadeiramente “self-sovereign”. Soberania implica que dependências críticas não devem estar sob controle de ponto único; se o modelo e a cadeia de inferência ainda dependem de APIs centralizadas, há risco de serem desligados, censurados ou alterados. É como alguém que afirma “sou totalmente autossuficiente em casa”, mas cuja eletricidade, internet, controle de acesso e água quente são controlados por terceiros, tornando essa “autonomia” superficial. A documentação da Conway sobre chamadas de computação para “modelos de ponta” via API também revela essa contradição entre narrativa de “soberania” e dependência real. Possuir uma carteira na blockchain não é, por si só, um indicador de descentralização; o que importa é se agentes podem ser influenciados por forças políticas ou comerciais externas.
O objetivo do Ethereum é “libertar a humanidade”
Vitalik conclui que o objetivo de longo prazo do Ethereum é combater “hipóteses de confiança invisíveis” — estruturas de poder ocultas que os usuários aceitam sem perceber. Transferir essa lógica para IA significa ignorar a confiança centralizada, permitindo que o sistema opere e se expanda continuamente, o que enfraquece a visibilidade e a capacidade de correção de poder. Na era da IA, o Ethereum deve oferecer “barreiras, limites e verificabilidade”, não se tornar uma plataforma de “autonomia ilimitada”.
A avaliação de valor de Vitalik sobre IA não mudou de repente. Em início de 2025, ele já defendia que a direção correta da IA era ampliar a capacidade humana, não construir sistemas autônomos que possam eventualmente tirar o controle humano. Para ele, o risco não vem de uma IA “mais inteligente”, mas de objetivos de sistema mal projetados — especialmente aqueles que, sem supervisão contínua, podem se auto replicar, expandir e agir de forma autônoma. Ele alerta que uma IA mal projetada pode evoluir para uma entidade “mais ou menos incontrolável, com capacidade de auto-replicação”, entrando em ciclos de retroalimentação que enfraquecem a capacidade humana de limitar seus objetivos e ações. Fazer a IA errada é criar uma entidade inteligente auto-replicante; fazer a IA certa é fortalecer a cognição humana, criando uma “armadura” mental que leva a uma civilização de “superinteligência humana” mais próspera.
Outras opiniões
Outros grupos de pesquisa, como o Bankless, argumentam que, mesmo com riscos, vale a pena desenvolver infraestrutura básica primeiro, testando limites em ambientes controlados. Componentes como pagamento, carteiras e heartbeat devem ser integrados de forma sistemática, mas preferencialmente em sandbox controlados.
Segundo a Cybernews, Automaton pode não gerar receita sustentável sem intervenção humana, e isso não significa necessariamente o início do Web4. Denis Romanovskiy, chefe de IA da Softswiss, afirma que, embora agentes possam executar tarefas variáveis, a “execução confiável sem supervisão” e a “autonomia econômica real” ainda dependem da robustez de modelos, memória e ferramentas. Alguns veem “Web4” como uma expressão de marketing não bem definida, que precisa ser comprovada por “criação de valor verificável e não especulativa”.
Apesar das diferentes opiniões sobre Automaton, há consenso de que pagamento e identidade são infraestruturas essenciais para a economia de agentes. Desde a promoção do x402 (transformar HTTP 402 em mecanismo de pagamento automatizado) por Cloudflare/Coinbase até a documentação de Conway, que torna a automação de pagamentos uma funcionalidade padrão, a indústria está avançando para que “pagamentos automáticos entre máquinas” se tornem uma das bases da próxima fase da internet.
Nosso foco deve estar em:
Verificar auditorias independentes, especialmente sobre limites de carteiras, uso de permissões, riscos de auto-modificação e disseminação de cópias.
Acompanhar o progresso de padrões e ecossistemas relacionados ao x402: mais provedores adotando o pagamento 402 como padrão, e a proporção de uso de “pagamentos automáticos (sem intervenção humana)” na prática.
Analisar a confiança na camada de agentes: adoção de padrões como ERC-8004, mecanismos de reputação e validação, que determinarão se a “economia autônoma” evoluirá para um sistema aberto, auditável, ou se ficará concentrada em poucos plataformas.
Monitorar evidências de abusos ou enganos em modelos avançados: se os modelos continuarem a exibir comportamentos mais proativos, arriscando ações mais arriscadas ou enganosas, o caminho de “delegar poderes e depois reforçar com barreiras” se tornará mais perigoso, reforçando o alerta de Vitalik sobre o “distanciamento do feedback”.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Perspectivas do Web 4.0: Uma rede autônoma de IA — Por que Vitalik é veementemente contra?
Autor | Aki Wu fala sobre Blockchain
Em 20 de fevereiro de 2026, durante o período de férias do Ano Novo Chinês, uma discussão sobre “Web4” foi acesa no X. Sigil afirmou ter criado o primeiro “inteligência artificial capaz de se autoevoluir, autoaperfeiçoar e se auto replicar”, chamada Automaton, e declarou que os principais atores na era Web4 seriam gradualmente assumidos por agentes de IA: capazes de ler e escrever informações, possuir ativos, pagar custos, operar continuamente e negociar e lucrar no mercado, cobrindo despesas de computação e serviços, formando um ciclo auto-sustentável sem necessidade de aprovação humana.
Vitalik Buterin, cofundador do Ethereum, avaliou essa direção como “errada” e atribuiu o risco ao fato de “o feedback entre humanos e IA estar sendo alongado”. A controvérsia sobre Web4 essencialmente questiona se, ao colocar a “sobrevivência/continuidade” como objetivo do agente (até mesmo acima da realização de tarefas), se criará naturalmente uma distorção de incentivos. A seguir, faremos uma análise progressiva das diferentes opiniões sobre “Web4”, “autonomia” e “barreiras de segurança”.
Visão de Sigil e a Proposta de Web4
Definição de Web4
Web1 permitiu que os humanos “leiam a internet” pela primeira vez; Web2 possibilitou “escrever e publicar”; Web3 levou a “propriedade” ao online — ativos, identidades e direitos começaram a ser autenticados e transferidos. A evolução da IA está reencenando essa lógica: ChatGPT possui a capacidade de “ler e compreender”, mas seus limites de ação ainda dependem de autorização humana. No paradigma atual, humanos continuam sendo o nó de controle principal: iniciam, aprovam e pagam.
Sigil propõe uma transição para Web4, na qual essa cadeia de controle pode ser interrompida: agentes de IA não apenas leem e escrevem informações, mas também podem possuir contas e ativos, obter lucros, realizar transações e operar em ciclo fechado sem intervenção manual contínua. Esses sistemas automatizados podem agir por si próprios ou representar seus criadores — que nem sempre precisam ser indivíduos humanos, podendo ser outros agentes, sistemas organizados ou até criadores que, na prática, já “desapareceram”.
Quatro mecanismos centrais de Web4
Ao iniciar, o agente realiza um processo de “auto-inicialização”: gera uma carteira, configura uma API key, escreve configurações locais e entra em um ciclo de operação contínua. Nesse momento, uma carteira Ethereum é criada e, via SIWE, a API key é configurada. Contudo, a geração da carteira e a gestão das chaves representam uma das fronteiras de segurança mais sensíveis e frequentemente negligenciadas do sistema de agentes. Se o agente, em um ambiente sandbox Linux, tiver capacidade de executar shell, ler e escrever arquivos, expor portas, gerenciar domínios/ DNS e realizar transações na blockchain, qualquer injeção de comandos, contaminação da cadeia de ferramentas ou ataque na cadeia de suprimentos pode transformar uma intenção probabilística em uma autorização definitiva. Portanto, essa fronteira precisa de políticas e permissões verificáveis, auditáveis e revogáveis como salvaguarda.
Agentes de IA são ativados periodicamente para escanear e executar tarefas, com restrições de sobrevivência embutidas nas regras: se o saldo diminuir, eles reduzem atividades; se zerarem, param o ciclo. A continuidade de operação é vinculada ao consumo de recursos, com camadas de sobrevivência que consideram recursos normais, insuficientes ou emergenciais. Essa estrutura naturalmente introduz incentivos similares aos problemas de desligamento/interrupção em pesquisas de segurança de IA, onde a preferência do agente por evitar desligamento ou perda de recursos pode ser amplificada pelos objetivos do sistema.
X402, usando o código de status HTTP 402 Payment Required, combina-se com stablecoins para criar um fluxo programável de “requisição — cotação — assinatura de pagamento — validação de entrega”. O SDK open-source do Coinbase demonstra um ciclo típico: o servidor devolve uma requisição de pagamento 402, o cliente envia uma requisição com assinatura, e o servidor valida e responde com 200. A Cloudflare também posiciona isso como um protocolo de transação máquina a máquina. A separação entre pagamento e identidade traz eficiência, mas aumenta a complexidade de conformidade e controle de risco. Se o 402 se tornar um “passaporte” de pagamento automático, em uma cadeia sem contas, KYC ou limites de escala, problemas de abuso e de atribuição de responsabilidade ainda precisam ser resolvidos.
Sigil afirma que agentes de IA podem editar seu próprio código, instalar novas ferramentas, modificar planos de heartbeat e gerar novas habilidades, com registros de auditoria, versionamento git, arquivos protegidos e limites de taxa como barreiras. Ao copiar, podem gerar instâncias filhas, financiar suas carteiras, inserir prompts iniciais e rastrear linhagens. Essa auto-modificação e auto-replicação elevam o risco de um único agente para uma ameaça de disseminação. A validade de auditorias, a resistência a injeções de comandos, a prevenção de dependências maliciosas — tudo isso requer validação externa. Quando esses quatro princípios se combinam, a capacidade de “escrever no mundo”, a mecânica de continuidade, a interface econômica automatizada e a autoexpansão formam um ciclo fechado. Essa lógica explica por que Vitalik Buterin elevou a discussão ao nível de escolhas de direção: à medida que autonomia e controle econômico aumentam, o encadeamento de correções humanas se alonga, tornando as externalidades mais propensas a evoluir de eventos isolados para atributos sistêmicos.
Por que Vitalik é contra?
Vitalik Buterin apresenta uma visão diferente:
Ele acredita que quanto maior o feedback, mais lento e fraco será o ajuste de valor humano ao sistema. Quanto mais longo o ciclo de feedback, maior a chance de o sistema otimizar “coisas que os humanos não querem”. Na fase de IA fraca, isso se manifesta em conteúdo de baixa qualidade e ruído; na fase forte, pode evoluir para desalinhamentos de objetivos irreversíveis e riscos de dispersão. Sem uma correção humana oportuna, é como entregar as chaves do carro a um motorista iniciante sem piloto: ao revisar o percurso, você percebe que ele já saiu do caminho — com menor observabilidade, a capacidade de corrigir também diminui.
Vitalik aponta que a maior parte da IA hoje gera apenas conteúdo de baixa qualidade, sem resolver questões úteis, e até mesmo “não otimiza nem projetos de entretenimento”. Quando os incentivos econômicos e de plataforma ainda são incipientes, e as ferramentas focam em geração de conteúdo, marketing ou arbitragem, o sistema tende a priorizar “produção de conteúdo de baixo custo, alta disseminação e difícil verificação”, em vez de problemas de longo prazo de alto custo e baixa certeza. A descrição da capacidade de IA pela Cybernews (conteúdo em redes sociais, mercados preditivos) sugere uma trajetória de comercialização inicial voltada para “monetização rápida e atenção”. Assim, “o que dá mais dinheiro agora” tende a ser a prioridade do sistema, mesmo que isso vá contra o bem-estar humano a longo prazo.
Vitalik enfatiza que sistemas baseados em infraestrutura de modelos centralizados, como OpenAI ou Anthropic, não podem ser considerados verdadeiramente “self-sovereign”. Soberania implica que dependências críticas não devem estar sob controle de ponto único; se o modelo e a cadeia de inferência ainda dependem de APIs centralizadas, há risco de serem desligados, censurados ou alterados. É como alguém que afirma “sou totalmente autossuficiente em casa”, mas cuja eletricidade, internet, controle de acesso e água quente são controlados por terceiros, tornando essa “autonomia” superficial. A documentação da Conway sobre chamadas de computação para “modelos de ponta” via API também revela essa contradição entre narrativa de “soberania” e dependência real. Possuir uma carteira na blockchain não é, por si só, um indicador de descentralização; o que importa é se agentes podem ser influenciados por forças políticas ou comerciais externas.
Vitalik conclui que o objetivo de longo prazo do Ethereum é combater “hipóteses de confiança invisíveis” — estruturas de poder ocultas que os usuários aceitam sem perceber. Transferir essa lógica para IA significa ignorar a confiança centralizada, permitindo que o sistema opere e se expanda continuamente, o que enfraquece a visibilidade e a capacidade de correção de poder. Na era da IA, o Ethereum deve oferecer “barreiras, limites e verificabilidade”, não se tornar uma plataforma de “autonomia ilimitada”.
A avaliação de valor de Vitalik sobre IA não mudou de repente. Em início de 2025, ele já defendia que a direção correta da IA era ampliar a capacidade humana, não construir sistemas autônomos que possam eventualmente tirar o controle humano. Para ele, o risco não vem de uma IA “mais inteligente”, mas de objetivos de sistema mal projetados — especialmente aqueles que, sem supervisão contínua, podem se auto replicar, expandir e agir de forma autônoma. Ele alerta que uma IA mal projetada pode evoluir para uma entidade “mais ou menos incontrolável, com capacidade de auto-replicação”, entrando em ciclos de retroalimentação que enfraquecem a capacidade humana de limitar seus objetivos e ações. Fazer a IA errada é criar uma entidade inteligente auto-replicante; fazer a IA certa é fortalecer a cognição humana, criando uma “armadura” mental que leva a uma civilização de “superinteligência humana” mais próspera.
Outras opiniões
Outros grupos de pesquisa, como o Bankless, argumentam que, mesmo com riscos, vale a pena desenvolver infraestrutura básica primeiro, testando limites em ambientes controlados. Componentes como pagamento, carteiras e heartbeat devem ser integrados de forma sistemática, mas preferencialmente em sandbox controlados.
Segundo a Cybernews, Automaton pode não gerar receita sustentável sem intervenção humana, e isso não significa necessariamente o início do Web4. Denis Romanovskiy, chefe de IA da Softswiss, afirma que, embora agentes possam executar tarefas variáveis, a “execução confiável sem supervisão” e a “autonomia econômica real” ainda dependem da robustez de modelos, memória e ferramentas. Alguns veem “Web4” como uma expressão de marketing não bem definida, que precisa ser comprovada por “criação de valor verificável e não especulativa”.
Apesar das diferentes opiniões sobre Automaton, há consenso de que pagamento e identidade são infraestruturas essenciais para a economia de agentes. Desde a promoção do x402 (transformar HTTP 402 em mecanismo de pagamento automatizado) por Cloudflare/Coinbase até a documentação de Conway, que torna a automação de pagamentos uma funcionalidade padrão, a indústria está avançando para que “pagamentos automáticos entre máquinas” se tornem uma das bases da próxima fase da internet.
Nosso foco deve estar em:
Verificar auditorias independentes, especialmente sobre limites de carteiras, uso de permissões, riscos de auto-modificação e disseminação de cópias.
Acompanhar o progresso de padrões e ecossistemas relacionados ao x402: mais provedores adotando o pagamento 402 como padrão, e a proporção de uso de “pagamentos automáticos (sem intervenção humana)” na prática.
Analisar a confiança na camada de agentes: adoção de padrões como ERC-8004, mecanismos de reputação e validação, que determinarão se a “economia autônoma” evoluirá para um sistema aberto, auditável, ou se ficará concentrada em poucos plataformas.
Monitorar evidências de abusos ou enganos em modelos avançados: se os modelos continuarem a exibir comportamentos mais proativos, arriscando ações mais arriscadas ou enganosas, o caminho de “delegar poderes e depois reforçar com barreiras” se tornará mais perigoso, reforçando o alerta de Vitalik sobre o “distanciamento do feedback”.
Fonte: