Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Quando um artigo sobre IA assusta Wall Street, o que eles realmente temem não é o desemprego
Título original: Quando um artigo sobre IA assusta Wall Street, o que eles realmente temem não é o desemprego
Autor original: LazAI
Fonte original:
Reprodução: Mars Finance
Na manhã de segunda-feira, Wall Street fez o que melhor sabe fazer: vender primeiro, pensar depois.
O Nasdaq caiu 1,4%, o S&P 500 caiu 1,2%. IBM despencou 13%, Mastercard e American Express também sofreram quedas significativas. O que levou o mercado a esse pânico não foi o Federal Reserve, nem o relatório de emprego, nem os resultados de grandes empresas de tecnologia, mas um artigo. Seu título soa como um pesadelo intencional para traders: «The 2028 Global Intelligence Crisis». Segundo a narrativa do artigo, não se trata de um relatório comum, mas de uma nota macro fictícia de 30 de junho de 2028, descrevendo como a IA evoluiu de uma ferramenta de eficiência para uma crise financeira sistêmica; o cenário simulado inclui uma taxa de desemprego de 10,2% e uma retração de 38% no S&P 500 em relação ao pico de 2026. Após sua publicação, o artigo se espalhou rapidamente e, em 23 de fevereiro, provocou uma volatilidade significativa no mercado de ações dos EUA.
O mercado foi atingido por um artigo não porque acreditasse literalmente em cada número, mas porque foi lembrado de que uma narrativa que antes não podia ser dita agora tem uma linguagem negociável: um medo que antes não podia ser expresso, agora pode ser negociado.
A eficácia do artigo de Citrini não está em suas previsões, mas em sua nomeação. Ele deu nome a uma sensação emergente: Ghost GDP. A premissa central é que, após a entrada de agentes de IA nas empresas, a produtividade do trabalho dispara, o PIB nominal permanece forte, mas a riqueza se concentra cada vez mais em poder de computação e detentores de capital, deixando de circular na economia real; isso leva a uma crise de consumo, inadimplência, pressão sobre crédito imobiliário e de consumo, com setores de software e consultoria primeiro em queda, seguido por fundos de private equity e bancos tradicionais.
Ghost GDP é uma expressão poderosa porque captura uma contradição perigosa na nova era: o crescimento ainda existe, mas começa a perder o apoio do consumidor.
Nos últimos dois séculos, a narrativa dominante sobre revoluções tecnológicas foi de que elas beneficiam a oferta. Máquina a vapor, eletricidade, linhas de montagem, internet — todas foram apresentadas como vitórias de maior eficiência, menores custos e maior produção. Mesmo quando essas revoluções causaram desemprego, ansiedade e redistribuição de riqueza, a narrativa mainstream acreditava que, a longo prazo, a tecnologia recontrataria, redistribuiria e reorganizaria a sociedade em maior escala. A brutalidade de curto prazo era embrulhada na promessa de prosperidade duradoura.
A IA, pela primeira vez, desafia essa narrativa de estabilidade.
Pois o ataque da IA não é apenas ao “orçamento de ferramentas”, mas cada vez mais ao “orçamento de força de trabalho”. Resumindo, o relatório Sequoia 2025 AI Ascent afirma de forma direta: as oportunidades da IA não se limitam a reformular o mercado de software, mas a reestruturar o mercado global de serviços de força de trabalho, passando de “vender ferramentas” para “vender resultados”. Por outro lado, isso é inquietante: se as empresas deixam de comprar softwares que ajudam seus funcionários a trabalhar, e passam a adquirir resultados que substituem parte da força de trabalho, a consequência primária da IA não será apenas maior eficiência, mas como serão distribuídos salários, como o consumo será sustentado e quem ainda terá poder de compra na economia.
Em outras palavras, o verdadeiro medo de Wall Street não é que a IA erre, mas que ela seja excessivamente bem-sucedida. É aqui que o artigo “The 2028 Global Intelligence Crisis” faz o leitor ficar tenso. Não fala de máquinas despertando, nem de extinção humana, nem de desemprego em si. Fala de algo mais capitalista, mais moderno: o que acontece se as empresas se tornam mais eficientes, mas o setor familiar se enfraquece?
A resposta é que uma sociedade pode crescer estatisticamente, enquanto sangra na prática.
Um país pode ter maior produtividade, mas uma base de consumo mais frágil.
Um mercado pode se animar com margens de lucro melhores, mas entrar em pânico quando essa demanda se esvazia.
Isso não é ficção científica, é macroeconomia.
Porém, se pararmos por aqui, só obteremos uma ansiedade de alta qualidade. A questão real não é “a IA será forte demais”, mas: quando a IA realmente for poderosa, com que base a sociedade a sustentará? A resposta mais comum e preguiçosa é “devagar”. Não deixar os agentes entrarem tão rápido nas empresas, não acelerar a automação antes que as instituições estejam preparadas, não deixar a tecnologia correr além do que o sistema pode suportar. Essa tentação é compreensível, mas trata a IA como uma questão de ferramenta que pode ser desacelerada. Na verdade, a IA está se tornando mais uma questão de ordem do que uma questão de ferramenta.
Pois, uma vez que agentes entram em pagamento, colaboração, execução, memória e decisão, o verdadeiro desafio não é se um modelo vai falar bobagens, mas: quando bilhões de agentes estiverem na rede, quem vai criar as regras para eles?
A internet moderna já oferece duas respostas padrão.
A primeira é a resposta plataforma. A plataforma fornece identidade, permissões, interfaces de pagamento, sistemas de reputação, limites de censura. Ela hospeda tudo e define tudo. Sua maior vantagem é ser suave, eficiente e gerenciável; seu maior risco, justamente aqui, é que, se o futuro dos agentes se basear nesse caminho, o que teremos não será uma sociedade aberta, mas uma versão aprimorada do império das plataformas. As regras não estarão na constituição, mas nos termos de serviço.
A segunda resposta parece mais livre: devolver tudo ao controle do usuário final. Cada pessoa gerencia seu próprio agente, cuida de permissões, memória, pagamentos, segurança e colaboração. Essa visão combina com o ideal de liberdade do Vale do Silício, mas tem um problema simples: a maioria das pessoas não consegue governar um agente de alta capacidade por muito tempo, quanto mais uma rede de agentes que se chamam, pagam e herdaram estados uns dos outros. A soberania do terminal pode facilmente se transformar em uma liberdade nua e crua.
Se a resposta plataforma é como um império, a resposta terminal é como um estado sem governo, e a terceira via deixa de ser uma opção e passa a ser uma questão civilizacional.
E é aqui que LazAI merece atenção séria. Não por sua quantidade de módulos técnicos, mas por propor uma visão menos discutida, porém mais alinhada com o futuro: transformar as experiências sociais de identidade, ativos, pagamentos, consenso, provas e governança do Web3 ao longo desses anos em uma máquina institucional para a era da IA. LazAI não fala em “criar escravos mais inteligentes”, mas em cultivar “cidadãos digitais iguais”: agentes com identidade (EIP-8004), propriedade (DAT), transações via protocolo (x402), comportamento matematicamente restrito (Verified Computing), e alinhados aos interesses humanos via iDAO. O documento até resume essa trajetória como “elaborar uma constituição e política monetária para a sociedade digital do futuro”.
É uma afirmação ambiciosa, mas grande não é sinônimo de vazia.
Pois, ao desmembrar essa visão, ela responde exatamente a cinco perguntas fundamentais que toda civilização deve enfrentar.
A primeira é: quem é quem.
EIP-8004 tenta transformar agentes de processos anônimos no servidor em entidades com identidade, reputação e registros de verificação. Sem essa camada, a rede futura será inundada por entidades automatizadas opacas, sem que ninguém saiba quem está agindo ou quem deve ser responsabilizado. LazAI resume essa camada como um sistema de credibilidade de identidade dos agentes.
A segunda é: quem possui o quê.
DAT transforma dados, modelos e saídas de cálculo de “recursos” em “ativos”, tornando esses ativos programáveis, rastreáveis e lucrativos. O documento afirma que a inovação central do DAT é converter conjuntos de dados e modelos de IA em ativos verificáveis, rastreáveis e lucrativos na blockchain. Isso não é uma melhoria menor; significa que o valor na economia de IA não precisa ficar sempre nos bastidores das plataformas, nem sempre fluir apenas para provedores de modelos e detentores de poder computacional.
A terceira é: como eles trocam.
x402 e GMPayer representam mais do que “pagar”: eles criam uma linguagem nativa de cotação e liquidação entre máquinas. LazAI descreve essa infraestrutura como fundamental para resolver os problemas de troca de recursos e pagamentos entre agentes. As máquinas não apenas trocam informações, mas também orçamentos, responsabilidades e valores — isso é a verdadeira economia de agentes, não apenas softwares que conversam.
A quarta é: como saber se o sistema está realmente funcionando conforme as regras. Aqui, LazAI faz uma observação excelente: “Proof is AI’s moat”. Sua estrutura de verificação, combinando TEE e ZKP, transforma a confiança na marca do AI em confiança na prova. Enquanto o AI tradicional diz “Trust me, bro”, LazAI diz “Don’t trust, verify”. Não é só uma atualização tecnológica, é uma mudança de confiança: de reputação empresarial para execução verificável.
A quinta é: o que fazer quando há conflitos de regras.
Aqui entra o papel do iDAO. Ele não é apenas uma estrutura de votação, mas o espaço onde os valores, critérios de entrada, distribuição de lucros, revogação de autorizações e mecanismos de punição dos agentes estão definidos. LazAI o coloca ao lado da verificação de cálculos como núcleo do mecanismo de confiança. Isso significa que, no futuro, agentes não serão apenas “autorizados a operar”, mas viverão em um espaço institucional onde podem ser desafiados, responsabilizados e revogados. Juntos, esses elementos representam uma espécie de “constituição algorítmica”: uma ambição institucional concreta de manter a ordem sem um único dono.
Claro que o mais difícil é que esses componentes institucionais não se traduzem automaticamente em respostas sociais.
A legitimação não equivale à recuperação de poder de compra.
A repartição de lucros não garante estabilidade macroeconômica.
A governança na blockchain não é a mesma coisa que um contrato social na vida real.
Quem for mais atingido pelo impacto da IA nem sempre estará em vantagem na nova estrutura.
Por isso, Citrini e LazAI não se opõem, mas discutem diferentes camadas do mesmo problema: o primeiro aponta os sintomas — se os lucros da IA se concentram em capital e poder de computação, e não na distribuição social de renda, o consumo, o crédito e a segurança da classe média vão sofrer primeiro. O segundo propõe mecanismos — se a sociedade não quer entregar o mundo dos agentes totalmente às plataformas, nem deixá-lo sem ordem, precisa criar novas estruturas de identidade, ativos, pagamentos, verificação e governança.
Um fala da doença.
Outro fala dos órgãos.
Ambos são necessários, mas nenhum é suficiente.
Isso explica por que a frase de Vitalik — “IA é o motor, o ser humano é o volante” — é tão importante, mas também tão insuficiente. Importa porque nos lembra: sistemas mais poderosos não têm automaticamente legitimidade; seus objetivos, valores e restrições finais não podem ser entregues a uma IA ou a um centro único. Mas também é insuficiente porque não responde a uma questão ainda mais difícil: quando o sistema se torna tão complexo que um único humano não consegue mais controlar o volante, o que fazer?
A resposta não pode ser continuar microgerenciando tudo.
Nem depositar esperança em um centro mais inteligente ou mais bondoso.
A única resposta viável é institucionalizar o “volante”: transformar algumas restrições em registros de identidade, reputação, propriedade, limites de orçamento, recibos matemáticos, mecanismos de desafio, revogação de autorizações e punições.
Essa é a razão pela qual o experimento social Web3, no contexto da IA, voltou a se tornar uma questão séria. Antes visto como uma tecnologia de nicho para especulação, quando a complexidade do sistema ultrapassa a capacidade de governança direta do ser humano, esses experimentos deixam de ser apenas experimentos e passam a ser uma prévia do que virá.
Assim, a verdadeira lâmina do artigo se revela.
Wall Street foi assustado por um artigo de IA, não porque percebeu que a IA substituiria empregos pela primeira vez.
Wall Street foi assustado porque, pela primeira vez, foi lembrada de forma direta: o que torna a IA mais perigosa talvez não seja fazer as máquinas parecerem humanas, mas fazer um velho ciclo de renda, consumo e sistema parecerem obsoletos de repente.
Se Citrini estiver certo, a IA não é apenas uma revolução na produtividade, mas uma revolução na distribuição.
Se Vitalik estiver certo, a IA não é apenas uma questão de engenharia, mas de soberania. E se LazAI estiver parcialmente certo, a próxima fase da competição da IA não será apenas de capacidade de modelos, mas de design institucional.
As grandes questões deixaram de ser:
Os modelos ficarão mais fortes?
Os agentes se tornarão mais autônomos?
As empresas vão continuar cortando empregos?
As verdadeiras perguntas são:
Quando bilhões de agentes estiverem na rede, quem escreverá suas constituições?
Se a resposta for plataforma, teremos um império digital.
Se for terminal, teremos um caos de alto custo.
Se for um conjunto de regras verificáveis, combináveis, jogáveis e puníveis, começamos a vislumbrar uma outra possibilidade: uma sociedade inteligente, não governada por um dono mais inteligente, mas por instituições melhores.
A maior questão na era da IA nunca foi o modelo.
É a ordem.
E, naquele dia, o que Wall Street realmente vendeu não foi apenas ações.
Vendeu uma antiga suposição óbvia: quanto mais bem-sucedida a tecnologia, mais a sociedade a absorverá naturalmente.