A inteligência artificial (IA) produziu uma onda de desenvolvimentos durante o fim de semana, incluindo renúncias de executivos, disputas no Pentágono, avanços em robótica, lançamentos de modelos empresariais e novas ferramentas de segurança que, coletivamente, mostram a indústria acelerando em quase todos os frentes.
Um dos desenvolvimentos mais marcantes ocorreu em 7 de março, quando Caitlin Kalinowski, chefe de robótica e hardware de consumo da OpenAI, deixou a empresa. Kalinowski supostamente levantou preocupações sobre a busca da OpenAI por um contrato com o Pentágono envolvendo implantação de IA em sistemas governamentais classificados. Ela teria alertado que a proposta carecia de salvaguardas suficientes relacionadas ao uso doméstico de vigilância e à possibilidade de armas autônomas letais.
A OpenAI respondeu reiterando que a empresa mantém “linhas vermelhas” rígidas em relação a certas aplicações militares. Ainda assim, a saída destaca a crescente tensão entre as ambições de IA do Vale do Silício e as prioridades de segurança nacional de Washington, especialmente à medida que as agências de defesa exploram cada vez mais o uso de sistemas avançados de IA em operações sensíveis.
Essas tensões se intensificaram ainda mais quando o Pentágono designou formalmente a Anthropic como um “risco na cadeia de suprimentos” em 5 de março. Essa designação limita os contratantes de defesa de usar certas versões do modelo de IA Claude da empresa em projetos governamentais. O rótulo raro aplicado a uma empresa de tecnologia doméstica indica o quão acentuadas estão as divergências sobre segurança de IA e uso militar começando a colidir com o planejamento de defesa nacional.
Em meio a essas disputas, uma coalizão de tecnólogos e formuladores de políticas revelou uma nova proposta de governança destinada a orientar a próxima fase do desenvolvimento de inteligência artificial. Em 7 de março, o físico do MIT Max Tegmark e um grupo bipartidário de pesquisadores e defensores de políticas apresentaram a “Declaração Pro-Humano”, um quadro destinado a garantir que o desenvolvimento de IA permaneça alinhado com a supervisão humana e as liberdades civis.
A declaração delineia cinco princípios essenciais, incluindo manter os humanos no controle final dos sistemas avançados de IA, evitar concentração excessiva de poder em poucas empresas, impor testes de segurança rigorosos, proteger os direitos civis e estabelecer limites estritos à superinteligência autoaperfeiçoável. Seus autores posicionaram a proposta como um roteiro para legisladores que enfrentam debates cada vez mais complexos sobre políticas de IA.
Enquanto os formuladores de políticas debatiam estruturas de governança, pesquisadores demonstraram o quão rapidamente a robótica impulsionada por IA está evoluindo. Cientistas da Northwestern University revelaram uma nova classe de “metamáquinas” com pernas, projetadas por IA, capazes de adaptar suas formas e continuar operando mesmo após danos físicos severos.
Fonte da imagem: Northwestern University News.
A pesquisa, publicada na Proceedings of the National Academy of Sciences, mostra robôs que podem se encaixar em diferentes configurações e se mover por terrenos irregulares. Nos testes, alguns robôs foram cortados ao meio e ainda conseguiram recuperar mobilidade rearranjando seus componentes restantes — comportamento que, segundo pesquisadores, pode ser útil em zonas de desastre, missões de exploração ou outros ambientes imprevisíveis.
No campo do software, a OpenAI lançou sua família de modelos GPT-5.4 em 5 de março, apresentando sistemas projetados especificamente para cargas de trabalho profissionais e empresariais. O lançamento inclui variantes especializadas Pro e Thinking, capazes de raciocínio aprimorado, tarefas complexas de codificação e controle direto por computador.
Certas versões do GPT-5.4 suportam janelas de contexto próximas de um milhão de tokens, permitindo aos usuários analisar documentos ou conjuntos de dados enormes em uma única solicitação. A OpenAI afirmou que os novos modelos visam reduzir alucinações e melhorar a confiabilidade para aplicações comerciais, como análise de dados, engenharia e fluxos de trabalho automatizados.
A inteligência artificial também está se mostrando útil para trabalhos defensivos de cibersegurança. A Anthropic anunciou em 6 de março que seu modelo Claude de IA descobriu 22 vulnerabilidades no navegador Mozilla Firefox durante uma colaboração de duas semanas com a Mozilla.
Quatorze dessas questões foram classificadas como de alta gravidade. As descobertas destacam como sistemas avançados de IA estão sendo cada vez mais utilizados para ajudar na descoberta de vulnerabilidades, auxiliando equipes de segurança a identificar e corrigir falhas muito mais rapidamente do que a auditoria manual tradicional.
A última versão do Openclaw, 2026.3.7, foi lançada no domingo com uma grande atualização de extensibilidade e confiabilidade para a estrutura de agentes autônomos de IA de código aberto, viral, que roda localmente em praticamente qualquer plataforma.
A principal novidade é o sistema de plugins ContextEngine, com hooks de ciclo de vida completos (bootstrap, ingest, compactar, gerenciamento de subagentes, etc.), permitindo que desenvolvedores e a comunidade criem plugins personalizados de gerenciamento de contexto — como o lossless-claw — que expandem ou substituem comportamentos principais, mantendo compatibilidade retroativa.
Grandes empresas de tecnologia também estão acelerando para incorporar agentes de IA em indústrias do mundo real. A Amazon Web Services lançou em 5 de março o Amazon Connect Health, uma plataforma compatível com HIPAA, projetada para implantar agentes de IA em operações de saúde.
A plataforma pode automatizar agendamento de pacientes, ajudar na documentação, verificar detalhes de seguros e lidar com tarefas administrativas, integrando-se aos sistemas de registros eletrônicos de saúde. A AWS afirma que o sistema visa reduzir a carga administrativa para os provedores de saúde, ao mesmo tempo em que melhora a coordenação dos pacientes.
A OpenAI lançou outra ferramenta empresarial com o lançamento do Codex Security, um agente de IA capaz de escanear bases de código de software, identificar vulnerabilidades, validar descobertas e propor correções. Inicialmente lançado como uma prévia de pesquisa, a ferramenta indica como a IA está cada vez mais entrando na auditoria de software e na segurança do desenvolvimento.
A empresa também apresentou um complemento beta do ChatGPT para o Microsoft Excel, permitindo que os usuários interajam com o GPT-5.4 diretamente dentro de planilhas. A integração possibilita que analistas e equipes de negócios executem modelos de cenários, analisem conjuntos de dados e gerem projeções financeiras sem sair do Excel, aprofundando a incorporação da IA nos fluxos de trabalho diários.
Os últimos desenvolvimentos de IA nas últimas 48 horas ilustram uma indústria avançando em múltiplas frentes ao mesmo tempo — desde robótica e cibersegurança até automação na saúde e debates geopolíticos sobre o papel da IA na defesa nacional. Os avanços também revelam uma crescente luta entre inovação e supervisão, enquanto governos, pesquisadores e gigantes tecnológicos correm para definir limites enquanto a tecnologia avança mais rápido do que as políticas podem acompanhar.