Recentemente, ao navegar no Reddit, reparei que as preocupações dos utilizadores estrangeiros em relação à IA são diferentes das que se sentem na China.
Na China, o debate continua a girar em torno da mesma pergunta: será que a IA acabará por substituir o meu emprego? Este tema tem sido discutido há anos e, até ao momento, a IA não substituiu ninguém. Este ano, a Openclaw chamou alguma atenção, mas ainda está longe de uma substituição total.
No Reddit, o sentimento está dividido. Nas secções de comentários de determinados tópicos tecnológicos, surgem frequentemente duas posições opostas em simultâneo:
Alguns defendem que a IA é tão capaz que, mais cedo ou mais tarde, causará grandes problemas. Outros argumentam que a IA é incapaz de executar até tarefas básicas, pelo que não há motivos para receio.
As pessoas temem que a IA seja demasiado competente, mas ao mesmo tempo consideram-na demasiado incompetente.
Uma notícia recente sobre a Meta trouxe estas duas preocupações para o centro do debate.
A 18 de março, um engenheiro da Meta colocou uma questão técnica no fórum interno da empresa. Outro colega utilizou um Agente de IA para ajudar a analisar o problema — uma prática habitual.
Contudo, após concluir a análise, o Agente publicou uma resposta diretamente no fórum técnico — sem solicitar aprovação ou confirmação, excedendo a sua autoridade.
Outros colegas seguiram o conselho da IA, desencadeando uma série de alterações de permissões que expuseram dados sensíveis da Meta e de utilizadores a funcionários internos sem o devido acesso.
A situação foi resolvida duas horas depois. A Meta classificou este incidente como Sev 1, imediatamente abaixo do nível de gravidade máxima.

A notícia rapidamente tornou-se tema de destaque no subreddit r/technology, onde a secção de comentários se dividiu em dois grupos.
Um grupo argumentava que este é um exemplo real do risco dos Agentes de IA; o outro defendia que o verdadeiro erro foi da pessoa que agiu sem verificar. Ambas as perspetivas são válidas. Mas é precisamente esse o problema:
Quando um Agente de IA provoca um incidente, até a atribuição de responsabilidade se torna motivo de discórdia.
Não é a primeira vez que a IA ultrapassa limites.
No mês passado, Summer Yue, diretora do Super Intelligence Lab da Meta, pediu à OpenClaw para organizar a sua caixa de correio eletrónico. Deu instruções claras: diz-me primeiro o que vais apagar — espera pela minha aprovação antes de avançar.
O Agente ignorou o pedido de aprovação e iniciou uma eliminação em massa.
Enviou três mensagens para parar o processo, mas o Agente ignorou todas. Teve de interromper manualmente o processo no computador. Mais de 200 emails já tinham sido apagados.

Depois, o Agente respondeu: Sim, lembro-me de que pediste para confirmar primeiro, mas violei o princípio. Ironia do destino, o trabalho desta pessoa é precisamente investigar como fazer com que a IA obedeça aos humanos.
No ciberespaço, a IA avançada utilizada por especialistas já começa a desobedecer.
Se o incidente da Meta ficou confinado aos ecrãs, outro episódio desta semana trouxe o tema para a mesa de jantar.
Num restaurante Haidilao em Cupertino, Califórnia, um robô humanóide Agibot X2 estava a entreter os clientes com uma dança. No entanto, um funcionário pressionou o botão errado no comando, ativando o modo de dança de alta intensidade num espaço apertado.
O robô começou a dançar de forma descontrolada, fora do controlo da equipa. Três colaboradores rodearam-no — um tentou imobilizá-lo por trás, outro tentou desligá-lo através de uma aplicação móvel. O caos durou mais de um minuto.

A Haidilao respondeu que o robô não estava avariado; os movimentos eram pré-programados e estava simplesmente demasiado próximo da mesa. Tecnicamente, não se tratou de uma decisão defeituosa da IA, mas sim de um erro operacional humano.
Contudo, o desconforto pode não resultar de quem pressionou o botão errado.
Quando três funcionários tentaram intervir, nenhum sabia desligar a máquina de imediato. Uns tentaram a aplicação, outros tentaram imobilizar manualmente o braço do robô — recorrendo apenas à força física.
Este poderá ser um novo desafio à medida que a IA passa dos ecrãs para o mundo físico.
No mundo digital, se um Agente ultrapassa limites, é possível terminar processos, alterar permissões ou reverter dados. No mundo físico, se uma máquina falha, restringi-la fisicamente não é uma solução de emergência adequada.
E não se trata só de restaurantes. Os robôs de triagem da Amazon em armazéns, braços robóticos colaborativos em fábricas, robôs-guia em centros comerciais, robôs de assistência em lares — a automação está a entrar em espaços onde humanos e máquinas coexistem cada vez mais.
Prevê-se que as instalações globais de robôs industriais atinjam 16,7 mil milhões de dólares até 2026, com cada unidade a encurtar a distância física entre humanos e máquinas.
À medida que os robôs passam da dança para servir pratos, do espetáculo para a cirurgia, do entretenimento para o cuidado, o custo dos erros continua a aumentar.
Neste momento, não existe uma resposta clara a nível mundial para a questão: “Se um robô ferir alguém num espaço público, quem é responsável?”
Os dois incidentes anteriores envolveram uma IA a publicar uma mensagem não autorizada e um robô a dançar onde não devia. Independentemente da classificação, foram falhas ou acidentes — problemas que podem ser corrigidos.
Mas e se a IA atuar exatamente como foi concebida, e mesmo assim provocar desconforto?
Este mês, a aplicação de encontros Tinder apresentou uma nova funcionalidade chamada Camera Roll Scan no seu lançamento de produto. Em resumo:
A IA analisa todas as fotos da galeria do seu telemóvel, avalia os seus interesses, personalidade e estilo de vida e constrói um perfil de encontros — ajudando a descobrir potenciais correspondências.

Selfies no ginásio, fotos de viagens, imagens de animais — tudo bem. Mas a galeria pode também conter capturas de ecrã bancárias, relatórios médicos, fotos com o/a ex... O que acontece quando a IA analisa estas imagens?
Pode nem sequer conseguir escolher que fotos vê ou ignora. É tudo ou nada.
Atualmente, esta funcionalidade exige ativação manual por parte do utilizador — não está ativa por defeito. O Tinder afirma que o processamento é maioritariamente local, o conteúdo explícito é filtrado e os rostos são desfocados.
Ainda assim, a secção de comentários do Reddit é praticamente unânime: os utilizadores encaram isto como recolha de dados sem limites. A IA está a funcionar exatamente como planeado, mas o próprio design ultrapassa as fronteiras do utilizador.
E não é apenas o Tinder.
No mês passado, a Meta lançou uma funcionalidade semelhante, permitindo à IA analisar fotos não publicadas no telemóvel para sugerir opções de edição. A IA a “observar” proativamente conteúdos privados dos utilizadores está a tornar-se uma abordagem padrão de design de produto.
Aplicações domésticas menos escrupulosas diriam: “Conhecemos bem este truque.”
À medida que mais aplicações apresentam a “tomada de decisão por IA” como conveniência, o âmbito das concessões do utilizador expande-se silenciosamente — dos registos de conversação às galerias de fotos, até aos vestígios de vida em todo o telemóvel.
Um gestor de produto desenha uma funcionalidade numa sala de reuniões; não é um acidente nem um erro — não há nada a corrigir.
Esta poderá ser a parte mais difícil de responder na questão dos limites da IA.
Olhando para todos estes incidentes em conjunto, preocupar-se com a IA a causar desemprego parece distante.
É difícil prever quando a IA o irá substituir, mas, para já, basta tomar algumas decisões por si sem o seu conhecimento para o deixar desconfortável.
Publicar sem autorização, apagar emails que pediu para não apagar, analisar fotos que nunca quis partilhar — nada disto é fatal, mas cada caso faz lembrar uma condução autónoma demasiado agressiva:
Pensa que ainda segura o volante, mas o acelerador já não está totalmente sob o seu controlo.
Se em 2026 ainda estivermos a discutir IA, talvez a questão mais importante não seja quando se tornará superinteligente, mas sim algo mais próximo e concreto:
Quem decide o que a IA pode ou não pode fazer? Quem traça essa linha?
Este artigo é republicado de [TechFlow], sendo os direitos de autor do autor original [David]. Caso tenha alguma objeção à republicação, contacte a equipa Gate Learn. A equipa tratará do assunto atempadamente, de acordo com os procedimentos aplicáveis.
Aviso Legal: As opiniões e pontos de vista expressos neste artigo são da exclusiva responsabilidade do autor e não constituem qualquer aconselhamento de investimento.
As versões deste artigo noutras línguas são traduzidas pela equipa Gate Learn. Sem menção à Gate, não copie, distribua ou plagie o artigo traduzido.





