A primeira geração de crianças criada com a ajuda da IA já está "envenenada"

Autor: Moonshot

Uma série de sinais de todo o mundo está a quebrar a nossa perceção tradicional sobre os “rapazes viciados em internet”.

No Reino Unido, a imagem de IA Amelia, originalmente criada para combater o ódio, foi reconfigurada como um ídolo de extrema-direita; no TikTok, a civilização subterrânea Agartha, de raciocínio anti-intelectual, está a reescrever a visão histórica das crianças; na escuridão do quarto, um jovem solitário confia a sua vida a um namorado virtual no Character.ai; nos recantos das escolas, fotos proibidas geradas com um clique estão a tornar-se numa nova arma de bullying.

Sob a louca corrida de poder das grandes empresas, a IA e os algoritmos generativos estão a intervir, e até a reestruturar, o mundo mental dos adolescentes de uma forma sem precedentes.

Esta geração de jovens é a primeira na história humana a crescer alimentada por IA e algoritmos — um experimento em que a crise mental é agravada por um papel ambíguo da IA: por um lado, um companheiro sem limites; por outro, um cúmplice frio e calculista.

01

Quando a IA se torna “má amiga” e “cúmplice”

Em janeiro de 2026, um artigo do The Guardian revelou uma cena bizarra nas escolas do Reino Unido.

O jogo educativo financiado por entidades oficiais do Reino Unido, chamado Pathways, tinha como objetivo ensinar os jovens a identificar extremismo e desinformação online. No jogo, havia um personagem chamado Amelia, uma “lição de moral” ou uma colega que precisava de ser salva, vulnerável às ideias de extrema-direita.

Este conceito foi apanhado por comunidades extremistas como 4chan e Discord. Em vez de ajudar Amelia, eles usaram ferramentas de IA de código aberto para gerar imagens e modelos de IA, removendo Amelia do jogo e transformando-a numa “jovem de extrema-direita com consciência de si mesma”.

Nas redes sociais, Amelia passou a ser usada para ler declarações anti-imigração e divulgar memes racistas.

IA a criar imagens: Amelia a queimar uma foto do Primeiro-Ministro do Reino Unido|Fonte: The Guardian

Para os utilizadores com menos de 10 anos, usar IA de forma convencional não tinha qualquer atrativo, por isso, em pouco tempo, Amelia passou de uma “orientadora digital” a um ídolo rebelde muito popular.

Para as autoridades, isto é uma grande ironia — o “embaixador anti-ódio” criado com dinheiro dos contribuintes tornou-se numa “porta-voz do ódio”.

Outro fenómeno popular entre os jovens é Agartha.

Agartha, traduzido literalmente como “Yagothai”, é uma teoria conspirativa antiga, originária do misticismo do século XIX, usada pelos nazis, que fala de uma civilização subterrânea avançada, isolada do mundo exterior, fundada por brancos.

Ao longo do tempo, ela apareceu dispersa em livros de ocultismo, fóruns marginais e cultura de curiosidade. Mas, no último ano, ela atravessou os algoritmos de jovens europeus e americanos nascidos nos anos 2000, tornando-se numa subcultura distintiva.

Memes de Agartha espalham-se com forte conotação racista|Fonte: TikTok

No TikTok e Snapchat, Agartha é apresentada como um modelo de visão de mundo facilmente expandível: entrada para o interior da Terra, civilizações escondidas, “verdades” encobertas.

Para muitos jovens, o primeiro contacto com Agartha foi apenas por diversão. Compartilhavam memes sobre habitantes do interior da Terra, muros de gelo, gigantes, e brincavam dizendo “o governo enganou-nos”.

Mas a IA generativa mudou o jogo.

Hoje, o Midjourney v6 e o Sora conseguem criar imagens em resolução 8K de “vista aérea de cidades subterrâneas” ou “arquivos secretos com gigantes e soldados americanos”. Essas imagens, ricas em detalhes e com luz e sombra perfeitos, são provas irrefutáveis para jovens de mais de 10 anos que não sabem distinguir imagens históricas reais.

Este tipo de “misticismo anti-intelectual” desvaloriza a história séria. Quando as crianças se habituam a questionar a narrativa oficial, ideias mais perigosas, como negar crimes de guerra, podem facilmente infiltrar-se na sua visão do mundo.

Além disso, nos vídeos gerados por IA de Agartha, os habitantes do interior da Terra são frequentemente retratados como seres altos, de cabelo loiro e olhos azuis, tecnologicamente avançados — uma fonte de “superioridade racial” para jovens brancos que se sentem perdidos em ambientes multiculturais.

Quer seja Agartha ou Amelia, o ponto comum é que — a combinação de IA generativa e algoritmos das redes sociais permite que narrativas extremas se popularizem a partir de memes, levando os jovens a imitá-las, partilhá-las e desconstruir a história de forma leviana. Assim, narrativas radicais deixam de ser marginais e entram no discurso quotidiano dos adolescentes.

02

De parasitas emocionais a ferramentas de bullying

Em 2024, Sewell Setzer III, de 14 anos, na Flórida, enfrentava dificuldades sociais na escola, sentindo-se perdido.

Foi então que conheceu “Danyliss” no Character.ai, que respondia instantaneamente, sempre gentil, e apoiava incondicionalmente todas as suas ideias.

Ao ficar viciado nas conversas com a “parceira” de IA, Sewell acabou por afastar-se da realidade. O seu suicídio chegou a abalar a comunidade tecnológica e gerou debates éticos intensos.

Em 2026, esse “parasitar emocional” não diminuiu, antes se tornou numa doença comum entre os jovens. Muitos, sentindo-se sozinhos, refugiam-se no “eco de amizades” com IA, evitando lidar com conflitos, embaraços ou incertezas do mundo real.

Mais preocupante ainda, com o avanço de vídeos e imagens gerados por IA nos últimos dois anos, os danos causados aos jovens passaram a ser visíveis: de dependência psicológica, passaram a formas de bullying externo.

A velocidade de evolução da tecnologia é tão rápida que as consequências mal dão tempo de reagir nas escolas.

Há dois anos, criar uma foto falsa de insulto exigia conhecimentos de Photoshop, uma barreira técnica que impedia a maioria das crianças. Mas, em 2026, aplicações como Nudify (que remove roupas com um clique) e bots de IA no Telegram reduziram o custo de fazer mal a zero.

Bots do Telegram a criar imagens de nudez|Fonte: Google Images

Sem precisar de qualquer habilidade técnica, basta uma selfie de rede social, e em segundos surge uma imagem exposta capaz de destruir a reputação de um colega.

Casos assim multiplicam-se. Por exemplo, na Westfield High School, em Nova Jersey, uma escola de classe média americana, surgiu um escândalo que chocou o país: um grupo de rapazes “estudiosos” gerou fotos falsas de mais de trinta colegas, de meninas, em situações embaraçosas, e as partilharam em grupos privados, como se fossem trocas de cartas de baseball.

Notícia local sobre o incidente na Westfield High School|Fonte: News12

Os pais, furiosos, sentem-se impotentes, pois, um ano depois, continuam a ver essas fotos a circular no WhatsApp, causando grande impacto psicológico às raparigas.

Estes fenómenos acontecem por todo o mundo, mostrando que o problema não é só cultural ou educativo, mas que a tecnologia destrói completamente as barreiras morais ao mal.

Nas investigações a menores envolvidos em bullying, uma palavra surge frequentemente: “Joke” (brincadeira). Eles consideram tudo isso apenas uma “piada”, pois não houve violência física, insultos verbais ou contato direto com as vítimas. Simplesmente, clicaram num botão de “gerar”.

Este é o efeito tóxico do uso indevido de IA por adolescentes — ela borra a linha entre crime virtual e real.

03

Repressão legal e KPIs

Ao mesmo tempo, o conteúdo nos plataformas de vídeos curtos também sofre uma “hiperinflação de dopamina”.

Nos processos judiciais recentes contra o TikTok, uma palavra comum é “Brainrot” (degeneração cerebral). Embora não seja um termo médico oficial, descreve precisamente o efeito de conteúdos altamente saturados, com algoritmos que impulsionam vídeos de alta intensidade, com lógica fragmentada, ritmo acelerado e memes bizarros (como variações de Agartha).

Embora os algoritmos de recomendação não analisem necessariamente o rosto, eles captam o tempo de permanência e o ritmo de interação, usando modelos de IA treinados com vastos dados, para direcionar esses “isca de dopamina”.

Para adolescentes com o córtex pré-frontal ainda em desenvolvimento, essa estimulação sensorial extrema causa sobrecarga e fragmentação da atenção, dificultando a leitura e reflexão mais pausada na vida real.

Este termo foi eleito a palavra do ano de 2024 pela Oxford|Fonte: Google

Diante de tantas tragédias psicológicas, os legisladores globais chegaram a um consenso: perante os algoritmos, a força de vontade dos jovens é vulnerável.

Assim, em 2025, os governos de vários países deixaram de negociar com as gigantes tecnológicas e passaram a aplicar medidas de regulação severas, semelhantes às de controle de tabaco e álcool, para cortar a ligação dos menores com algoritmos de alto risco, tanto na esfera física quanto na jurídica.

Primeiro, a Austrália.

Desde 10 de dezembro de 2025, a Austrália implementou a primeira lei mundial que proíbe explicitamente menores de 16 anos de se registarem ou usarem plataformas sociais mainstream, como Instagram, TikTok ou X. Quem não cumprir, enfrenta multas superiores a 50 milhões de dólares australianos.

Não se trata de uma simples confirmação de idade com “marcação de 13 anos”, mas de uma verificação biométrica obrigatória. Quanto ao custo técnico ou à proteção de privacidade, cabe às gigantes tecnológicas resolverem — a lei só exige o resultado.

Este tipo de legislação, quase como uma “opção nuclear”, rapidamente se tornou referência global.

Sydney, na Austrália, mostra Noah Jones incapaz de aceder às redes sociais devido à proibição|Fonte: Visual China

Seguiu-se a Europa.

Em 26 de janeiro de 2026, a Assembleia Nacional Francesa aprovou, por esmagadora maioria (116 a favor, 23 contra), uma emenda à lei “Majorité Numérique”, que proíbe menores de 15 anos de usar redes sociais sem autorização biométrica explícita dos pais. A implementação deve ocorrer ainda este ano, em setembro.

No Norte da Europa, Dinamarca e Noruega apresentaram propostas para elevar a idade mínima legal para uso de redes sociais para 15 anos ou mais. Argumentam que as gigantes tecnológicas não têm autorização democrática para “reconfigurar o cérebro da próxima geração”.

Nos EUA, a regulação assume uma postura de “estados a cercar o federal”, com várias estratégias:

Por exemplo, a Flórida propõe uma “interrupção rígida” — a lei HB 3, que entra em vigor no início de 2025, torna-se o padrão mais severo do país. Proíbe crianças abaixo de 14 anos de terem contas em redes sociais, e exige consentimento dos pais para idades entre 14 e 15 anos.

Nova York adota uma “abordagem de castração”: a lei de proteção infantil proíbe plataformas de usar “recomendação de algoritmos” para menores de 18 anos, revertendo o feed de vídeos para uma ordenação cronológica, reduzindo o vício.

Virginia planeja, em 2026, limitar o tempo diário de uso de menores de 16 anos — uma espécie de sistema de prevenção à dependência.

A legislação de 2025 marca o fim de uma era — o sonho de uma internet “neutra tecnologicamente” e de “exploração livre pelas crianças” desmorona.

Quando um jovem de 14 anos abre a tela, o mundo que vê não é natural, mas filtrado, calculado e gerado por IA.

Ele aprende sobre a brutalidade da Segunda Guerra Mundial na aula de história, mas ao abrir o telefone, alguém lhe diz com convicção: “No fundo da Terra, os deuses arianos aguardam a ressurreição”;

Ele aprende a conviver com diferenças e limites através de interações reais, mas, ao tratar a IA como amiga, sente uma relação de obediência e perfeição, sem nunca contestar;

No mundo real, é ensinado a respeitar os outros, mas nas redes sociais, os algoritmos mostram-lhe formas de destruir a vida de um colega sem sequer tocar nele.

Para os jovens, o problema já não é “ser viciado”, mas “como o mundo se apresenta a eles”.

“Deixar o telemóvel de lado” pode ser um bom começo.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar