A ChatGPT foi utilizada para ajudar um crime no tiroteio na Flórida, e o procurador-geral anuncia uma investigação à OpenAI

O fornecedor de inteligência artificial OpenAI enfrenta recentemente uma importante crise legal e regulatória. O procurador-geral do estado da Flórida, James Uthmeier, afirmou que vai abrir uma investigação à OpenAI, para esclarecer se os seus produtos, incluindo o ChatGPT, causam danos a menores, ameaçam a segurança nacional e se desempenharam um papel na assistência ao crime no caso do tiroteio no campus da Florida State University (FSU) em 2025. Em paralelo, os familiares das vítimas do tiroteio estão também a preparar-se para avançar com uma acção judicial contra a empresa.

OpenAI envolvida no caso de tiroteio no campus da universidade da Flórida; o procurador-geral inicia uma investigação

O procurador-geral da Flórida, Uthmeier, divulgou um vídeo nas redes sociais, dizendo que o ChatGPT é muito provavelmente utilizado para ajudar o autor do crime a planear o grande tiroteio ocorrido no ano passado no campus da Florida State University, na Flórida, que infelizmente ceifou duas vidas.

Ele salientou que, enquanto os gigantes da tecnologia impulsionam a inovação, não podem colocar a segurança do público em risco, nem têm o direito de prejudicar crianças, facilitar actividades criminosas, reforçar a força de forças hostis dos EUA, ou ameaçar a segurança nacional. O procurador-geral afirmou que vai emitir intimações e apelou ao poder legislativo da Flórida para tomar medidas rapidamente, a fim de prevenir os impactos negativos trazidos pela inteligência artificial.

O suspeito do tiroteio teria perguntado repetidamente ao ChatGPT; os familiares das vítimas pretendem processar

Ao recordar o caso do tiroteio na FSU em Abril de 2025, o antigo estudante de 21 anos Phoenix Ikner disparou no campus, causando 2 mortes e 6 feridos; posteriormente, o suspeito foi acusado por um grande júri, enfrentando várias acusações, incluindo homicídio em primeiro grau, e um pedido de pena de morte.

Os registos do tribunal mostram que a conta de Ikner tinha até 272 registos de conversas com o ChatGPT. Alega-se que, antes do incidente, ele tinha perguntado à IA sobre as reacções que poderiam surgir em todo o país ao tiroteio na FSU e sobre a hora do dia em que as multidões de estudantes no local mais movimentado seriam mais densas.

Entre as vítimas que morreram no incidente estava o falecido Robert Morales, de 57 anos. O advogado por ele mandatado indicou que o suspeito manteve um contacto estreito com o ChatGPT antes do caso e que a família tem razões para acreditar que a IA forneceu conselhos para a prática do crime; neste momento, está a preparar-se para processar a OpenAI.

(Investigação em inteligência artificial: cerca de 30% dos adolescentes norte-americanos usam diariamente chatbots de IA; as preocupações com a segurança aumentam)

Acusada de induzir suicídio e gerar conteúdos inadequados, a OpenAI enfrenta vários processos legais

Além da polémica do caso do tiroteio no campus, o chatbot da OpenAI também enfrenta várias acusações por alegadamente incentivar os utilizadores a autoagredir-se. Em Novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project, num tribunal da Califórnia, intentaram 7 processos relacionados com suicídio contra a OpenAI e o seu CEO, Sam Altman. A petição acusa a empresa de, apesar de saber que o produto tinha riscos de manipulação psicológica, ter lançado antecipadamente o modelo GPT-4o, colocando a quota de mercado e as métricas de interacção acima da segurança humana e da saúde mental.

Por outro lado, o problema dos materiais de abuso sexual infantil gerados por IA tem vindo a agravar-se. De acordo com um relatório da Internet Observations Foundation, no primeiro semestre de 2025 foram registadas mais de 8.000 notificações, o que representa um aumento anual de 14%; isto coloca os criadores de IA, incluindo a OpenAI, sob uma enorme pressão social.

A OpenAI responde, sublinhando a segurança, cooperando activamente com a investigação e publicando um plano de segurança para crianças

Perante a enxurrada de críticas e investigações, a OpenAI publicou um comunicado que confirma que, de facto, descobriu, após o caso de Abril do ano passado, contas do ChatGPT associadas ao atirador e já forneceu atempadamente as informações relevantes às autoridades responsáveis pela aplicação da lei. A empresa sublinhou que mais de 900 milhões de utilizadores utilizam o ChatGPT semanalmente para melhorar a vida quotidiana; a intenção original do sistema é compreender as intenções dos utilizadores e fornecer respostas seguras e adequadas, e no futuro também irá colaborar plenamente com a investigação do procurador-geral da Flórida.

Para acalmar as dúvidas do público, a OpenAI publicou recentemente, de forma oficial, o “Plano de Segurança para Crianças”, apresentando várias propostas de políticas, incluindo a actualização de regulamentos para prevenir conteúdos de abuso gerados por IA, a melhoria dos procedimentos de comunicação às autoridades responsáveis pela aplicação da lei e o estabelecimento de mecanismos de protecção mais completos, com o objectivo de evitar que ferramentas de inteligência artificial sejam abusadas maliciosamente.

Este artigo, “O ChatGPT é acusado de ajudar a cometer crimes no tiroteio na Flórida”, foi publicado inicialmente em Cadeia Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário