OpenAI foi obrigada por um tribunal a entregar 20 milhões de registos do ChatGPT, processo de direitos de autor do The New York Times entra numa fase crucial

GateNews

Um juiz federal de primeira instância em Nova Iorque decidiu recentemente que a OpenAI deve entregar ao The New York Times e a outros queixosos cerca de 20 milhões de registos de utilizadores do ChatGPT, devidamente anonimizados, representando um avanço importante neste processo de grande notoriedade sobre direitos de autor na área da IA. A ordem rejeita o pedido da OpenAI para limitar o âmbito da recolha de provas e sublinha que estes registos são essenciais para avaliar se o ChatGPT reproduz conteúdos protegidos por direitos de autor.

O The New York Times processou a OpenAI em dezembro de 2023, acusando-a de utilizar conteúdos jornalísticos sem autorização para treinar os seus modelos. Em janeiro deste ano, a OpenAI apresentou uma contestação, alegando que o jornal “não contou toda a verdade”. Esta decisão agrava ainda mais o conflito entre as partes no que diz respeito a direitos de autor, governação de dados e legalidade dos dados usados para treinar IA.

A deliberação foi emitida pela juíza de primeira instância Ona T. Wang. Segundo a magistrada, apesar da privacidade dos utilizadores merecer consideração, esse fator não é suficiente, à luz do princípio da proporcionalidade da recolha de provas, para impedir o acesso às provas relevantes. O tribunal considerou que as 20 milhões de amostras são “manifestamente relevantes” para determinar se as respostas do ChatGPT são semelhantes ao conteúdo do The New York Times, e que a entrega destas amostras anonimizadas não representa um encargo excessivo para a OpenAI.

A OpenAI manifestou-se contra a decisão e afirmou, em documentos recentemente apresentados, que a ordem é “claramente errada” e “desproporcional”, argumentando que a divulgação em grande escala de conversas de utilizadores pode aumentar os riscos de privacidade. Em junho deste ano, o tribunal já tinha exigido à OpenAI que preservasse grandes volumes de dados de utilizadores, incluindo registos de conversas apagadas, o que gerou controvérsia adicional.

Numa altura em que a transparência dos dados usados para treinar IA está sob crescente escrutínio, este processo é visto como um importante indicador para o futuro enquadramento legal do setor. Casos semelhantes estão em curso nos EUA e na Europa, com editoras, titulares de direitos de música e responsáveis por repositórios de código a procurarem clarificar os limites da eventual violação de propriedade intelectual pelos modelos de IA.

Esta decisão não afeta apenas a OpenAI, podendo também ter repercussões para empresas de IA de grande dimensão como a Anthropic e a Perplexity, trazendo implicações profundas sobre a forma como o setor recolhe, utiliza e divulga dados de treino.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)