A IA "roubou" vozes, atores de dobragem famosos recorrem à justiça sucessivamente! IA "troca de rosto" é condenada, como resolver o dilema da "roubo de voz"? O advogado aponta diretamente a dificuldade: prova difícil, custo elevado, ganho pequeno

robot
Geração do resumo em andamento

AI(Inteligência Artificial) avança rapidamente, e o rosto e a voz dos atores tornaram-se áreas de “caça furtiva” intensificada.

Em 2025, um episódio de curta-metragem suspeito de usar IA para trocar o rosto de Dilireba gerou atenção na indústria. Um ano depois, o Tribunal de Internet de Pequim divulgou um caso de disputa de direitos de imagem, esclarecendo a responsabilidade de produtores e emissoras por violação, delimitando assim a proteção judicial do direito de imagem. Ao mesmo tempo, atores de dublagem renomados como Bian Jiang e Ji Guanlin começaram a se manifestar para defender seus direitos, acusando a IA de “roubar” suas vozes.

Com o rápido desenvolvimento da tecnologia de IA, o rosto e a voz dos artistas tornaram-se recursos frequentemente roubados. “O rosto pode ser facilmente reconhecido, mas a voz é difícil de identificar com precisão, apresentando dificuldades de prova, altos custos de defesa e benefícios limitados”, afirmou Jia Yuqian, advogada do escritório Long An de Xangai, ao jornal Daily Economic News. De “troca de rosto visível” a “roubo de voz audível”, a tecnologia de IA desafia de diferentes formas os limites da proteção dos direitos de personalidade dos atores.

“Parecer semelhante, mas não idêntico” também constitui violação

Em abril do ano passado, uma atriz de um curta-metragem foi suspeita de ter seu rosto trocado por IA para parecer Dilireba, causando controvérsia. Em 20 de março deste ano, o Tribunal de Internet de Pequim anunciou o resultado do julgamento, reconhecendo que a produção do curta usou tecnologia de troca de rosto por IA para montar a imagem da autora no rosto de um personagem, levando o público a acreditar erroneamente que ela participou, configurando violação; a emissora, como plataforma de transmissão, também violou o dever de fiscalização razoável, infringindo o direito de imagem da autora. No final, os dois réus foram condenados a pedir desculpas publicamente e a pagar indenização por perdas econômicas.

Segundo informações, o curta em questão tinha 44 episódios, com duração total de cerca de 90 minutos, dos quais dois trechos usaram tecnologia de troca de rosto por IA. O tribunal considerou que, embora a imagem gerada por IA fosse diferente da original, se pudesse ser reconhecida por um público comum ou por profissionais específicos, isso configuraria uso de imagem de pessoa natural.

Deng Yile, advogada do escritório Xingquan de Pequim, afirmou em entrevista ao Daily Economic News que o caso estabeleceu uma linha judicial clara de que “não se pode violar os direitos de personalidade na criação por IA”. Sua importância reside em esclarecer que “parecer semelhante, mas não idêntico”, também constitui violação, reforçando que “neutralidade tecnológica não equivale a isenção de responsabilidade”, e que as regras de prova impedem que o uso de IA seja uma saída para evitar responsabilidades por violação.

Percebe-se que, enquanto a decisão histórica sobre a defesa contra troca de rosto por IA marca um avanço, outro setor crucial da indústria audiovisual — os dubladores — enfrenta o problema do “roubo de voz” por IA. Recentemente, Ye Qing, que dublou Li Xiaojun em “Sweet Honey” e Liu Jianming em “Infernal Affairs”, descobriu que sua voz foi altamente reproduzida e usada em um curta-metragem gerado por IA. A voz do renomado dublador Ji Guanlin também foi falsificada para uma versão “modificada” de “Zhen Huan Zhuan” na versão indiana, levando a uma ação coletiva de defesa.

Segundo fontes, vozes geradas por IA não só são usadas na produção de curtas modificados e anúncios falsos, mas também podem ser empregadas em fraudes, trazendo riscos legais e danos à reputação dos dubladores.

Não apenas os indivíduos, mas também a principal empresa de dublagem doméstica, Yin Xiong Lian Meng, manifestou-se contra o “roubo de voz” por IA. Em comunicado, afirmou que “a voz é a base da subsistência do dublador, assim como a aparência, possuindo direitos de personalidade exclusivos, protegidos por leis e regulamentos”. A empresa condenou qualquer pessoa, organização ou plataforma que, sem autorização por escrito, colete, grave ou extraia materiais de voz de seus dubladores para treinar IA, gerar voz ou fazer clonagem de voz.

Por que a defesa contra o “roubo de voz” por IA é difícil

Do ponto de vista do mercado e da indústria audiovisual, Jia Yuqian acredita que o problema do uso de IA para troca de rosto e roubo de voz pode gerar desconfiança e antipatia do público, prejudicando a credibilidade do setor; além disso, pode levar à imitação entre empresas, agravando o uso indevido de tecnologia. “Os riscos legais são evidentes. A tentação de baixo custo leva ao uso indevido, provocando competição desleal, prejudicando obras de alta qualidade e criando um mercado de ‘moeda ruim expulsando moeda boa’.”

Comparado à troca de rosto, a defesa contra roubo de voz por IA é mais difícil, não por ser impossível, mas por sua complexidade prática. Segundo o Código Civil, a proteção da voz de pessoas naturais é aplicada com base nas mesmas regras do direito de imagem.

Em 2024, o primeiro caso de violação de direitos de personalidade por IA na geração de voz foi julgado pelo Tribunal de Internet de Pequim, confirmando que, sob condições de reconhecimento, os direitos de voz de pessoas naturais podem ser protegidos mesmo em vozes geradas por IA. Contudo, “ter fundamentos” não garante uma defesa fácil. Jia Yuqian destacou que “o rosto pode ser reconhecido facilmente, mas a voz é difícil de identificar com precisão.”

Ela acrescentou que, embora a voz seja protegida por lei como uma extensão do direito de imagem, o caminho para defesa apresenta três dificuldades principais: primeiro, a dificuldade de prova, pois o reconhecimento facial é mais fácil do que a identificação de voz, e atores comuns têm dificuldade em provar que os dados de voz usados no treinamento de IA são seus; segundo, os altos custos e baixos retornos da defesa, já que equipes de celebridades têm suporte jurídico especializado, enquanto atores comuns não; por fim, o princípio de “não processar sem queixa” na ação civil, que obriga os dubladores a iniciarem ações, enfrentando novamente os dois primeiros obstáculos.

Deng Yile também acrescentou que a característica efêmera da voz dificulta a identificação rápida de violações, além de dificultar buscas, dependendo atualmente de inspeção manual, com baixa eficiência. Além disso, a facilidade de editar, acelerar, desacoplar ou juntar trechos de voz torna difícil fixar o estado original, aumentando ainda mais a complexidade da defesa. Embora o direito de imagem já possua uma “proteção legal”, o direito de personalidade da voz enfrenta a falta de regulamentação clara, padrões de avaliação padronizados e caminhos eficientes de defesa.

Regulação em toda a cadeia e marcas d’água tecnológicas podem ser a chave para resolver

Tanto a troca de rosto quanto o roubo de voz por IA refletem uma mentalidade de oportunismo de alguns profissionais diante da onda tecnológica. Um insider da indústria audiovisual afirmou ao Daily Economic News que, na crescente competição do mercado de curtas, algumas produtoras acreditam na “teoria do fluxo de audiência”, usando métodos ilícitos para inserir rostos ou vozes de estrelas em suas obras para atrair atenção, o que prejudica o setor e o mercado. “Devemos resistir firmemente a essas práticas desleais.”

Diversos especialistas do setor e do campo jurídico apontaram que, diante dos desafios trazidos pela IA, a proteção dos “rosto e voz” dos atores exige esforços conjuntos.

Deng Yile defende a necessidade de aprimorar a regulação de toda a cadeia de síntese profunda por IA. Ela destacou que a dificuldade de combater violações de voz reside na opacidade dos dados de treinamento e na ausência de registros de uso de modelos. Recomenda-se estabelecer regras de consentimento informado para coleta de dados, além de obrigar o registro e a marcação de ferramentas comerciais de IA, por meio de “controle prévio”, para dividir a responsabilidade entre prevenção e punição posterior. Além disso, criar mecanismos de denúncia ágeis, com processos de retirada rápida e rastreamento de origem, é fundamental.

No âmbito industrial e individual, a combinação de prevenção antecipada e defesa posterior é essencial. Jia Yuqian sugere que atores incluam cláusulas contratuais que proíbam o uso de suas vozes para treinamento, síntese ou clonagem por IA sem autorização, além de incorporar marcas d’água técnicas na dublagem comercial para facilitar a rastreabilidade e responsabilização.

Ela também afirmou que, além de ações judiciais, outros meios de defesa, como plataformas colaborando com denúncias para retirada rápida de conteúdos infratores, podem fortalecer a resistência, reduzir custos individuais e ampliar a força coletiva do setor, complementando denúncias administrativas e declarações públicas para informar o público sobre violações, auxiliando na proteção dos direitos.

Reporter|Song Xinyue

Editor|Chen Kemin, Yang Jun, Du Hengfeng

Revisão|Cheng Peng

|Daily Economic News nbdnews Artigo original|

|Proibido reproduzir, editar, copiar ou espelhar sem autorização|

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar