Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
¡Actores de voz famosos demandan consecutivamente por "robo de voz" mediante IA! IA "cambia rostro" y es condenada, ¿cómo resolver el dilema del "robo de voz"? ¡Los abogados señalan directamente las dificultades: pruebas difíciles, costos altos, ganancias bajas!
La tecnología de inteligencia artificial (IA) avanza a pasos agigantados, y la cara y la voz de los actores se han convertido en las principales víctimas de “caza furtiva”.
En 2025, un incidente en el que un cortometraje supuestamente utilizó IA para cambiar la cara por la de Dilraba Dilmurat generó atención en la industria. Un año después, el Tribunal de Internet de Beijing informó sobre un caso de disputa por derechos de imagen, aclarando la responsabilidad de los productores y emisores por infracción, delimitando así los límites judiciales para la protección del derecho a la imagen. Al mismo tiempo, actores de doblaje reconocidos como Bian Jiang y Ji Guanlin expresaron públicamente su defensa, señalando que la IA les había “robado” sus voces.
Con el rápido desarrollo de la tecnología de IA, los recursos de la “cara” y la “voz” de los artistas continúan siendo objeto de robo. “La ‘cara’ puede ser reconocida de un vistazo, pero la voz es difícil de identificar con precisión, lo que presenta problemas de prueba, altos costos de protección y bajos beneficios”, afirmó Jia Yuqian, abogada de la sucursal de Shanghái del bufete Long An, en una entrevista con el diario Daily Economic News. Desde la “cara” visible mediante cambio facial hasta la “voz” que se puede escuchar en el robo de voces, la tecnología de IA desafía de diferentes maneras los límites de protección de los derechos de personalidad de los actores.
“Parecerse, pero no ser exactamente igual”, también constituye una infracción
En abril del año pasado, una actriz en un cortometraje fue sospechosa de haber sido reemplazada por IA para parecerse a Dilraba Dilmurat, lo que generó controversia. El 20 de marzo de este año, el Tribunal de Internet de Beijing informó sobre el resultado del caso, determinando que la productora del cortometraje utilizó tecnología de cambio facial con IA para pegar la imagen de la demandante en el rostro del personaje, causando que el público creyera erróneamente que ella participó en la producción, constituyendo así una infracción; además, la plataforma de emisión, como responsable de la transmisión, no realizó una revisión razonable, lo que también infringió los derechos de imagen de la demandante. Finalmente, los dos acusados fueron condenados a disculparse públicamente y a pagar daños económicos.
Se sabe que el cortometraje en cuestión consta de 44 episodios, con una duración total de aproximadamente 90 minutos, de los cuales dos segmentos utilizaron tecnología de cambio facial con IA. El tribunal consideró que, aunque las imágenes generadas por IA difieren de la persona real, si pueden ser reconocidas por el público general o por ciertos sectores específicos, se considera que se ha utilizado la imagen de una persona natural.
El abogado Deng Yile de la firma Beijing Xingquan, en una entrevista con Daily Economic News, afirmó que este caso establece una línea judicial clara que prohíbe la infracción de derechos de personalidad mediante creación con IA. Su valor radica en que confirma que incluso una similitud “parecida, pero no exactamente igual” en el cambio facial con IA también constituye una infracción, y subraya que “la neutralidad tecnológica no equivale a eximir de responsabilidad”, cerrando la vía para que el uso de IA evada la responsabilidad por infracción mediante reglas probatorias.
En este momento, en que la protección de derechos por el uso de IA en cambio facial ha alcanzado un fallo emblemático, otro sector clave de la industria audiovisual —los actores de doblaje— enfrenta el problema del “robo de voces” por IA. Recientemente, Ye Qing, quien dobló a Li Xiaojun en “Sweet Honey” y a Liu Jianming en “Infernal Affairs”, descubrió que su voz había sido altamente reproducida y utilizada en un cortometraje generado por IA. Además, la voz del reconocido actor de doblaje Ji Guanlin fue falsificada y utilizada en una “versión modificada” de la serie india “Zhen Huan Zhu”, lo que llevó a una acción colectiva de defensa.
Se ha sabido que las voces generadas por IA no solo se usan para crear cortometrajes modificados y anuncios falsos, sino que también podrían ser empleadas en escenarios de estafas, lo que representa un gran riesgo legal y daño a la reputación de los actores de doblaje.
No solo los actores individuales, sino también las principales empresas de doblaje nacionales, como Yin Xiong Lian Meng, han expresado públicamente su oposición al “robo de voces” por IA. En un comunicado, afirmaron: “La voz es la base de la sustancia del actor de doblaje, y al igual que la apariencia, posee derechos de personalidad exclusivos, protegidos por las leyes y regulaciones pertinentes”. Además, rechazaron categóricamente que cualquier persona, organización o plataforma recopile, grabe, extraiga o utilice sin autorización por escrito las voces de sus actores para entrenamiento de IA, generación de voz, reproducción o síntesis de voces.
¿Por qué es tan difícil defenderse contra el “robo de voces” por IA?
Desde la perspectiva del mercado y la industria del cine y la televisión, Jia Yuqian opina que los problemas de cambio facial y robo de voces por IA, por un lado, generan dudas y rechazo entre los espectadores, reduciendo la credibilidad de la industria; por otro, pueden provocar imitaciones mutuas entre actores, agravando el uso indebido de la tecnología. “Los riesgos legales son evidentes. La tentación de bajo costo fomenta el uso abusivo de la tecnología, lo que puede desencadenar una competencia desleal, reducir el espacio para obras de calidad real y crear un mercado donde ‘el dinero malo desplaza al bueno’.”
En comparación con el cambio facial con IA, la protección de las voces robadas por IA es aún más difícil, no porque no exista un marco legal, sino porque en la práctica los obstáculos son mayores. Según el Código Civil, la protección de la voz de las personas naturales se refiere a las disposiciones relacionadas con los derechos de imagen.
En 2024, el Tribunal de Internet de Beijing resolvió el primer caso en todo el país de infracción de derechos de personalidad por generación de voz con IA, estableciendo que, bajo condiciones de identificabilidad, la protección del derecho a la voz de las personas naturales puede extenderse a las voces generadas por IA. Sin embargo, tener “fundamento” no garantiza una buena protección. Jia Yuqian señala que “la cara puede ser reconocida de un vistazo, pero la voz es difícil de identificar con precisión.”
Además, aunque la voz también está protegida por la ley en referencia a los derechos de imagen, el camino para defenderla enfrenta tres grandes dificultades: primero, la prueba es difícil, ya que el reconocimiento facial es mucho más sencillo que la identificación de la voz; los actores de doblaje comunes tienen dificultades para demostrar que los datos de voz utilizados en el entrenamiento de IA provienen de ellos mismos; segundo, los costos de protección son altos y los beneficios bajos; los equipos de celebridades cuentan con apoyo legal profesional, pero los actores de doblaje comunes no pueden soportarlo; y tercero, el principio de “no demandar, no haber problema” en los litigios civiles significa que los actores deben iniciar acciones por su cuenta, lo que vuelve a los dos primeros obstáculos.
Deng Yile también agregó a la entrevista que la voz tiene la característica de ser “efímera”, lo que dificulta la identificación inmediata de la infracción, y que la búsqueda es complicada, ya que actualmente se basa principalmente en inspección manual, con una eficiencia muy baja. Además, la voz puede ser editada, acelerada, recortada o combinada, dificultando la fijación de su estado original y aumentando aún más la dificultad para defenderse. Aunque ya existen “escudos” legales para los derechos de imagen facial, los derechos de personalidad de la voz enfrentan un escenario incómodo de “falta de leyes claras, estándares de identificación no unificados y caminos eficientes para la protección”.
¿La regulación integral y las marcas de agua tecnológicas serán la clave para resolver el problema?
Tanto en el cambio facial con IA como en el “robo de voces”, ambos reflejan la mentalidad de especulación de algunos profesionales ante la ola tecnológica. Un experto de la industria del cine comentó a Daily Economic News que, en un contexto de competencia cada vez más feroz en el mercado de cortometrajes, algunas productoras creen en la “teoría del tráfico” y, sin reparos, emplean métodos “poco éticos” para insertar la cara o la voz de estrellas en sus obras con el fin de atraer atención, “lo cual perturba la industria y el mercado, y debemos resistir firmemente estas prácticas”.
Varios expertos de la industria y del ámbito legal señalaron que, frente a los desafíos de la tecnología de IA, la protección de la “cara y voz” de los actores requiere esfuerzos conjuntos de múltiples partes.
Deng Yile hizo un llamado a perfeccionar el sistema de regulación integral para la síntesis profunda con IA. Ella explicó que la dificultad para erradicar la infracción de la voz radica en la opacidad de los datos de entrenamiento y en la falta de registros de uso del modelo. Propuso establecer reglas de consentimiento informado para la recopilación de datos y cumplir con las obligaciones de registro y etiquetado de las herramientas de IA comerciales, mediante una “gestión previa” que alivie la carga de la “responsabilidad posterior”. Además, consideró fundamental crear mecanismos de denuncia y retroalimentación eficientes, así como sistemas rápidos de retirada y trazabilidad de contenidos infractores.
A nivel industrial y personal, la prevención previa y la protección posterior deben complementarse. Jia Yuqian sugirió que los actores puedan incluir en sus contratos con las empresas colaboradoras cláusulas que prohíban expresamente el uso de su voz para entrenamiento, síntesis o clonación con IA sin autorización, y que utilicen marcas de agua u otras técnicas en las doblajes comerciales para facilitar la trazabilidad y la responsabilidad.
Asimismo, Jia Yuqian afirmó que, además de las acciones judiciales, los métodos de protección más rápidos y económicos son la colaboración de las plataformas para denunciar y retirar contenidos infractores, y que la protección colectiva del sector puede fortalecer la presencia y reducir los costos individuales. También mencionó que, combinando denuncias administrativas y declaraciones públicas, se puede informar al público sobre las infracciones y apoyar la defensa de los derechos.
Reportero| Song Xinyue
Editores| Chen Keming, Yang Jun, Du Hengfeng
Revisión| Cheng Peng
******|Diario Económico Diario, nbdnews, artículo original|
Prohibido reproducir, copiar, editar o distribuir sin autorización previa.