IA Imágenes de Guerra Falsificadas Proliferan: Cómo la Desinformación sobre Conflictos en Irán se Propaga por las Redes Sociales

ChainNewsAbmedia

Cuando estalló la guerra entre Rusia y Ucrania en 2022, las redes sociales estaban inundadas de imágenes falsas de baja calidad, ya fuera fotos manipuladas con Photoshop o capturas erróneas tomadas de videojuegos, películas o viejas noticias. Hoy en día, las mismas técnicas vuelven a aparecer en el conflicto de Irán, pero esta vez con una herramienta de engaño de nueva generación que aún no era común en 2022: herramientas de IA fáciles de usar que pueden generar videos e imágenes de alta calidad y realismo engañoso.

El profesor de criminología digital de la Universidad de California en Berkeley, Hany Farid, señala que hace diez años, mensajes falsos similares se limitaban a uno o dos ejemplos, y rápidamente eran descubiertos; ahora, sin embargo, hay cientos, y su nivel de realismo es asombroso. “No solo son convincentes, sino que están fermentando — influyendo profundamente en las personas. La gente cree que son reales y continúa compartiéndolos y difundiéndolos.”

La popularización de la IA generativa ha reducido drásticamente las barreras para crear contenido falso

Shayan Sardarizadeh, periodista senior de BBC Verify y quien ha seguido de cerca las noticias falsas en zonas de conflicto, afirma que el cambio más importante en el último año ha sido la reducción significativa en la umbral para acceder a la IA generativa. “Ahora cualquiera puede crear videos e imágenes altamente convincentes que parecen ser escenas de un conflicto importante, y que son difíciles de distinguir a simple vista o con ojos no especializados.”

Menos de dos semanas después de que comenzara el conflicto en Irán, Sardarizadeh y otros expertos confirmaron que múltiples videos falsos generados por IA acumulaban decenas de millones de vistas en varias plataformas sociales.

¿Qué tipos de imágenes falsas están circulando?

Actualmente, los contenidos falsos identificados por IA abarcan un amplio espectro, incluyendo:

  • Imágenes ficticias de misiles iraníes atacando Tel Aviv, Israel
  • Escenas de pánico de civiles huyendo del aeropuerto de Tel Aviv tras un ataque
  • Videos de fuerzas especiales estadounidenses siendo escoltadas por soldados iraníes armados
  • “Imágenes de vigilancia” que afirman mostrar instalaciones militares iraníes destruidas (tres de ellas generadas por IA y una real del año pasado)
  • “Convoy de operaciones terrestres” de las fuerzas estadounidenses en Irán
  • Imágenes de restos de un avión estadounidense estrellado en una manifestación en Teherán

En cuanto a imágenes estáticas, se han difundido escenas de bases militares y embajadas estadounidenses en llamas tras ataques iraníes, fotografías de la muerte del líder supremo iraní, Khamenei, aplastado bajo escombros, y escenas de civiles iraníes llorando a las víctimas. Incluso algunos medios vinculados al gobierno iraní han publicado mapas satelitales falsificados que afirman mostrar daños en bases estadounidenses en Baréin.

Y estas son solo la punta del iceberg de la desinformación relacionada con Irán que circula actualmente.

La laxitud en la regulación de plataformas hace más difícil frenar las noticias falsas

Aunque Sardarizadeh y otros continúan desmentiendo noticias falsas a diario, los contenidos falsificados siguen surgiendo a un ritmo mucho mayor que la capacidad de desmentirlos, y su nivel de realismo es tal que usuarios comunes tienen dificultades para identificarlos en desplazamientos rápidos por sus feeds.

Algunas de las noticias falsas más difundidas parecen provenir de cuentas pro-iraníes con fines propagandísticos. Pero en muchos casos, las motivaciones para crear estas falsificaciones son difíciles de determinar: podrían ser para obtener tráfico, influencia o beneficios económicos, o simplemente porque es muy fácil producirlas.

Farid señala que la situación actual es muy problemática: “El contenido es más convincente, en mayor cantidad y más penetrante — esa es nuestra realidad actual, y está muy desordenada.”

La plataforma X (antes Twitter) anunció la semana pasada que, si creadores de contenido pagados publican videos de guerra sin indicar que son generados por IA, se les suspenderá la monetización durante 90 días, y en caso de reincidencia, se les bloqueará permanentemente. Sin embargo, Farid duda de la efectividad de esta política, y la mayoría de los usuarios de X no forman parte de programas de pago para creadores. TikTok y Meta (que posee Facebook e Instagram) no han respondido a las solicitudes de comentarios de CNN.

Lo que resulta aún más preocupante es que el propio chatbot de IA de X, Grok, ha sido mencionado varias veces por Sardarizadeh, quien afirma que en realidad ayuda a difundir desinformación: informa erróneamente a los usuarios que múltiples videos generados por IA son reales.

¿Cómo evitar ser engañado por noticias falsas?

Farid admite que incluso las técnicas de detección de imágenes falsas generadas por IA que circulaban hace meses ya casi no funcionan hoy en día. Antes, bastaba con fijarse en el número de dedos o en las proporciones corporales, pero la IA actual ya corrige estos errores evidentes.

Su consejo fundamental es optar por obtener información de medios de comunicación confiables, en lugar de confiar en cuentas desconocidas en redes sociales. “En momentos de conflicto global, las redes sociales no son el lugar para obtener información confiable.”

Para quienes deben navegar frecuentemente en redes sociales, los expertos recomiendan:

  • Tomarse su tiempo: ante imágenes impactantes, dedicar unos segundos a verificar antes de compartir o creer
  • Observar los detalles: ¿la sincronización de audio y video es coherente? ¿las características de la imagen corresponden a la realidad? La IA aún tiene fallas, y algunas creaciones todavía llevan marcas de agua
  • Consultar fuentes profesionales de verificación: verificar si medios especializados o expertos en la materia han emitido opiniones sobre la imagen
  • Prestar atención a los comentarios: los usuarios comunes a veces pueden plantear dudas válidas
  • Utilizar herramientas de detección de IA: aunque no son perfectas, pueden ofrecer una referencia útil

El futuro presenta desafíos aún mayores

Sardarizadeh hace un llamado a la población para que “entrene su ojo” y aprenda a detectar las huellas de contenido generado por IA. Pero también admite: “Detectar contenido generado por IA se vuelve cada vez más difícil, y las tendencias indican que en el futuro será aún más complicado.”

Con el avance continuo de la tecnología de IA generativa y la relajación de las regulaciones en las plataformas sociales, la batalla contra la desinformación digital se expande a una velocidad sin precedentes, y cada usuario que desliza en su teléfono se encuentra en la primera línea de esta guerra de información.

Este artículo sobre la proliferación de imágenes de guerra falsas generadas por IA y cómo las noticias falsas relacionadas con Irán están conquistando las redes sociales fue publicado originalmente en ABMedia.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios