Reuters verificó que la imagen del cuerpo de Jamenei bajo escombros fue creada con inteligencia artificial
Una imagen que mostraba al líder supremo de Irán, el ayatolá Alí Jamenei, supuestamente atrapado bajo escombros tras un ataque aéreo, fue difundida en redes sociales como si fuera una fotografía auténtica.
El equipo de Reuters Fact Check determinó que la imagen fue generada con inteligencia artificial.
La fotografía buscaba presentar una prueba visual en un contexto de tensión internacional. La verificación reveló que esa “evidencia” nunca existió.
Irán ocupa un lugar estratégico en Medio Oriente y su liderazgo religioso-político tiene un peso importante, tanto regional como internacional. En ese contexto, cualquier imagen asociada a la muerte del líder iraní tiene un impacto geopolítico que es inmediato.
No es novedad que la desinformación visual en los conflictos armados no es nueva, valga la redundancia. Pero, la incorporación de la inteligencia artificial generativa permitió producir estas escenas hiperrealistas sin necesidad de manipular fotos preexistentes. Entonces la novedad no es la mentira, sino como escala y la velocidad que escala.
En los últimos días, el propio portal de verificación de la agencia Reuters publicó otros desmentidos vinculados al conflicto en medio oriente, como videos de simulaciones presentados como enfrentamientos reales y videos antiguos que están siendo reutilizados como hechos actuales. Hay un patrón o un modelo, que se repite y que siempre tiene un contenido impactante, una circulación acelerada, y la verificación que siempre llega tarde.
Regulación internacional: el caso de Dinamarca
En Europa, países como Dinamarca avanzaron en medidas para enfrentar el fenómeno de las deepfakes. Entre algunas de esas medidas, está la obligación de etiquetar contenidos generados con IA y mayores exigencias de responsabilidad para plataformas digitales.
El punto central de estas medidas es que cualquier persona pueda identificar con claridad el origen de un contenido. Es decir, que se informe de forma visible si una imagen, un video o un audio fue hecho por una persona, por inteligencia artificial o por una mezcla de ambos. La idea es que nadie tenga que adivinar si lo que está viendo es real o fue generado por una máquina. Además, el caso de Dinamarca contempla que el contenido de imagen, ya sean foto o video y también el audio (la voz) de una persona tenga su copyright, es decir, su derecho de autor. Aunque eso también es derecho a la identidad.
Estas decisiones se dan en el marco de una preocupación por la posibilidad de que imágenes falsas influyan en elecciones, mercados financieros o crisis diplomáticas. En ese contexto, la regulación busca anticiparse al daño.
Argentina: desarrollo tecnológico sin marco específico
En Argentina la inteligencia artificial ya se usa en redacciones, agencias de publicidad y campañas políticas. Herramientas de generación de texto e imagen permiten reducir costos y acelerar procesos productivos. Pero, no existe una legislación nacional específica que obligue a etiquetar los contenidos generados con IA o con colaboración de IA, ni un sistema público integral que detecte ni advierta temprano.
Esta situación combina dos cuestiones, una es el potencial de desarrollo, porque los medios chicos pueden ampliar su capacidad de producción, pero la otra es la vulnerabilidad informativa que, en contextos de tanta polarización, es decir de oposiciones, una imagen falsa puede alterar percepciones antes de ser verificada. En otras palabras, las personas ven una imagen creyendo que es real y después de que se lo creyó, se publica que la imagen resultó ser falsa, la cuestión es que, después de eso, la persona perdió la certeza, y duda.
La diferencia respecto de países europeos no es un problema técnico, sino institucional.
Complementos y antecedentes técnicos
Algunas herramientas, como SynthID, pueden detectar si una imagen fue creada con inteligencia artificial porque buscan una especie de “marca invisible” que ciertos programas dejan al generar contenido.
El problema es que no todos los sistemas de IA colocan esa marca. Por eso, hay imágenes falsas que pueden pasar desapercibidas y no ser detectadas por estos métodos.
Además, comprobar si una imagen es real o no lleva tiempo, conocimientos técnicos y acceso a tecnología específica. No todos los medios, sobre todo los locales o comunitarios, tienen esos recursos.
El problema es que, si solo los grandes medios pueden verificar con herramientas avanzadas y los pequeños no, se agranda la diferencia en el acceso a información confiable, porque los medios grandes tienen ideologías muy marcadas que sostener.
El Impacto regulatorio y democrático de las deepfakes
En los próximos años es probable y es necesario que los gobiernos impulsen leyes que obliguen a avisar claramente cuándo un contenido fue hecho con inteligencia artificial. También las redes sociales podrían y deberían recibir multas o sanciones si no eliminan con rapidez imágenes o videos falsos. En paralelo las personas que ya desconfían cada vez más de lo que ven, incluso cuando es real, se darán cuenta, y sería necesario que lo hicieran, de la importancia de tener derechos de propiedad de su imagen y audio porque es SU IDENTIDAD.
Para los medios locales esto implica un desafío más grande que es verificar el contenido, y eso cuesta tiempo, dinero y requiere de una mínima capacitación técnica. Durante años se creyó que una imagen era una prueba suficiente, pero hoy, con las deepfakes, esa idea cambia. Porque el problema ya no es únicamente tecnológico, sino político y social, ¿quién te asegura que la información que circula en momentos clave, como ya ha pasado, en elecciones, conflictos o crisis económicas, sea verdadera? De esa respuesta depende la calidad de la democracia y la posibilidad de que la ciudadanía tome decisiones con información confiable.