Una imagen falsa que muestra una explosión en el Pentágono se volvió viral brevemente en Twitter el lunes, provocando una caída de los mercados durante diez minutos y reavivando el debate sobre los riesgos de la inteligencia artificial (IA).
La fotografía falsa, aparentemente hecha con un programa generativo de inteligencia artificial (capaz de producir texto e imágenes a partir de una simple consulta en lenguaje sencillo), obligó al Departamento de Defensa de EE. UU. a responder.
“Podemos confirmar que se trata de información falsa y que el Pentágono no fue atacado hoy”, dijo un portavoz.
Los bomberos de la zona donde se ubica el edificio (en Arlington, cerca de Washington) también intervinieron para indicar en Twitter que no se había producido ninguna explosión o incidente, ni en el Pentágono ni en sus inmediaciones. La imagen parece haber provocado una ligera caída de los mercados durante unos minutos, la S
“Hubo una caída relacionada con esta información falsa cuando las máquinas la detectaron”, señaló Pat O’Hare de Briefing.com, refiriéndose al software de comercio automatizado que está programado para reaccionar a las publicaciones en las redes sociales. “Pero el hecho de que quedara medido en relación con el contenido de esta información falsa sugiere que otros también lo consideraron turbio”, agregó para AFP. Una cuenta del movimiento conspirativo QAnon fue una de las primeras en transmitir la imagen falsa, cuya fuente se desconoce.
Lea también Mathieu Bock-Côté: “Conspiración elegante y QAnon mundano”
El incidente se produce después de que varias fotografías falsas producidas con IA generativa hayan sido ampliamente publicitadas para mostrar las capacidades de esta tecnología, como la del arresto del expresidente estadounidense Donald Trump o la del Papa con una chaqueta de plumas. Software como DALL-E 2, Midjourney y Stable Diffusion permiten a los aficionados crear imágenes falsas convincentes sin necesidad de dominar un software de edición como Photoshop.
Pero si la IA generativa facilita la creación de contenidos falsos, el problema de su difusión y su viralidad -los componentes más peligrosos de la desinformación- recae en las plataformas, recuerdan periódicamente los expertos. “Los usuarios están utilizando estas herramientas para generar contenido de manera más eficiente que antes (…) pero aún se están difundiendo a través de las redes sociales”, subrayó Sam Altman, jefe de OpenAI (DALL-E, ChatGPT), durante una audiencia en el Congreso a mediados de Puede.