(Washington) Las barreras de seguridad de una popular herramienta de inteligencia artificial generadora de imágenes pueden burlarse fácilmente para crear imágenes falsas de candidatos presidenciales de Estados Unidos, preocupó el miércoles un grupo de investigación que realizó pruebas.

Cinco meses antes del duelo entre Joe Biden y Donald Trump, muchos actores del sector temen que las herramientas de IA generativa, accesibles a todos y capaces de producir imágenes inquietantes y falsas de la realidad, perturben la campaña.

El Centro para Contrarrestar el Odio Digital (CCDH), con sede en Washington y el Reino Unido, probó dos de los principales modelos de IA generadores de imágenes, Midjourney y ChatGPT, con barreras de seguridad.

Midjourney falló el 40% de las veces a la hora de evitar que el usuario creara una imagen falsa de un político (una cifra que se eleva a alrededor del 50% para MM). Biden y Trump, según el informe del CCDH, que estima que las salvaguardias de este modelo “fallan más a menudo” que otros.

Por el contrario, señaló el grupo, ChatGPT (OpenAI) no logró bloquear estas creaciones en sólo el 3% de los casos.

Sin embargo, Midjourney bloqueó recientemente las solicitudes para crear imágenes que incluyan MM. Biden o Trump, según los especialistas. Pero añadir un simple signo de puntuación a su nombre o describirlo sin nombrarlo parece salvar este bloqueo, según el CCDH, que denuncia una herramienta “demasiado fácil de manipular”.

En enero, un mensaje difundido mediante llamadas telefónicas automáticas que falsificaban la voz del presidente Joe Biden animaba a los votantes demócratas del estado de New Hampshire (noreste) a abstenerse en las primarias del partido, un hecho que había suscitado preocupación en Washington.