¿Una herramienta adicional al servicio de la desinformación? OpenAI, gigante de la inteligencia artificial generativa (IA) y editor de ChatGPT, presentó el viernes una herramienta de clonación de voz cuyo uso estará restringido para evitar fraudes o delitos, como el robo de identidad. Llamado “Voice Engine”, este modelo de IA puede reproducir la voz de una persona a partir de una muestra de audio de 15 segundos, según un comunicado de OpenAI sobre los resultados de una prueba a pequeña escala.
«Reconocemos que la capacidad de generar voces similares a las humanas conlleva serios riesgos, que son particularmente importantes en este año electoral», dijo la empresa con sede en San Francisco. «Estamos trabajando con socios estadounidenses e internacionales del gobierno, los medios de comunicación, el entretenimiento, la educación, la sociedad civil y otros sectores y estamos teniendo en cuenta sus comentarios a medida que desarrollamos la herramienta».
En este año electoral crucial en todo el mundo, los investigadores de la desinformación temen el mal uso de las aplicaciones de IA generativa (producción automatizada de textos, imágenes, etc.) y, en particular, de las herramientas de clonación de voz, que son baratas, fáciles de usar y difíciles de rastrear. OpenAI aseguró que había adoptado “un enfoque cauteloso e informado” antes de una distribución más amplia de la nueva herramienta “debido al potencial de uso indebido de voces sintéticas”.
Leer tambiénAmazon apuesta otros 2.750 millones de dólares en Anthropic, rival de OpenAI
Esta cautelosa presentación se produce después de un importante incidente político, cuando un consultor que trabajaba para la campaña presidencial de un rival demócrata de Joe Biden desarrolló un programa automatizado que se hacía pasar por el presidente estadounidense, que hacía campaña para su reelección. La voz que imita la de Joe Biden pidió a los votantes que los alienten a abstenerse en las primarias de New Hampshire. Desde entonces, Estados Unidos ha prohibido las llamadas que utilizan voces clonadas, generadas por IA, para combatir estafas políticas o comerciales.
OpenAI aclaró que los socios que prueban “Voice Engine” acordaron reglas que requieren, entre otras cosas, el consentimiento explícito e informado de cualquier persona cuya voz esté duplicada y transparencia para los oyentes: deben tener claro que las voces que escuchan son generadas por IA. «Hemos implementado un conjunto de medidas de seguridad, incluida una marca de agua para poder rastrear el origen de todo el sonido generado por Voice Engine, así como un seguimiento proactivo de su uso», insistió OpenAI.
En octubre pasado, la Casa Blanca dio a conocer reglas y principios para regir el desarrollo de la IA, incluido el de la transparencia. A Joe Biden le conmovió la idea de que los delincuentes lo utilizaran para atrapar a personas haciéndose pasar por miembros de su familia.