La clase política estadounidense y los fans de Taylor Swift expresaron su indignación el viernes después de que en los últimos días se compartieran ampliamente en X (antes Twitter) y otras plataformas imágenes pornográficas falsas de la cantante, creadas mediante IA generativa. Una de estas imágenes ha sido vista más de 47 millones de veces en la red social. Según medios estadounidenses, la imagen permaneció en X durante más de 17 horas antes de ser eliminada.

Las imágenes pornográficas falsas (“deepfakes”) de mujeres famosas, pero que también están dirigidas a muchas personas anónimas, no son nuevas. Pero el desarrollo de programas de inteligencia artificial (IA) generativa corre el riesgo de producir un flujo incontrolable de contenido degradante, según muchos activistas y reguladores.

El hecho de que estas imágenes afecten esta vez a Taylor Swift, segunda artista más escuchada del mundo en la plataforma Spotify, podría contribuir a concienciar a las autoridades sobre el problema, dada la indignación de sus millones de fans. “Lo único ‘bueno’ de que esto le pase a Taylor Swift es que ella es lo suficientemente influyente como para que se apruebe una ley para eliminar esto. Estás enfermo”, publicó en X Danisha Carter, una influencer con una audiencia de varios cientos de miles de personas en las redes sociales.

X es conocido por tener reglas menos estrictas sobre la desnudez que Instagram o Facebook. Apple y Google tienen derecho a controlar los contenidos que circulan en las aplicaciones mediante las reglas que imponen a sus sistemas operativos móviles, pero hasta ahora han tolerado esta situación en X. En un comunicado de prensa, X aseguró que tenía “una política de tolerancia cero” con la publicación no consensuada de imágenes de desnudos. La plataforma declaró que estaba “eliminando concretamente todas las imágenes identificadas” del cantante y “tomando las medidas apropiadas contra las cuentas que las publicaron”. Los representantes de la cantante estadounidense aún no han comentado.

«Ce qui est arrivé à Taylor Swift n’est pas nouveau, des femmes sont la cible de fausses images sans leur consentement depuis des années», a rappelé pour sa part l’élue démocrate Yvette Clarke, qui a soutenu une loi pour lutter contre el fenómeno. «Con los avances en IA, crear estas imágenes es más fácil y económico». Un estudio realizado en 2019 estimó que el 96% de los vídeos deepfake eran de naturaleza pornográfica. Según la revista Wired, 113.000 de estos vídeos se subieron a los principales sitios pornográficos durante los primeros nueve meses de 2023.