Cyrille Dalmont es directora de investigación del Instituto Thomas More.
“La IA da aún más miedo cuando se acerca a la realidad. Encuentra los deseos de 2024 de
Si muchos medios de comunicación se divirtieron con la difusión de esta información falsa (fake news) por parte de un miembro de la mayoría, podemos sin embargo preguntarnos sobre esta práctica dudosa dada la obsesión de Emmanuel Macron desde su primer mandato por regular, por no decir controlar, la información. , por motivos de lucha contra las noticias falsas.
Porque desde la ley del 22 de diciembre de 2018 contra la manipulación de la información, comúnmente llamada “ley anti-noticias falsas”, hemos asistido a una larguísima sucesión de intentos de “regular” la libertad de expresión (ley Avia, “Désinfox coronavirus” plataforma, la Comisión Bronner, la ley del espacio digital, el proyecto de reserva ciudadana digital, etc.). Una mente descontenta podría fácilmente ver en esta implacabilidad una forma de voluntad estatal destinada a garantizarse el monopolio de la descripción de la realidad.
Lea tambiénProyecto de ley sobre espacio digital: “El regreso de la ley Avia… ¿solo que peor?”
También es curioso observar que la primera aplicación de la ley contra las noticias falsas ya se refería a un tuit de un miembro de la mayoría, en este caso el ex Ministro del Interior Christophe Castaner.
Este deseo presidencial de concederse el monopolio de la narrativa de la realidad en las redes sociales se resume en la sorprendente declaración de Emmanuel Macron durante su saludo a la prensa el 15 de enero de 2020: “Nos enfrentamos a la lucha contra la información falsa, las apropiaciones indebidas de redes sociales […]. Por lo tanto, debemos ser capaces de responder a este desafío contemporáneo, de definir colectivamente el estatus de tal o cual documento”.
El Presidente comprendió muy rápidamente que, con un 41% de franceses que se informan de un modo u otro a través de las redes sociales y un porcentaje que alcanza el 62% entre los menores de 25 años, el Estado que hasta entonces controlaba la información implícitamente a través de la radiodifusión pública ahora se encuentra se encuentra en la fuerte competencia de las redes sociales y la fuerza de los vídeos e imágenes que transmiten.
Las declaraciones del ministro del Interior, Gérald Darmanin, sobre los disturbios del pasado mes de junio, que habrían sido obra de “muchos Kévin y Mattéo”, cuando las redes sociales mostraban una realidad muy diferente, son la perfecta ilustración de ello.
El «broma de mal gusto» de Loïc Signor, destinado a descalificar a un opositor político mediante la producción de noticias falsas generadas por inteligencia artificial, debe, sin embargo, más allá de la anécdota, alertarnos sobre los peligros que conlleva el uso de tales herramientas digitales al servicio de la conquista del poder, de su ejercicio, pero también su conservación.
De hecho, si ahora es posible reproducir la imagen, la voz, los tics lingüísticos, las expresiones faciales y los gestos de un individuo o traducir en tiempo real sus palabras a varios idiomas, todo ello preservando el timbre de su voz, es bastante obvio. que también podemos obligarle a decir cualquier cosa y las consecuencias que se producirán podrían ser desastrosas.
Así, en un contexto geopolítico extremadamente tenso, las declaraciones falsas de los principales líderes políticos sobre la situación en Gaza, Ucrania o Taiwán podrían crear muy rápidamente una conflagración global. Un vídeo falso de declaración de guerra de un jefe de Estado producido por una organización terrorista o una potencia beligerante podría provocar rápidamente que una situación se salga de control. También es posible imaginar vídeos falsos de ataques, torturas o ataques militares contra civiles generados íntegramente por IA con el objetivo de provocar reacciones totalmente desproporcionadas en la opinión pública y la desestabilización de regiones enteras.
La manipulación global de la información por parte de la organización terrorista Hamas, que engañó a los medios de comunicación del mundo acusando a Israel de «bombardear intencionalmente un hospital en Gaza, provocando la muerte de cientos de personas», es el ejemplo perfecto. Esta manipulación, difundida por cuentas de propaganda de Hamás, fue difundida por los medios de comunicación tradicionales y difundida en las redes sociales. Evidentemente, una IA podría reproducir esta manipulación relativa a un ataque en Rusia o en el Líbano sin que exista siquiera, evidentemente sería desmentida, pero las imágenes habrán dado la vuelta al mundo y las dudas siempre persistirán.
Lo mismo ocurre con las futuras elecciones en las democracias liberales que se sucederán en los próximos meses y que sin duda serán la oportunidad perfecta para fabricar declaraciones falsas y verdaderas en las redes sociales con el objetivo de descalificar a tal o cual competidor. Las negaciones no borrarán las noticias falsas transmitidas por los recuerdos. Estas manipulaciones, ya sean obra de potencias extranjeras, organizaciones terroristas o políticos sin escrúpulos, corren el riesgo de fracturar de forma duradera nuestras democracias, ya muy debilitadas.
Lea también: Fake news: “Cualquier intervención estatal en materia de libertad de expresión es delicada”
Por tanto, es más que urgente que el legislador se ocupe del problema. No prohibir ni limitar el desarrollo de la inteligencia artificial haciendo grandes declaraciones de intenciones que en realidad no son más que ilusiones sin ningún impacto en una economía globalizada. Esta metodología, que la Comisión Europea viene aplicando desde hace más de treinta años, da como resultado sistemáticamente un debilitamiento del ecosistema digital europeo que, de ser líder en los años 80, se ha vuelto casi insignificante. Las empresas europeas representan hoy menos del 5% de la capitalización de las 50 principales empresas tecnológicas del mundo.
Una solución fiable para evitar ser abusado en el futuro por la IA generativa consistiría en exigir a las empresas que las desarrollan que inserten un código informático intrínseco que permita mostrarlas sistemáticamente en reproductores de audio, vídeo, imágenes o procesadores de texto, un pictograma visual. advirtiendo al usuario o lector que este mensaje fue generado por inteligencia artificial y que por tanto puede ser origen de un intento de manipulación o propaganda.