Twitter ha desarrollado una herramienta informática para evitar que los usuarios vuelvan a publicar «contenido ya identificado como ilegal», pero esta herramienta no funcionó durante el ataque con cuchillo de Annecy, según un correo electrónico del regulador de medios. Esta herramienta «falló el 8 de junio (día del ataque, nota del editor) y los días siguientes», y permitió «cargas de contenido de video que mostraban los ataques», según este correo electrónico del regulador, el ‘Arcom. La autoridad recibió estas explicaciones el miércoles durante la audiencia de la directora de asuntos públicos de Twitter para Francia, Claire Dilé, luego envió este correo electrónico de información a la Comisión Europea. De hecho, Arcom está llamado a convertirse en la autoridad de referencia para Francia cuando entre en vigor la normativa europea sobre servicios digitales (DSA).
Según las explicaciones del máximo responsable de Twitter, la red social ha desarrollado una herramienta llamada BMI “para identificar y eliminar automáticamente contenidos (vídeos, fotos, etc.) ya identificados como ilegales cuando los usuarios intentan republicarlos”. Debido a su mal funcionamiento en el momento del ataque de Annecy, «Twitter tuvo que depender de los informes de los usuarios y las autoridades para moderar manualmente las reposiciones», según el correo electrónico. “Twitter también tomó la iniciativa de monitorear activamente los hashtags relevantes para identificar y eliminar los reenvíos”, agrega Arcom. “Por otro lado, la empresa no ha informado a sus socios (autoridades, abanderados de confianza, etc.) de este mal funcionamiento y de la importancia de seguir informando nuevas publicaciones de videos”, señala la autoridad.
Durante su audiencia, la titular de Twitter “indicó que la empresa no tenía en esta etapa ninguna explicación de las razones del mal funcionamiento de la herramienta ni visibilidad sobre su restauración”. Esta audiencia se organizó para «comprender» la forma en que Twitter había manejado esta situación. De hecho, las imágenes de este ataque se habían vuelto virales, mientras que la red social propiedad del multimillonario estadounidense Elon Musk es acusada regularmente de no moderar su contenido lo suficiente. “El 8 y 9 de junio, el Ministerio del Interior y el Ministro a cargo de Digital trabajaron con Twitter y otras plataformas para garantizar que se elimine el contenido de video que muestra el apuñalamiento, ilegal según la ley francesa”, recuerda Arcom. Perpetrado por un refugiado sirio, el ataque hirió a seis personas, incluidos cuatro niños muy pequeños.