(Bruselas) Protección de los niños versus protección de la vida privada: Los Estados de la UE parecían divididos el jueves sobre un reglamento destinado a combatir la difusión de imágenes y vídeos de carácter criminal infantil, que aún podría ser objeto de largas negociaciones.

Presentado en mayo de 2022 por la Comisión Europea, este proyecto legislativo tiene como objetivo contrarrestar la proliferación de imágenes y vídeos de abuso sexual de niños y la solicitación de niños por parte de delincuentes infantiles, exigiendo que las plataformas y servicios de mensajería en línea detecten y luego denuncien dichos contenidos. .

Tras un debate entre los ministros del Interior a mediados de junio, los embajadores de los Veintisiete comprobaron el jueves, durante una reunión en Bruselas, una persistente ausencia de consenso.

“Parecía que simplemente no se alcanzaría la mayoría cualificada requerida”, según una fuente diplomática belga, cuyo país ocupa la presidencia del Consejo de la UE hasta finales de junio.

«El punto ha sido eliminado del orden del día y las consultas continuarán con calma», continuó, subrayando que el texto sigue siendo «una alta prioridad».

Hungría, que ocupará la presidencia rotatoria de la UE a partir del 1 de julio, será la encargada de retomar los trabajos para llegar a una posición común de los estados miembros sobre el texto, antes de iniciar conversaciones con el Parlamento Europeo para ultimarlo.

Actualmente, la detección de contenidos delictivos infantiles por parte de las plataformas se realiza de forma voluntaria, lo que resulta en gran medida insuficiente dada la magnitud del problema, según la UE.  

En tal caso, el proveedor estaría obligado a analizar automáticamente el contenido de las comunicaciones a través de este servicio.

En noviembre, el Parlamento Europeo enmendó la propuesta para limitar el alcance de estas medidas cautelares de vigilancia a los usuarios sospechosos de tales acciones y excluir las comunicaciones cifradas de extremo a extremo de estas obligaciones de detección.

Según la Comisión, en 2022 el grupo Meta detectó más de 6,6 millones de imágenes o vídeos relacionados con abusos sexuales a niños por parte de un usuario en la UE en Messenger e Instagram, y cerró 2,3 millones de cuentas de usuarios en relación con la explotación sexual infantil.