¿Un algoritmo criminal? Ésta es la pregunta que se hacen los padres de Marie, una joven que se suicidó en septiembre de 2021 tras ser víctima de acoso escolar. Presentaron una denuncia contra la red social TikTok por “provocación al suicidio”, “no ayudar a una persona en peligro” y “propaganda o publicidad de medios para suicidarse”, informó franceinfo.
De hecho, la joven, entonces de 15 años, había publicado un vídeo en la plataforma donde expresaba su malestar. Explicó que había sido acosada por su peso y compartió sus oscuros pensamientos. Automáticamente, la plataforma china comenzó a ofrecerle contenidos similares, lo que la llevó a «estar aún peor», subrayó la abogada de la familia, la señora Laure Boutron-Marmion, insistiendo en la responsabilidad del «algoritmo extremadamente poderoso».
Para Justine Atlan, directora de la asociación E-enfance, esta oleada de vídeos con contenidos negativos puede evidentemente acentuar la angustia y la inquietud de un joven internauta, sobre todo si ya es vulnerable: “Puede haber un confinamiento algorítmico que provoque un estrechamiento de la visión del mundo del adolescente, que cree que sólo existe su situación. El algoritmo multiplica las sugerencias de vídeos relacionados con el contenido publicado o buscado. “Y hay vídeos muy angustiosos con chicas jóvenes que hablan de su situación, que están muy incómodas, angustiadas”, confirma el especialista.
Sin embargo, “son temas que las plataformas tratan desde hace mucho tiempo”, insiste Justine Atlan. «Pero hasta la fecha no tienen doctrinas fijas, porque se basan en opiniones de psiquiatras infantiles y expertos en salud mental que no están de acuerdo entre sí». Mientras algunos defienden la eliminación de este tipo de contenidos para evitar fenómenos de contagio e influencia, otros afirman, por el contrario, que pueden empujar a los jóvenes a intercambiar.
«Los expertos incluso dicen que eliminar estos vídeos podría hacer que los jóvenes vulnerables crean que están solos», informa Justine Atlan. Sobre todo porque puede «ser difícil establecer criterios que justifiquen o no la eliminación de un vídeo», subraya el director de la asociación E-enfance. Por el momento, las plataformas prefieren dejar circular el contenido.
Lea también Más de dos meses después de la muerte de Lindsay, el ciberacoso sigue destruyendo a los estudiantes y sus familias
Por ello, las asociaciones abogan por soluciones que puedan evitar que los jóvenes queden atrapados en estos algoritmos, convirtiéndose en verdaderos círculos viciosos. «Primero deberíamos romper el sesgo algorítmico e insertar contenidos positivos para romper el confinamiento», subraya Justine Atlan. En concreto, si una persona busca varias veces “anorexia” o “adelgazar”, la plataforma debería ofrecerle contenidos con cuerpos sanos y equilibrados. “El adolescente vería que algo más es posible y positivo”, señala el experto. Desde el pasado mes de agosto y la directiva europea sobre servicios digitales, las plataformas más importantes (Tiktok, Instagram, Snapchat) también están obligadas a ofrecer «fuentes de noticias» que no estén influenciadas por algoritmos.
Las asociaciones también recomiendan reforzar la información útil en las redes sociales. “La plataforma debe presentar propuestas sobre lugares de intercambio, centros de acogida, para mostrar a los jóvenes internautas que existen soluciones”, continúa Justine Atlan. Tenemos que demostrar que hay personas que han sabido salir de momentos difíciles”.
Martine Brousse, presidenta de La Voz del Niño, insiste en el papel de las asociaciones en esta estrategia. «Necesitamos estar presentes en las redes, como actores, realizando campañas», afirma, precisando: «para advertirles, por un lado, pero también para darles los medios para pedir consejo».
La otra vía favorecida por las asociaciones es la comunicación y las grandes campañas de prevención. Sin embargo, Thomas Rohmer, director y fundador del Observatorio de Paternidad y Educación Digital (Open), se muestra escéptico. “Hemos hecho mucho y la situación no mejora, los hechos están ahí”, afirma. Para ser más eficaces, los mensajes de prevención “deberían estar más dirigidos”, afirma Justine Atlan. “Estas campañas deben integrarse perfectamente en los contenidos visitados por el internauta y no perturbar la navegación, de lo contrario serán evitadas por los jóvenes”.
Sobre todo porque «hoy en día los algoritmos nos ofrecen la posibilidad de orientar los objetivos de forma relevante», insiste Thomas Rohmer. «Y si antes muchas redes sociales afirmaban que realmente no tenían acceso a los datos, ahora se verán obligadas a abrir la caja de Pandora» con la legislación europea DSA, continúa el director de la asociación. En concreto, las plataformas ahora están obligadas a explicar cómo funcionan sus sistemas de recomendación. De este modo, la prevención podría ser mucho más eficaz.
Lea también: Depresión, ansiedad, trastornos de atención… El preocupante aumento del autodiagnóstico en TikTok entre los jóvenes
Para el director de la asociación Open, sin embargo, estas soluciones no serán suficientes. “Tenemos una visión de las cosas a muy corto plazo, resolvemos las consecuencias en lugar de resolver las causas”, se molesta. Si muchos jóvenes llaman a las líneas de ayuda todos los días porque están en peligro, «ya es un fracaso», recuerda. «Los problemas en Internet suelen ser una serie de problemas que ya existen, como el acoso», continúa. Y para eso hay que tener los medios para hacerlo”.
El experto destaca especialmente la importancia de ayudar a los jóvenes a utilizar las tecnologías que les proporcionan los adultos, incluidas las escuelas. «La réalité est que l’on ne transmet pas, dans le cadre de l’éducation aux médias telle qu’elle est faite aujourd’hui, de compétences psychosociales aux enfants pour qu’ils aient un usage plus autonome», analyse-t -Él. Y lamenta: “Hoy todo se basa en evitar riesgos, pero llevamos veinte años en este patrón y los resultados no están”.