¿Las burbujas de noticias en las que nos mantienen encerrados los algoritmos de las redes sociales refuerzan la polarización política o simplemente reflejan divisiones ya existentes? Un importante proyecto de investigación realizado en torno a la época de las elecciones estadounidenses de 2020 concluyó que, contrariamente a lo que se suele afirmar, el algoritmo de Facebook no moldeó las creencias políticas de sus usuarios.
Esta serie de estudios es el resultado de una colaboración entre Meta, la empresa matriz de Facebook e Instagram, y un grupo de investigadores de universidades estadounidenses. Este último tenía acceso a los datos internos de la empresa y tenía la posibilidad de realizar pruebas cambiando la experiencia en línea de los usuarios. Se han publicado un total de cuatro estudios en las revistas científicas Science y Nature. El algoritmo «influye de manera muy significativa en la experiencia de las personas en la plataforma», es decir, lo que ven en él y cuánto tiempo lo usan, dijeron los gerentes de proyecto Talia Stroud de la Universidad de Texas en Austin y Joshua Tucker de la Universidad de Nueva York.
Lea tambiénBertille Bayart: “¿Quién todavía le tiene miedo a Facebook?”
Pero «cambiar el algoritmo, incluso durante unos meses, es poco probable que cambie las creencias políticas de las personas», agregaron. Estas creencias se midieron a través de cuestionarios, completados por los usuarios después de participar en los experimentos, que modificaban los contenidos que se mostraban en su página de inicio. Los investigadores reconocieron que el período de tres meses observado puede no haber sido lo suficientemente largo para detectar un efecto, dado que la polarización política en los Estados Unidos se ha estado acumulando durante varias décadas. Aún así, “estos resultados desafían el discurso dominante que culpa a las burbujas de noticias de las redes sociales por los problemas contemporáneos en la democracia estadounidense”, escribieron los autores de uno de los estudios.
El algoritmo de Facebook, que utiliza el aprendizaje automático para resaltar contenido en función de los intereses de los usuarios, ha sido acusado de reforzar su aislamiento en una burbuja ideológica, así como de desinformación. Para el primer estudio, se reclutaron alrededor de 40 000 voluntarios a través de invitaciones en sus páginas de Facebook e Instagram. Un grupo mantuvo el algoritmo tal como está, y el otro cambió para ver las publicaciones en orden cronológico (la más reciente en la parte superior).
Este orden cronológico fue utilizado por Facebook en sus inicios, y algunos observadores creen que cambiar a este método podría reducir el impacto dañino de las redes sociales. El estudio mostró que el grupo que cambió a la línea de tiempo pasó la mitad de tiempo en Facebook e Instagram que el grupo que mantuvo el algoritmo intacto. Con el orden cronológico, los usuarios también vieron más contenido de amigos con opiniones más moderadas, o de grupos y páginas con una audiencia diversa.
Leer tambiénMeta cambia parcialmente su tratamiento de personalidades en Facebook e Instagram
Pero este orden cronológico también tuvo el efecto de aumentar la cantidad de contenido político y poco confiable visto. A pesar de todos estos cambios, los investigadores no observaron cambios en las creencias políticas entre estos usuarios. «Esto sugiere que el hilo cronológico no es una varita mágica contra el problema de la polarización política», concluyó la coautora Jennifer Pan, de la Universidad de Stanford.
Un segundo estudio analizó el impacto del contenido compartido, que constituye más de una cuarta parte de lo que ven los usuarios de Facebook. Eliminar estas publicaciones compartidas por amigos podría ser una forma de controlar el contenido viral, dicen algunos. Por lo tanto, esto es lo que se probó para un grupo de usuarios. Como resultado, vieron caer la proporción de contenido político en su página de inicio, pero nuevamente, esto no afectó sus creencias políticas.
Un tercer estudio analizó el efecto del contenido de páginas, grupos o usuarios de ideas afines, que constituyen la mayoría de lo que los usuarios adultos estadounidenses ven en Facebook. En un experimento que involucró a más de 23,000 usuarios, la eliminación de este tipo de contenido nuevamente no tuvo impacto en el extremismo ideológico o la creencia en afirmaciones falsas.
Sin embargo, un cuarto estudio confirmó un efecto de “segregación ideológica” en Facebook. Los usuarios conservadores tenían más probabilidades de quedar atrapados en una burbuja ideológica que los izquierdistas, encontraron los investigadores. Además, el 97% de las publicaciones consideradas falsas por un programa de verificación de datos fueron vistas más por conservadores que por progresistas. En un comunicado de prensa, Meta saludó estos resultados. Ellos “se suman a la evidencia de investigación acumulada que muestra que no hay evidencia de que las redes sociales causen una polarización dañina o tengan consecuencias significativas para el comportamiento o las creencias políticas”, dijo Nick Clegg, jefe de asuntos internacionales de Meta.