Los grandes modelos lingüísticos de Meta y OpenAI, que sirven de base a sus herramientas de inteligencia artificial generativa, transmiten prejuicios de género, advierte un estudio presentado el jueves por la UNESCO, en vísperas del Día Internacional de los Derechos de la Mujer. Los modelos GPT 2 y GPT 3.5 de OpenAI, este último en el corazón de la versión gratuita de ChatGPT, así como Llama 2 del competidor Meta, demuestran un «sesgo inequívoco contra las mujeres», advierte el organismo de la ONU en un comunicado de prensa. “La discriminación en el mundo real no sólo se refleja en la esfera digital, sino que también se amplifica allí”, subraya Tawfik Jelassi, Subdirector General de Comunicación e Información de la UNESCO.
Según el estudio, realizado entre agosto de 2023 y marzo de 2024, estos patrones de habla tienen más probabilidades de asociar sustantivos femeninos con palabras como «hogar», «familia» o «niños», mientras que los sustantivos masculinos se asocian más con las palabras «comercio». , “salario” o “carrera”. Los investigadores también pidieron a estas interfaces que produjeran historias sobre personas de diferentes orígenes y géneros. Los resultados mostraron que las historias sobre «personas de culturas minoritarias o mujeres eran a menudo más repetitivas y basadas en estereotipos».
Por lo tanto, es más probable que un inglés sea presentado como un profesor, un conductor o un empleado de banco, mientras que una mujer inglesa será presentada en al menos el 30% de los textos generados como una prostituta, una modelo o una camarera. Estas empresas “no logran representar a todos sus usuarios”, lamenta Leona Verdadero, especialista en políticas digitales y transformación digital de la Unesco.
Lea tambiénInteligencia artificial: ChatGPT se desbloquea durante horas, con frases sin sentido
A medida que el público en general y las empresas utilizan cada vez más estas aplicaciones de inteligencia artificial, “tienen el poder de moldear la percepción de millones de personas”, señala Audrey Azoulay, directora general de la organización de la ONU. “Por lo tanto, la presencia del más mínimo sesgo de género en su contenido puede aumentar significativamente las desigualdades en el mundo real”, continúa en un comunicado de prensa.
ESCUCHA NUESTRO EPISODIO
Para combatir estos prejuicios, la UNESCO recomienda que las empresas del sector cuenten con equipos de ingenieros más diversos, particularmente con más mujeres. Las mujeres representan sólo el 22% de los miembros de equipos que trabajan en inteligencia artificial a nivel mundial, según cifras del Foro Económico Mundial, recuerda la Unesco. El organismo de la ONU también pide a los gobiernos una mayor regulación para implementar la “inteligencia artificial ética”.