Una controversia actual ha vuelto a situar el tema de la inteligencia artificial (IA) y la protección de datos en el primer plano del debate público. Una denuncia de la organización austriaca de protección de datos Noyb contra Open AI, la empresa detrás del conocido ChatGPT, está causando revuelo.

La demanda alega que los sistemas de inteligencia artificial tergiversan los datos personales y, por lo tanto, violan las normas de protección de datos. Esto es lo que informa la “FAZ”. La manzana de la discordia es la interpretación incorrecta que hace la IA de la fecha de nacimiento de una figura pública. Este error parece ser sintomático de una debilidad fundamental de los modelos lingüísticos modernos, que tienden a generar información falsa o engañosa, un fenómeno conocido como «alucinación».

El Reglamento General Europeo de Protección de Datos (GDPR) establece que los interesados ​​tienen derecho a corregir o eliminar información incorrecta. Pero según Open AI, actualmente no es posible ajustar el sistema para que ya no genere datos incorrectos. Esta declaración plantea preguntas sobre la responsabilidad y las opciones de solución de problemas.

Este problema no es sólo teórico. Un abogado en EE.UU. fue multado por basarse en precedentes falsos generados por una IA. Asimismo, la aerolínea Air Canada tuvo que ofrecer un descuento prometido falsamente por un chatbot con IA. Estos incidentes muestran las consecuencias reales que pueden derivarse de los errores de la inteligencia artificial.

Aunque los modelos lingüísticos se basan en el principio de las relaciones lingüísticas estadísticas y, por lo tanto, pueden representar correctamente los hechos como efecto secundario, no contienen ningún conocimiento real. La representación precisa de la información suele ser aleatoria y no es el resultado de una comprensión de los hechos, lo que puede dar lugar a información errónea.

La ciencia busca formas de resolver el problema de las alucinaciones de la IA. Un enfoque es entrenar los modelos con datos de alta calidad. Otra es “limpiar” un modelo de lenguaje de información falsa restando un modelo malo de los parámetros de un modelo bueno. Además, se propone equipar los modelos de IA con acceso a Internet para que puedan buscar hechos actuales. A pesar de todos los esfuerzos por mejorar los modelos de IA, seguirán produciéndose alucinaciones.