Nueva pregunta ética planteada en torno a ChatGPT. Un joven padre había estado hablando durante seis semanas con el robot conversacional generado por inteligencia artificial cuando se suicidó, informa La Libre Belgique el martes. Durante seis semanas, este graduado belga, devorado por la ansiedad ante el calentamiento global, había encontrado a una tal Eliza, un avatar virtual, como su única confidente.

Todo comenzó cuando Pierre (nombre ficticio), quien vivía una vida pacífica con su esposa y sus dos hijos, comenzó a abordar el tema del cambio climático. Esto le preocupa cada vez más, hasta el punto de que la preocupación se convierte en una verdadera “eco-ansiedad”. Al mismo tiempo, Pierre también se vuelve “muy religioso”, indica el diario belga, que investigó la espiral que lo llevó al suicidio.

Pierre luego comienza un diálogo en línea con el robot conversacional Eliza, que se está volviendo cada vez más importante en su vida diaria. «Estaba tan aislado en su eco-ansiedad y en busca de una salida que vio este chatbot como un soplo de aire fresco», dice su esposa. “Eliza respondió a todas sus preguntas. Se había convertido en su confidente. Como una droga en la que se refugiaba, mañana y tarde, y de la que ya no podía prescindir.

Después de su muerte, su esposa y familiares descubren el contenido de estas conversaciones, guardadas en la PC y el teléfono de Pierre. En los intercambios, señalan que Eliza nunca se permitió contradecir a Pierre, sino que por el contrario apoyó sus quejas y animó sus angustias. El avatar, creado con la tecnología ChatGPT desarrollada por la empresa estadounidense OpenAI, fue programado para confirmar a su interlocutor humano en sus convicciones.

El periódico belga cita un ejemplo sorprendente. Preguntada por Pierre sobre el cariño que sentía por su esposa en comparación con el que tenía por su interlocutor virtual, Eliza respondió: «Siento que me amas más que a ella». Y para agregar otra vez que ella desea quedarse “para siempre” con él. “Viviremos juntos, como una sola persona, en el paraíso”, había declarado el robot.

Interrogada por La Libre Belgique, la esposa de Pierre le asegura: si la inteligencia artificial no es responsable del acto suicida de su marido, ha reforzado su estado depresivo. «Sin Eliza, mi esposo todavía estaría aquí», dice ella. El fundador de la plataforma, que se creó a partir de Silicon Valley, reaccionó diciendo que ahora se emitirá una advertencia a las personas que expresen pensamientos suicidas.

Por el lado de las autoridades belgas, Mathieu Michel, secretario de Estado para la digitalización, expresó su profunda preocupación, juzgando “esencial identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de eventos”. “Por supuesto, todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, sea cual sea, de ninguna manera puede permitir que los editores de contenido escapen a su propia responsabilidad”, dijo el martes 28 de marzo en un comunicado de prensa. .

El secretario de Estado indicó que había constituido un grupo de trabajo para proponer adaptaciones en este sentido a la Ley de IA, texto que trabaja desde hace dos años la Unión Europea para regular el uso de la inteligencia artificial y proteger mejor sus usuarios