Originalmente, era solo una demanda trivial entre un individuo y una aerolínea, acusado de ser responsable de las lesiones que dice haber sufrido. Pero como revela el New York Times, los abogados de la aerolínea quedaron desconcertados por el escrito enviado por los abogados del demandante: entre los casos citados como jurisprudencia, para respaldar su solicitud, este último citó varios casos que simplemente no existieron.

El juez de Nueva York a cargo del caso, P. Kevin Castel, escribió entonces a los abogados de la demandante para pedirles explicaciones: «seis de las sentencias citadas se refieren a decisiones judiciales falsas y mencionan citaciones falsas», observa.

Implicado, el bufete de abogados Levidow

Lea tambiénAurélie Jean: «¿Tienen razón los guionistas de Hollywood al temer a ChatGPT?»

Schwartz, quien expresó un «tremendo pesar» ante el tribunal cuando se dio cuenta de su error, explicó que nunca antes había usado ChatGPT y que no sabía que algunas de las respuestas proporcionadas por el algoritmo estaban inventadas y, por lo tanto, eran falsas. Sin embargo, ChatGPT advierte a sus usuarios que a veces corre el riesgo de «proporcionar información incorrecta».

El abogado proporcionó al tribunal capturas de pantalla de sus interacciones de ChatGPT, que muestran que el chatbot le había confirmado que una de las paradas caprichosas sí había existido. Cuando el abogado le preguntó cuáles eran sus fuentes, la inteligencia artificial citó a LexisNexis y Westlaw, dos bases de datos que hacen referencia a decisiones judiciales. Sin embargo, cuando entramos en “Varghese v. China Southern Airlines Co Ltd” (el nombre de una de las paradas citadas en el escrito) en el motor de búsqueda LexisNexis, no se encuentran resultados.

Los dos abogados, Steven A. Scwartz y Peter LoDuca, están citados a una audiencia el 8 de junio, con vistas a un posible proceso disciplinario en su contra. Schwartz prometió al tribunal que ya no buscaría más en ChatGPT sin luego verificar por sí mismo la realidad de los juicios propuestos por la inteligencia artificial.