Un abogado usa 6 sentencias falsas de ChatGPT en un juicio contra Avianca

La denominada como «inteligencia artificial» parece que ha venido para quedarse y según muchos analistas nos puede traer más problemas que ventajas. Y si no, que se lo digan a Avianca por la situación que ha tenido que enfrentar durante un juicio.

En los juzgados de la Corte del Distrito Sur de Nueva York, el juev Kevin Castel lleva un caso de un pasajero contra la aerolínea Avianca. El pasajero demandó a la compañía colombiana alegando que en 2019 resultó herido por un carrito de servicio (de catering) durante un vuelo entre El Salvador y Nueva York.

Boeing B787 de Avianca.
Boeing B787 de Avianca.

El caso llegó finalmente a los tribunales este año. Durante una de las alegaciones del abogado de la acusación (es decir, el que representa al demandante, en este caso el pasajero), éste presentó un escrito que contenía antecedentes de otras compañías aéreas en casos similares. El único problema es que resultó que media docena de esos casos eran falsos.

Directamente no existían, sino que fueron una invención de ChatGPT. Esto lo descubrieron los abogados de Avianca cuando empezaron a revisar esas sentencias para ofrecer una alegación en una sesión posterior. Sin embargo, al buscar en la base de datos, esos juicios no existían, aunque los expedientes si estaban formulados como si fuera uno real.

A este tipo de situaciones de esta herramienta de inteligencia artificial se denominan alucinaciones, son invenciones del programa cuando no puede encontrar una respuesta acorde a lo que se le exige por parte de su interlocutor humano. El programa se inventó nombres de personas contras otras compañías reales como «Martínez contra Delta Air lines o Zicherman contra Korean Air», por citar solo algunos ejemplos.

El abogado que presentó originalmente estas sentencias como parte de su alegato, ha presentado una declaración jurada para el tribunal de Nueva York en el que pide disculpas por haber utilizado el programa de inteligencia artificial para contrarrestar «los datos de su propio trabajo» y asegura que no sabía que este programa podía ofrecer respuestas falsas.

El juicio se sigue desarrollando y por el momento se desconoce cómo se ha tomado el tribunal este «error» humano y la mentira de un programa informático.

Lo que está claro es que a partir de ahora este tipo de situaciones serán cada vez más comunes y que, cada vez, será más difícil distinguir la realidad de mentiras o de cosas directamente inventadas con un fin u otro porque, por ejemplo, en este caso el programa informático incluso desarrolló las sentencias como si las hubiera redactado un tribunal.

1 comentario en “Un abogado usa 6 sentencias falsas de ChatGPT en un juicio contra Avianca”

  1. Pingback: Un dron de la USAF con IA "mata" 2 veces a su operador durante unos ejercicios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *