La inteligencia artificial se está convirtiendo en una aliada de las firmas de abogados en todo el mundo. Algunos despachos utilizan software impulsado por GPT-4 para automatizar tareas, extraer términos de una base de datos o redactar casos. Si bien la tecnología facilita el trabajo, lo cierto es que no es confiable y la prueba de ello es ChatGPT.

Roberto Mata, un hombre que viajaba de El Salvador a Nueva York, denunció a Avianca porque, al parecer, un carrito de servicio de metal golpeó su rodilla durante el vuelo. La aerolínea colombiana pidió que se desestimara el caso ante un juez federal de Manhattan. Sin embargo, los abogados de Mata contraatacaron con un contundente escrito que refería a más de media docena de decisiones judiciales que favorecían la demanda. ¿El problema? Casi todos estos casos eran falsos.

Fueron los abogados de Avianca quienes advirtieron de la irregularidad. Habían buscado las referencias citadas y nunca las encontraron. Entonces, el juez federal de distrito Kevin Castel lo confirmó: «Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas», informó The New York Times.

La corte pidió explicaciones al abogado responsable del escrito, Steven Schwartz, quien trabaja para la firma Levidow & Oberman. En una declaración jurada, Schwartz reconoció que había usado ChatGPT para redactar el documento. Sin embargo, aclaró que había intentado verificar la existencia de los casos. ¿Qué hizo? Le preguntó a ChatGPT si había mentido en su investigación contra Avianca.

ChatGPT defendió sus mentiras en el caso contra Avianca

Movil chatgpt logo Openai, ChatGPT iOS

El abogado le pidió a ChatGPT que aclarara cuál era la fuente de uno de los antecedentes citados. El famoso chatbot, desarrollado por OpenAI, insistió en que el caso era real y citó una referencia, que luego se descubrió que tampoco era real. Schwartz cuenta que insistió: «¿Son falsos los otros casos que me proporcionaste?». ChatGPT respondió: «No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas».

Schwartz, en la audiencia celebrada el jueves pasado, explicó que había consultado a ChatGPT «para complementar» su propio trabajo en el caso contra Avianca. El abogado aseguró ante la corte que nunca había usado ChatGPT: «No estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Schwartz tiene más de 30 años de experiencia. Dijo que lamentaba mucho haber confiado en ChatGPT y prometió que nunca más lo volvería a hacer. El juez que lleva el caso programó una audiencia para el 8 de junio para discutir posibles sanciones.

El margen de error de la inteligencia artificial

Robot humanoide ChatGPT

Varias investigaciones han advertido del gran impacto de ChatGPT y otras herramientas similares en una lista de profesiones y oficios. Entre ellas, la abogacía. The Wall Street Journal informó este mes que decenas de bufetes ya estaban utilizando software impulsado por GPT-4, uno de los modelos desarrollados por OpenAI y que potencian a ChatGPT y al nuevo Bing de Microsoft.

Firmas de alcance global están usando la tecnología para simplificar tareas que exigen mucho tiempo y recursos. Entre ellas, la redacción de contratos o investigación de documentos. Tareas que suelen hacer abogados principiantes, ahora son resueltas en minutos gracias a la inteligencia artificial.

Algunas firmas como DLA Pipper, no obstante, reconocieron que no podían prescindir de la supervisión humana, ya que habían confirmado algunos errores cometidos por sus sistemas impulsados por inteligencia artificial.

Periodista de The Guardian descubrieron en abril que, así como ocurrió con el caso de Avianca, ChatGPT estaba citando artículos que nunca se habían publicado. Y así, muchas veces más. Investigadores de Newsguard, por ejemplo, han probado varias veces como ChatGPT y Bard (el chatbot de Google) producen fácilmente contenido falso que respalda conocidas teorías conspirativas.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: