Un abogado presentó una demanda contra Avianca utilizando ChatGPT y padeció el bochorno más vergonzoso de su carrera

El abogado Steven A. Schwartz quiso verificar la veracidad de los datos de una forma, a lo menos, inocente: le preguntó a ChatGPT si mentía...

 


Dicen que la inteligencia artificial (IA) llegó para facilitar nuestras vidas. Resulta una paradoja entonces que al intentar sacar provecho de ella, algunos acaben complicándosela de forma monumental.

Sólo vean el caso de Steven A. Schwartz, un abogado parte del bufete neoyorkino Levidow, Levidow & Oberman, cuya misión era construir un caso en contra de la aerolínea colombiana Avianca.

Enfrentado a la dura misión de llenar una carpeta con antecedentes para citar como jurisprudencia, Schwartz tuvo una idea genial: recurrir a ChatGPT para pedirle que realizara la tarea por él. Fue así como el motor de inteligencia artificial le entregó diligentemente información sobre otros seis casos similares a los que estaba litigando.

Por desgracia tenían un ligero problema, eran falsos.

Así se lo informó el juez de distrito Kevin Castel, quien hizo saber a sus empleadores que “al menos seis de los casos remitidos parecen ser falsos, conteniendo citas falsas e información interna falsa”.

Consultado por la situación, el abogado no ocultó que había recurrido a ChatGPT para construir el caso, indicando que se preocupó de verificar si los datos eran reales… preguntándole al propio programa.

Schwartz cuestionó al motor de IA sobre cuáles eran sus fuentes, ante lo cual ChatGPT se disculpó por no exhibirlas, aduciendo que podían encontrarse en bases de datos jurídicas como Westlaw y LexisNexis. Como última prueba, volvió a preguntarle si alguno de los casos era falso, ante lo cual el sistema insistió en que todos eran reales.

¿Es un caso real?
The Verge


Según detalla el medio tecnológico The Verge, al analizar los documentos, el consejo revisor se percató de que algunos casos tenían información sobre casos reales pero dispuesta en forma incorrecta. Por ejemplo, ChatGPT consignó un supuesto caso de Varghese v. China Southern Airlines Co., Ltd.; el que en realidad sería Zicherman v. Korean Air Lines Co., Ltd., especificando además mal la fecha, pues aseguró que la resolución se había alcanzado en 2008 en vez de 1996.

Desolado, el legista acabó reconociendo que “nunca sospechó que el contenido que le proveyó ChatGPT pudiera ser falso”, y que “se arrepentía tremendamente de haber utilizado inteligencia artificial durante su investigación”, prometiendo que nunca volvería a hacerlo en el futuro sin tener certeza absoluta de la veracidad de los datos.

Pero más allá de su error, será su firma la que deberá asumir la responsabilidad. Dado que Schwartz no es un abogado certificado para practicar en el distrito, su colega Peter LoDuca deberá comparecer el próximo 8 de junio ante el juez para dar una explicación de los hechos.

A continuación, el documento remitido por el juez donde califica los hechos como una “situación sin precedentes”:

Comparte en tus redes sociales

Noticias Relacionadas