"Me arrepiento de haber utilizado ChatGPT": Un abogado sienta un precedente nunca visto después de un error garrafal de la IA

Steve Schwartz fue víctima de una alucinación de ChatGPT y tendrá que aceptar las consecuencias de sus actos

chatgpt abogado
1 comentario Facebook Twitter Flipboard E-mail

Es indudable que la irrupción de ChatGPT ha marcado un antes y un después. Desde que se estrenó la herramienta de OpenAI, esta ha crecido tanto que en la actualidad consigue congregar a más de cien millones de usuarios al día. De esta forma, este extenso grupo de personas aprovecha las virtudes que ofrece la inteligencia artificial para labores relacionadas con el ocio, lo académico o el trabajo. Sin embargo, uno de los usuarios que utilizó ChatGPT para este último ámbito se ha visto inmerso en un problema mayúsculo después de un mal uso de la inteligencia artificial.

Como recoge el portal Techspot, Steve Schwartz es un abogado de Nueva York que trabaja en el bufete Levidow, Levidow and Oberman. Para intentar agilizar su labor, Schwartz recurrió a ChatGPT de cara a utilizar los conocimientos de este con el litigio entre la aerolínea colombiana Avianca y Roberto Mata, un pasajero que afirma haber sufrido lesiones en un vuelo al aeropuerto internacional John F. Kennedy de Nueva York. Sin embargo, para desgracia de Schwartz, este fue víctima de uno de los peores fenómenos de la inteligencia artificial: las alucinaciones.

Defendió un caso real con ejemplos inventados

Como relatan en el portal norteamericano, Schwartz procedió a defender a Roberto Mata con un escrito de 10 páginas en el que demostraba que el caso debía ir a juicio. En él, citaba relatos similares como el de Varghese contra China Southern Airlines, Martínez contra Delta Airlines y Miller contra United Airlines. Pero, para desgracia de Schwartz, ninguno de estos casos son reales ya que todos proceden de la imaginación de ChatGPT, un caso similar a la vez que la IA inventó la vida criminal de un alcalde de Australia.

Por ello, Schwartz se vio obligado a admitir que había utilizado ChatGPT para completar su investigación sobre el caso. Para su desgracia, no verificó la información que este le facilitó, una posibilidad que defendió asegurando que desconocía que el bot fuese capaz de inventar contenido. De hecho, le preguntó al bot si esta información es real y este le señaló que sí, si bien es evidente que se trataba de un caso de alucinación. Por ello, Schwartz reconoció estar arrepentido de haber utilizado ChatGPT, pero el juez ya ha ordenado una nueva vista para el 8 de julio en la que discutirán esta “situación sin precedentes”.

En 3DJuegos | ChatGPT: qué es, cómo utilizarlo gratis y qué puedes hacer ahora que incluye GPT-4

En 3DJuegos | Si quieres probar GPT-4 gratis sin pagar ChatGPT Plus, estas opciones son perfectas para ti

Imagen principal de Tingey Injury Law Firm (Unsplash)

Comentarios cerrados
VÍDEO ESPECIAL

12.876 visualizaciones

100 DETALLES OCULTOS de RED DEAD REDEMPTION 2

¿Qué detalles ocultos guarda Red Dead Redemption 2? En el video de hoy os presentamos más de 100 curiosidades distintas acerca de la aventura de Arthur Morgan y de John Marston que nos presentó Rockstar Games en 2018.