Un abogado creyó ciegamente en ChatGPT y terminó de vuelta a clase con 5.000 euros de multa

La IA inventó casos y sentencias falsas que el abogado no verificó para utilizar a su favor

Abogado Juez Ia
Sin comentarios Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

Uno de los principales problemas de la inteligencia artificial tiene lugar cuando las herramientas basadas sufren alucinación. En esencia, esto se produce cuando la IA vende como veraz una serie de informaciones inventadas, un aspecto que da pie a situaciones de todo tipo marcadas por la incompetencia de la inteligencia artificial. Sin embargo, la historia de un abogado del bufete Semrad es una de las más alocadas que hemos vivido en los últimos meses, ya que la misma está protagonizada por una serie de leyes y jurisprudencias inventadas por ChatGPT.

Como señala PC Gamer, el abogado que protagoniza esta anécdota se apoyó en el modelo de Ia de OpenAI para buscar legislación relacionada con bancarrotas y reveses económicos. Al hacerlo, se topó con casos completamente inventados que, a la postre, llevaron a Michael Slade (juez del caso) a descubrir no solo que las citas legales proporcionadas no existían, sino que no tenían relación con los temas alegados. Así, un ejemplo podría ser "In re Jager", uno de los casos citados que ni existe ni, por ende, no cuenta con citas fabricadas relacionadas con el mismo.

El problema de abusar de la IA

Thomas Nield, abogado señalado por esta situación, admitió haber utilizado herramientas de inteligencia artificial y aseguró que no verificó los resultados, motivo que le llevó a pensar que la IA no inventaría citas de forma errónea. De hecho, aseguró que estaba arrepentido y que cayó en este error al no haber utilizado nunca la inteligencia artificial, señalando que fue él mismo quién se denunció ante el colegio de abogados de Illinois. El bufete, por su parte, se posicionó en contra del uso de la IA sin verificación manual de datos, uno de los principales problemas detrás de esta acción.

De esta forma, a pesar de que retiraron solicitudes de pago y se produjo formación en línea, el juez consideró que "debían existir consecuencias" para castigar los actos de Nield. Así, Slade impuso una sanción económica de 5.000 euros que el abogado tendrá que pagar al secretario del Tribunal de Bancarrota. A su vez, también ordenó que tanto Nield como otro abogado senior asistieran en persona a una sesión sobre inteligencia artificial del Congreso Nacional de Jueces de Bancarrota.

A raíz de todo el revuelo causado, el juez criticó la ignorancia sobre los riesgos de utilizar inteligencia artificial sin una posterior verificación de los datos, ya que considera que este tema lleva más de dos años siendo uno de los debates principales no solo de la sociedad en general, sino de su sector en particular. A su vez, también señaló que ChatGPT no accede a bases de datos legales ni, por ende, genera citas jurídicas fiables, aunque reconoció que es perfecto para imitar estilos narrativos o musicales. Por ello, lanzó una advertencia al asegurar que las futuras infracciones similares serán más severas y enfatizó que los abogados no deben delegar su investigación legal en la IA.

Imagen principal de 3DJuegos

En 3DJuegos | Mark Zuckerberg enfrenta una nueva polémica: denuncian a Meta por alimentar su IA con miles de vídeos sexuales

En 3DJuegos | Nvidia tiene hambre y pone fecha a su caza del trono de Intel y AMD: el estreno de su CPU ya tiene fecha

Comentarios cerrados
VÍDEO ESPECIAL

16 visualizaciones

20 JUEGOS con un HYPE BESTIAL que NO CUMPLIERON con las EXPECTATIVAS

De una manera u otra, todos hemos sido presa del hype en algún momento. Esa ilusión que se apodera de nosotros cuando un juego nos pinta bien es un arma de doble filo, porque ilusiona cuando todo sale genial, pero rompe el corazón cuando no. Y hoy vamos a hablar del segundo de...