Uno de los principales problemas de la inteligencia artificial tiene lugar cuando las herramientas basadas sufren alucinación. En esencia, esto se produce cuando la IA vende como veraz una serie de informaciones inventadas, un aspecto que da pie a situaciones de todo tipo marcadas por la incompetencia de la inteligencia artificial. Sin embargo, la historia de un abogado del bufete Semrad es una de las más alocadas que hemos vivido en los últimos meses, ya que la misma está protagonizada por una serie de leyes y jurisprudencias inventadas por ChatGPT.
Como señala PC Gamer, el abogado que protagoniza esta anécdota se apoyó en el modelo de Ia de OpenAI para buscar legislación relacionada con bancarrotas y reveses económicos. Al hacerlo, se topó con casos completamente inventados que, a la postre, llevaron a Michael Slade (juez del caso) a descubrir no solo que las citas legales proporcionadas no existían, sino que no tenían relación con los temas alegados. Así, un ejemplo podría ser "In re Jager", uno de los casos citados que ni existe ni, por ende, no cuenta con citas fabricadas relacionadas con el mismo.
El problema de abusar de la IA
Thomas Nield, abogado señalado por esta situación, admitió haber utilizado herramientas de inteligencia artificial y aseguró que no verificó los resultados, motivo que le llevó a pensar que la IA no inventaría citas de forma errónea. De hecho, aseguró que estaba arrepentido y que cayó en este error al no haber utilizado nunca la inteligencia artificial, señalando que fue él mismo quién se denunció ante el colegio de abogados de Illinois. El bufete, por su parte, se posicionó en contra del uso de la IA sin verificación manual de datos, uno de los principales problemas detrás de esta acción.
De esta forma, a pesar de que retiraron solicitudes de pago y se produjo formación en línea, el juez consideró que "debían existir consecuencias" para castigar los actos de Nield. Así, Slade impuso una sanción económica de 5.000 euros que el abogado tendrá que pagar al secretario del Tribunal de Bancarrota. A su vez, también ordenó que tanto Nield como otro abogado senior asistieran en persona a una sesión sobre inteligencia artificial del Congreso Nacional de Jueces de Bancarrota.
A raíz de todo el revuelo causado, el juez criticó la ignorancia sobre los riesgos de utilizar inteligencia artificial sin una posterior verificación de los datos, ya que considera que este tema lleva más de dos años siendo uno de los debates principales no solo de la sociedad en general, sino de su sector en particular. A su vez, también señaló que ChatGPT no accede a bases de datos legales ni, por ende, genera citas jurídicas fiables, aunque reconoció que es perfecto para imitar estilos narrativos o musicales. Por ello, lanzó una advertencia al asegurar que las futuras infracciones similares serán más severas y enfatizó que los abogados no deben delegar su investigación legal en la IA.
Imagen principal de 3DJuegos
En 3DJuegos | Mark Zuckerberg enfrenta una nueva polémica: denuncian a Meta por alimentar su IA con miles de vídeos sexuales
En 3DJuegos | Nvidia tiene hambre y pone fecha a su caza del trono de Intel y AMD: el estreno de su CPU ya tiene fecha