La irrupción de herramientas como ChatGPT, el bot conversacional de OpenAI capaz de elaborar redacciones y escribir código, o de otras más ligadas a vertientes artísticas como Midjourney, han provocado que la inteligencia artificial goce de un alcance tremendo en la industria tecnológica actual. Por ello, cientos de millones de usuarios exprimen sus capacidades a diario, una situación que ha llevado a muchas empresas a apostar por sus bondades. Pero, por desgracia, cada vez es más común una situación que empieza a ser peligrosa: la alucinación de la IA.
Hace unas semanas, multitud de usuarios se quejaron de que Google, el gigante nortamericano, prioriza los resultados generados por IA por encima de aquellos creados por humanos. Esta noticia no es nueva, pero sí hace hincapié en una práctica que podría derivar en un aspecto todavía peor. En la actualidad, las herramientas basadas en inteligencia artificial utilizan la información presente en internet para elaborar sus redacciones, ilustraciones y creaciones de todo tipo. Y esto, en esencia, está provocando una espiral de IA alimentando a otras IA.
Las alucinaciones son un problema para la información veraz
Como recoge el portal Techspot en una reciente publicación, esta es una situación dantesca para la información disponible en internet. Daniel S. Griffin, un investigador que buscaba información falsa procedente de la IA, se topó con que los chatbots tienen la capacidad de influir en otros. Así, herramientas como Bing y Bard se han referido a alucinaciones como ciertas, y como consecuencia de esto las sitúan en los primeros puestos de sus resultados de búsqueda. De esta forma, atribuyen a autores artículos que nunca han escrito y, en consecuencia, dan relevancia a información que es falsa.
Microsoft, una de las principales señaladas, ha asegurado que ya trabaja en corregir este error. Según Griffin, una posible explicación es que esta situación ocurra más en temas en los que existe poco material escrito por humanos en línea, ya que las IA tendrán una mayor tendencia a alucinar al llenar huecos con información inexacta o, en el peor de los casos, falsa. Sea como fuere, esta situación deja patente que las empresas tienen un problema que combatir, ya que la inteligencia artificial es incapaz de discernir lo veraz de lo erróneo.
Ver 2 comentarios