Las alucinaciones de la IA ya influyen en los resultados de búsqueda de Google y pueden dar pie a una retroalimentación muy peligrosa

Si la inteligencia artificial se apoya en sí misma para crear contenido, puede convertirse en un auténtico caos

Inteligencia Artificial
3 comentarios Facebook Twitter Flipboard E-mail

La irrupción de herramientas como ChatGPT, el bot conversacional de OpenAI capaz de elaborar redacciones y escribir código, o de otras más ligadas a vertientes artísticas como Midjourney, han provocado que la inteligencia artificial goce de un alcance tremendo en la industria tecnológica actual. Por ello, cientos de millones de usuarios exprimen sus capacidades a diario, una situación que ha llevado a muchas empresas a apostar por sus bondades. Pero, por desgracia, cada vez es más común una situación que empieza a ser peligrosa: la alucinación de la IA.

Hace unas semanas, multitud de usuarios se quejaron de que Google, el gigante nortamericano, prioriza los resultados generados por IA por encima de aquellos creados por humanos. Esta noticia no es nueva, pero sí hace hincapié en una práctica que podría derivar en un aspecto todavía peor. En la actualidad, las herramientas basadas en inteligencia artificial utilizan la información presente en internet para elaborar sus redacciones, ilustraciones y creaciones de todo tipo. Y esto, en esencia, está provocando una espiral de IA alimentando a otras IA.

Las alucinaciones son un problema para la información veraz

Como recoge el portal Techspot en una reciente publicación, esta es una situación dantesca para la información disponible en internet. Daniel S. Griffin, un investigador que buscaba información falsa procedente de la IA, se topó con que los chatbots tienen la capacidad de influir en otros. Así, herramientas como Bing y Bard se han referido a alucinaciones como ciertas, y como consecuencia de esto las sitúan en los primeros puestos de sus resultados de búsqueda. De esta forma, atribuyen a autores artículos que nunca han escrito y, en consecuencia, dan relevancia a información que es falsa.

Microsoft, una de las principales señaladas, ha asegurado que ya trabaja en corregir este error. Según Griffin, una posible explicación es que esta situación ocurra más en temas en los que existe poco material escrito por humanos en línea, ya que las IA tendrán una mayor tendencia a alucinar al llenar huecos con información inexacta o, en el peor de los casos, falsa. Sea como fuere, esta situación deja patente que las empresas tienen un problema que combatir, ya que la inteligencia artificial es incapaz de discernir lo veraz de lo erróneo.

En 3DJuegos | La IA de Facebook era una buena idea hasta que creó a Luigi con un rifle. Ahora, Meta debe buscar la forma de acabar con estos stickers ofensivos

En 3DJuegos | "Seguro que es un código de amor especial". Las abuelas difuntas son el punto débil de la IA y un usuario vuelve a demostrar por qué con un CAPTCHA

Imagen principal de Firmbee.com (Unsplash) 

Comentarios cerrados
VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...