Desde que hace dos años Google introdujese en sus búsquedas el sistema AI Overview, una respuesta creada con inteligencia artificial destinada a que no tengas que seguir buscando o pulsando enlaces, la duda sobre cuántas veces nos estaba colando un gol por toda la escuadra con sus resúmenes seguía sin resolverse. Ya se ha despejado la incógnita.
Tras un análisis realizado por el New York Times en colaboración con la startup IA Oumi, enfocada en evaluar la precisión de los distintos modelos de lenguaje, el sistema se enfrentó a 4.326 búsquedas de Google en dos rondas distintas. Aunque tras la realizada en octubre el sistema mejoró sustancialmente en la efectuada el pasado febrero, ambas traen dos malas noticias bajo el brazo.
Las 57 millones de mentiras de Google por minuto
El dato en crudo puede resultar hasta positivo. En octubre de 2025, cuando AI Overview aún utilizaba Gemini 2, los resúmenes generados por la IA acertaron en un 85% de las veces. Está lejos de la perfección que se le presupone, pero nada mal, en cualquier caso. Con el salto a Gemini 3, en cambio, la prueba del pasado febrero de 2026 elevó ese porcentaje de respuestas correctas al 91%. Frente a ese escenario de celebración, justo aquí es cuando entran en juego una noticia mala y otra peor.
La noticia mala es que esa tasa de error no se limita a un 9% de respuestas incorrectas vistas desde una perspectiva de calidad, sino de cantidad. Ese porcentaje supone que Google está entregando 57 millones de mentiras cada hora con una media de cerca de un millón de respuestas incorrectas por minuto. Pese a la mejoría del pasado octubre a febrero, la cifra está lejos de ser ideal.
La noticia peor es que, en la reducción de esa tasa de error, las respuestas son cada vez más opacas. Mientras que con Gemini 2 el 37% de las respuestas ofrecían enlaces citados que no confirmaban su afirmación, impidiendo así corroborar la certeza de esas afirmaciones con fuentes de calidad, con Gemini 3 el porcentaje está saltando hasta un 56%.
Es decir, que Google te da una verdad y te pide que confíes ciegamente en ella en más de la mitad de las ocasiones mientras arroja un enlace que no lo sustenta, lo que plantea no pocas dudas sobre la transparencia y manipulación que esas respuestas puedan tener en el futuro.
Otro problema destacado por el New York Times pasa por apuntar hacia qué fuentes se dirige la IA de Google cuando lo hace. De todas las respuestas analizadas, Facebook estaba en la segunda fuente más citada y Reddit aparecía en la cuarta, lo que por razones obvias si en algún momento te has asomado a los likes de tu abuela, en muchas ocasiones también motivaba ese índice de respuestas incorrectas.
Imagen | Rendy Novantino
En 3DJuegos | Al preguntar a Google si estás enfermo crees que buscará informes médicos para contestar. Estás equivocado
Ver 0 comentarios