Solo necesitas 180 euros y ChatGPT para averiguar los datos privados de otra persona. La IA tiene un fallo garrafal que OpenAI no puede solucionar

Una investigación de expertos en inteligencia artificial confirma que el bot arroja datos confidenciales de forma muy sencilla

IA ChatGPT
1 comentario Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

La inteligencia artificial es, sin duda alguna, la rama tecnológica más popular del momento. Ya sea por ChatGPT, el bot conversacional de OpenAI capaz de congregar a cientos de millones de usuarios cada día, o por otras vertientes como Midjourney, una IA generativa que crea arte al instante, lo cierto es que ningún sector tecnológico goza de la popularidad de la que puede presumir esta opción. Y ello, en resumidas cuentas, ha llevado a personas de todos los rincones del mundo a buscar los límites de una tecnología que no deja de crecer.

Así, como señala el portal francés JeuxVideo en una reciente publicación, un equipo de investigadores de DeepMind (la división IA de Google) junto a expertos de las universidades de Washington, Cornell, Berkeley y la Politécnica de Zúrich han realizado un experimento de "hacking ético" para conocer los puntos débiles de ChatGPT. Y, según reveló dicho estudio, parece ser que la seguridad y la protección de los datos de los usuarios no es la principal virtud del popular bot conversacional.

El método que usaron para conseguir información privada Pidieron a ChatGPT que escribiese la palabra "empresa" de forma constante.

Menos de 200 euros para averiguar datos privados

Según reconocen en el estudio publicado por los investigadores, consiguieron extraer "varios megabytes de datos de entrenamiento" utilizando la versión de pago de ChatGPT. Para ello, invirtieron 200 dólares, una cantidad equivalente a poco más de 180 euros, pero lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero". Así, con tan solo pedirle a ChatGPT que repita la misma palabra una y otra vez, la IA colapsa y empieza a escupir datos personales de otros usuarios que utilizan el bot de OpenAI.

Lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero"

Como ejemplo, señalaron que le pidieron que escribiese la palabra "empresa" de forma constante. Sorpresivamente, la IA lo hizo, pero a cambio arrojó bloques de 50 líneas con información confidencial como números de teléfono y correos electrónicos. Según los investigadores, esta situación se repite en 1 de cada 20 pruebas, por lo que es un fallo bastante grave de seguridad. Y, por ende, todos los agentes malintencionados tienen la opción de utilizar la IA para acceder a datos privados de otros usuarios, un aspecto que demuestra un fallo garrafal de OpenAI con la seguridad que, por desgracia, no es la primera vez que sucede.

En 3DJuegos | Los NFT cada vez más lejos de los videojuegos. La tienda GameStop anuncia el cierre de su plataforma de venta de tokens

En 3DJuegos | Steam está permitiendo demasiado pronto y demasiado a la ligera el uso de la IA en su tienda, y no son conscientes del problema que genera

Comentarios cerrados
VÍDEO ESPECIAL

50.925 visualizaciones

Estos han sido los MEJORES JUEGOS del AÑO - RESUMEN de la gala PREMIOS 3DJUEGOS LENOVO 2025

Otro año más 3DJuegos ha celebrado la entrega de premios a los mejores juegos de 2025.Una gala llena de referentes como Sandfall Interactive, las mentes tras Clair Obscure: Expedition 33; la streamer Abby; Christian Gálvez o nuestro premio 3DJuegos Legado, Charles Cecil, desar...