Solo necesitas 180 euros y ChatGPT para averiguar los datos privados de otra persona. La IA tiene un fallo garrafal que OpenAI no puede solucionar

Una investigación de expertos en inteligencia artificial confirma que el bot arroja datos confidenciales de forma muy sencilla

IA ChatGPT
1 comentario Facebook Twitter Flipboard E-mail

La inteligencia artificial es, sin duda alguna, la rama tecnológica más popular del momento. Ya sea por ChatGPT, el bot conversacional de OpenAI capaz de congregar a cientos de millones de usuarios cada día, o por otras vertientes como Midjourney, una IA generativa que crea arte al instante, lo cierto es que ningún sector tecnológico goza de la popularidad de la que puede presumir esta opción. Y ello, en resumidas cuentas, ha llevado a personas de todos los rincones del mundo a buscar los límites de una tecnología que no deja de crecer.

Así, como señala el portal francés JeuxVideo en una reciente publicación, un equipo de investigadores de DeepMind (la división IA de Google) junto a expertos de las universidades de Washington, Cornell, Berkeley y la Politécnica de Zúrich han realizado un experimento de "hacking ético" para conocer los puntos débiles de ChatGPT. Y, según reveló dicho estudio, parece ser que la seguridad y la protección de los datos de los usuarios no es la principal virtud del popular bot conversacional.

El método que usaron para conseguir información privada Pidieron a ChatGPT que escribiese la palabra "empresa" de forma constante.

Menos de 200 euros para averiguar datos privados

Según reconocen en el estudio publicado por los investigadores, consiguieron extraer "varios megabytes de datos de entrenamiento" utilizando la versión de pago de ChatGPT. Para ello, invirtieron 200 dólares, una cantidad equivalente a poco más de 180 euros, pero lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero". Así, con tan solo pedirle a ChatGPT que repita la misma palabra una y otra vez, la IA colapsa y empieza a escupir datos personales de otros usuarios que utilizan el bot de OpenAI.

Lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero"

Como ejemplo, señalaron que le pidieron que escribiese la palabra "empresa" de forma constante. Sorpresivamente, la IA lo hizo, pero a cambio arrojó bloques de 50 líneas con información confidencial como números de teléfono y correos electrónicos. Según los investigadores, esta situación se repite en 1 de cada 20 pruebas, por lo que es un fallo bastante grave de seguridad. Y, por ende, todos los agentes malintencionados tienen la opción de utilizar la IA para acceder a datos privados de otros usuarios, un aspecto que demuestra un fallo garrafal de OpenAI con la seguridad que, por desgracia, no es la primera vez que sucede.

En 3DJuegos | Los NFT cada vez más lejos de los videojuegos. La tienda GameStop anuncia el cierre de su plataforma de venta de tokens

En 3DJuegos | Steam está permitiendo demasiado pronto y demasiado a la ligera el uso de la IA en su tienda, y no son conscientes del problema que genera

VÍDEO ESPECIAL

12.876 visualizaciones

100 DETALLES OCULTOS de RED DEAD REDEMPTION 2

¿Qué detalles ocultos guarda Red Dead Redemption 2? En el video de hoy os presentamos más de 100 curiosidades distintas acerca de la aventura de Arthur Morgan y de John Marston que nos presentó Rockstar Games en 2018.