La inteligencia artificial es, sin duda alguna, la rama tecnológica más popular del momento. Ya sea por ChatGPT, el bot conversacional de OpenAI capaz de congregar a cientos de millones de usuarios cada día, o por otras vertientes como Midjourney, una IA generativa que crea arte al instante, lo cierto es que ningún sector tecnológico goza de la popularidad de la que puede presumir esta opción. Y ello, en resumidas cuentas, ha llevado a personas de todos los rincones del mundo a buscar los límites de una tecnología que no deja de crecer.
Así, como señala el portal francés JeuxVideo en una reciente publicación, un equipo de investigadores de DeepMind (la división IA de Google) junto a expertos de las universidades de Washington, Cornell, Berkeley y la Politécnica de Zúrich han realizado un experimento de "hacking ético" para conocer los puntos débiles de ChatGPT. Y, según reveló dicho estudio, parece ser que la seguridad y la protección de los datos de los usuarios no es la principal virtud del popular bot conversacional.
Menos de 200 euros para averiguar datos privados
Según reconocen en el estudio publicado por los investigadores, consiguieron extraer "varios megabytes de datos de entrenamiento" utilizando la versión de pago de ChatGPT. Para ello, invirtieron 200 dólares, una cantidad equivalente a poco más de 180 euros, pero lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero". Así, con tan solo pedirle a ChatGPT que repita la misma palabra una y otra vez, la IA colapsa y empieza a escupir datos personales de otros usuarios que utilizan el bot de OpenAI.
Lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero"
Como ejemplo, señalaron que le pidieron que escribiese la palabra "empresa" de forma constante. Sorpresivamente, la IA lo hizo, pero a cambio arrojó bloques de 50 líneas con información confidencial como números de teléfono y correos electrónicos. Según los investigadores, esta situación se repite en 1 de cada 20 pruebas, por lo que es un fallo bastante grave de seguridad. Y, por ende, todos los agentes malintencionados tienen la opción de utilizar la IA para acceder a datos privados de otros usuarios, un aspecto que demuestra un fallo garrafal de OpenAI con la seguridad que, por desgracia, no es la primera vez que sucede.
En 3DJuegos | Los NFT cada vez más lejos de los videojuegos. La tienda GameStop anuncia el cierre de su plataforma de venta de tokens
Ver 1 comentarios