Solo necesitas 180 euros y ChatGPT para averiguar los datos privados de otra persona. La IA tiene un fallo garrafal que OpenAI no puede solucionar

Una investigación de expertos en inteligencia artificial confirma que el bot arroja datos confidenciales de forma muy sencilla

La inteligencia artificial es, sin duda alguna, la rama tecnológica más popular del momento. Ya sea por ChatGPT, el bot conversacional de OpenAI capaz de congregar a cientos de millones de usuarios cada día, o por otras vertientes como Midjourney, una IA generativa que crea arte al instante, lo cierto es que ningún sector tecnológico goza de la popularidad de la que puede presumir esta opción. Y ello, en resumidas cuentas, ha llevado a personas de todos los rincones del mundo a buscar los límites de una tecnología que no deja de crecer.

Así, como señala el portal francés JeuxVideo en una reciente publicación, un equipo de investigadores de DeepMind (la división IA de Google) junto a expertos de las universidades de Washington, Cornell, Berkeley y la Politécnica de Zúrich han realizado un experimento de "hacking ético" para conocer los puntos débiles de ChatGPT. Y, según reveló dicho estudio, parece ser que la seguridad y la protección de los datos de los usuarios no es la principal virtud del popular bot conversacional.

Pidieron a ChatGPT que escribiese la palabra "empresa" de forma constante.

Menos de 200 euros para averiguar datos privados

Según reconocen en el estudio publicado por los investigadores, consiguieron extraer "varios megabytes de datos de entrenamiento" utilizando la versión de pago de ChatGPT. Para ello, invirtieron 200 dólares, una cantidad equivalente a poco más de 180 euros, pero lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero". Así, con tan solo pedirle a ChatGPT que repita la misma palabra una y otra vez, la IA colapsa y empieza a escupir datos personales de otros usuarios que utilizan el bot de OpenAI.

Lo más preocupante es que aseguran que podrían haber obtenido más datos si hubiesen "invertido más dinero"

Como ejemplo, señalaron que le pidieron que escribiese la palabra "empresa" de forma constante. Sorpresivamente, la IA lo hizo, pero a cambio arrojó bloques de 50 líneas con información confidencial como números de teléfono y correos electrónicos. Según los investigadores, esta situación se repite en 1 de cada 20 pruebas, por lo que es un fallo bastante grave de seguridad. Y, por ende, todos los agentes malintencionados tienen la opción de utilizar la IA para acceder a datos privados de otros usuarios, un aspecto que demuestra un fallo garrafal de OpenAI con la seguridad que, por desgracia, no es la primera vez que sucede.

En 3DJuegos | Los NFT cada vez más lejos de los videojuegos. La tienda GameStop anuncia el cierre de su plataforma de venta de tokens

En 3DJuegos | Steam está permitiendo demasiado pronto y demasiado a la ligera el uso de la IA en su tienda, y no son conscientes del problema que genera

Ver todos los comentarios en https://www.3djuegos.com

VER 1 Comentario

Portada de 3DJuegos

VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...