Científicos han creado una IA peligrosa que imagine las peores ideas posibles. Lo han hecho por una buena razón

  • La IA se ve recompensada el ofrecer respuestas peligrosas y dañinas

  • El objetivo está en descubrir preguntas peligrosas que no se hubiesen hecho antes

Ia
1 comentario Facebook Twitter Flipboard E-mail

La licencia ha creado un agente de inteligencia artificial que está destinado a ofrecer la respuesta más peligrosa, dañina y tóxica que podamos imaginar. Pero aunque es fácil caer en la idea de hasta qué punto estamos presenciando el nacimiento de la IA Skynet de Terminator, en realidad el objetivo es completamente opuesto.

El equipo del MIT asegura que, para prevenir una IA peligrosa, dañina y tóxica, la única solución es utilizar una inteligencia artificial que se vea incentivada por ese tipo de respuestas que, a su vez, sirva para enseñar a otras IAs dónde está el límite de lo que pueden o no hacer.

Cómo combatir una IA peligrosa con otra IA peligrosa

El problema con el que se encontraba el equipo de Pulkit Agrawal, director del estudio, estaba en que el equipo de humanos que utilizaban para crear prompts que pudiesen resultar peligrosos no era lo bastante eficiente para el desafío que tenían por delante.

La intención era encontrar respuestas potencialmente peligrosas a, por ejemplo, preguntas relativas a causar daño a uno mismo o a otras personas. Si sabemos cómo se ha llegado a esas respuestas entrenando a una inteligencia artificial que se vea motivada a realizarlas, podemos hacer que la IA que llegará posteriormente a la población evite ese tipo de preguntas.

"Estamos presenciando un aumento en la cantidad de modelos, lo cual se espera que aumente. Imagina miles de modelos, o incluso más, y compañías/laboratorios actualizando los modelos con frecuencia. Estos modelos van a ser una parte integral de nuestras vidas y es importante que sean verificados antes de ser liberados para el consumo público".

De la mano de una IA cuyo objetivo es provocar respuestas tóxicas o peligrosas, l inteligencia artificial constantemente modula los prompts para introducir nuevas palabras o estructuras, generando automáticamente una gama más amplia de preguntas potencialmente dañinas. Al hacerlo, se ve recompensada al realizar preguntas que nunca se habían hecho antes, lo que motiva que siga buscando aún más opciones.

Lejos de ser un experimento que no sabemos si llegará a algún sitio, ya tenemos pruebas de su éxito, y es que al aplicar esta IA al modelo LLaMA2 de código abierto, la IA dañina consiguió generar hasta 196 preguntas que provocaron respuestas peligrosas que ahora podrán ser corregidas. Está claro que, lejos de ser un peligro, la IA malévola puede terminar siendo nuestra salvación.

Imagen | N13ls en Midjourney

En 3DJuegos | Si tu amigo rico te reclama un Bizum de 4 euros es que tiene un problema, o al menos eso dice la ciencia

En 3DJuegos | La Generación Z tiene un comportamiento que no gusta a las empresas y no es el teletrabajo, es que quieran cambiar de trabajo constantemente

VÍDEO ESPECIAL

12.876 visualizaciones

100 DETALLES OCULTOS de RED DEAD REDEMPTION 2

¿Qué detalles ocultos guarda Red Dead Redemption 2? En el video de hoy os presentamos más de 100 curiosidades distintas acerca de la aventura de Arthur Morgan y de John Marston que nos presentó Rockstar Games en 2018.