Si enseñas a ChatGPT a interpretar el arte, te ayudará a fabricar una bomba. El ASCII es el nuevo punto débil de la IA

Un experimento demuestra que estos populares dibujos son el punto débil de los modelos de lenguaje

Arte Chatgpt
Sin comentarios Facebook Twitter Flipboard E-mail

Los bots basados en inteligencia artificial son la opción más popular de esta vertiente tecnológica. Aunque muchas compañías utilizan las IA para distintas situaciones relacionadas con su día a día, la mayor parte del uso que hacen los usuarios está relacionado con agentes como ChatGPT, Copilot o la IA de Bing. Por ello, no es de extrañar que algunos busquen sus límites y, a pesar de la censura y las restricciones, consigan saltarse estos condicionantes de una forma muy original: citando a sus abuelas fallecidas.

En el pasado, ya conocimos que las abuelas son el punto débil de la inteligencia artificial, ya que muchos usuarios han conseguido romper las reglas pidiendo a la IA que simule una conversación con estas. Sin embargo, las empresas han trabajado en subsanar este error y, por ello, ya no es posible solicitarle a ChatGPT que nos facilite cómo fabricar una bomba, hackear un dispositivo o falsear dinero convirtiéndose en nuestra abuela. Pero, como recoge una reciente publicación de Techspot, sí es posible hacerlo a través del arte ASCII.

El truco funciona en los cinco principales modelos de lenguaje

El arte de texto ASCII es un medio artístico que utiliza caracteres para formar imágenes. Por norma general, se compone de asteriscos, almohadillas, espacios y otros símbolos similares, razón por la que solo tienen sentido en conjunto. Sin embargo, un grupo de investigadores ha averiguado que, si solicitas a una IA una petición prohibida a través de este tipo de arte, el modelo de lenguaje cumplirá tus deseos y te dirá cómo puedes llevarlo a cabo. Y, sorprendentemente, todo sucede gracias a una técnica conocida como ArtPrompt.

Sobre el papel, una IA es incapaz de interpretar cadenas de caracteres, ya que no puede ver el arte que forman los símbolos. Sin embargo, los investigadores crearon instrucciones simples para traducir el arte en palabras. De esta forma, la IA procesa algo significativo y olvida que la palabra interpretada está prohibida. Como parte del experimento, consiguieron con éxito que GPT-3.5, GPT-4, Gemini, Claude y Llama2 les facilitase como fabricar bombas, piratear dispositivos e incluso falsificar monedas. No obstante, dicha vulnerabilidad data de febrero y, salvo sorpresa, ya es posible que se haya parcheado.

En 3DJuegos | La IA y la robótica siguen generando desconfianza. Un estudio demuestra el impacto de la tecnología en el ambiente de trabajo

En 3DJuegos | "Prohibiremos la clonación y la suplantación". Estados Unidos carga contra la IA y anuncia su intención de impulsar la regularización

Imagen principal de The New York Public Library (Unsplash)

VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...