En 1966, Joseph Weizenbaum publicó ELIZA en Communications of the ACM, un programa del MIT que simulaba conversación humana con reglas simples y mucha psicología involuntaria. ELIZA no "entendía" frases, sino que buscaba palabras clave, aplicaba reglas de descomposición y recomponía respuestas. Al hacerlo, creaba la ilusión de un diálogo coherente, una situación que le ha llevado a convertirse en una versión primitiva de ChatGPT.
El guion más famoso fue DOCTOR, uno inspirado en la terapia rogeriana en el que la máquina de devolvía preguntas y reformulaciones para que tú mismo rellenaras huecos. Así, el programa corría en el entorno de Project MAC y sistemas de tiempo compartido, y lo hacía en un momento en el que hablar con un ordenador era extraño y cualquier chispa parecía mágica.
Lo fascinante fue que mucha gente comenzó a atribuir emociones y comprensión a un sistema de patrones, un fenómeno que poco después se bautizó como "el efecto ELIZA". Weizenbaum quedó inquieto con la reacción, ya que había creado un espejo verbal y descubrió que los humanos vemos intención incluso donde solo hay mecánica.
La explicación del creador
En su artículo, Weizenbaum explica que el contexto es mínimo: ELIZA detecta una pista, elige una plantilla y responde con el tono justo para que el usuario complete el sentido. Esto convirtió a ELIZA en una prueba temprana de algo muy actual, una forma de ver cómo una conversación fluida puede engañar. Así, aunque por debajo no haya razonamiento ni modelo del mundo, el truco sirvió para fascinar a todos los que interactuaron con ELIZA.
Al mismo tiempo, también mostró el poder del diseño de interfaz: una pantalla de texto y un ritmo correcto bastaban para que el usuario olvidara que hablaba con un programa. Sorprendentemente, el propio Weizenbaum acabó criticando el uso indiscriminado de la informática en decisiones humanas, dado que vio una capacidad de seducción peligrosa en ELIZA.
En este escenario, el chatbot de los 60 es útil hoy: no lo es solo por su tecnología, sino por la lección sobre confianza ciega y la forma en la que evaluamos "inteligencia" en un diálogo. Así, este invento funcionaba con sustituciones: si tu decías "mi madre", podía decir "háblame más tu madre". Solo con ese giro, bastaba para convencer del truco e invitar a los usuarios a seguir escribiendo.
¿Cómo funcionaba ELIZA?
El paper detalla reglas de "reassembly" que mezclaban fragmentos del usuario, un truco que hoy podríamos reconocer en el funcionamiento de bots sencillos y guiones de soporte. Además, también deja patente sus límites: si se salía de su script, se rompía. Aun así, muchos preferían pensar que era "tímida" o "misteriosa" antes que admitir lo obvio.
Gracias a su rendimiento, ELIZA influyó en generaciones de programas conversacionales y en el vocabulario del campo, mucho antes de los modelos neuronales y de internet como combustible. Su legado, por tanto, está en la pregunta incómoda: "¿Importa que la máquina no entienda o importa mucho más precisamente por eso?". Sin saberlo, consiguió dejar un legado histórico.
Comparado con un LLM moderno, ELIZA se asemeja mucho a un juguete y, si quisiéramos humanizar su funcionamiento, podría decirse que se trata de un manual de instrucciones que sigue vigente. Por eso, cuando debatimos sobre aspectos como la seguridad y el alineamiento de la IA, ELIZA recuerda que el primer riesgo puede ser psicológico, ya que puedes creer más de la cuenta en una voz que parece segura.
Si buscas el origen sobre conversaciones entre humanos y máquinas basadas en el concepto "me está entendido", ELIZA es un buen punto de partida. No lo es por lo que hacía, sino por lo que provocaba a quién la usaba. De hecho, lo consiguió muchas décadas antes de que la palabra chatbot estuviera en nuestro vocabulario, una muestra de la influencia que tuvo un experimento de los 60 en la realidad del mundo más de medio siglo después.
Imagen principal de 3DJuegos
En 3DJuegos | Meta y AMD llevan la guerra de chips al siguiente nivel con una alianza que apunta a Nvidia
En 3DJuegos | Anthropic y su IA ponen el último clavo en el ataúd de los empleados de cuello blanco
Ver 0 comentarios