Desde que la IA echase a rodar, sus posibilidades se han vestido como el siguiente paso de la tecnología para dejar atrás lo que hasta ahora considerábamos ciencia ficción. Será más inteligente que el humano más listo, cambiará cómo funciona el mundo, tomará conciencia y se convertirá en un peligro si no legislamos y construimos su futuro en base a evitarlo. Lo que viene a decir Alexander Lerchner, investigador sénior de Google Deepmind, es que a grandes rasgos todo eso es una patraña.
No es que se salte el drama filosófico de comparar la inteligencia artificial a Skynet o HAL 9000, es que literalmente afirma que eso jamás será posible. No es un problema de tener una tecnología que no llega a esos límites, ni que el sistema no tenga la posibilidad de procesar suficientes datos como para simular que se ha vuelto consciente, es que en esta carrera por hacer escalar la IA para hacerla cada vez más válida y potente, a lo único que nos acercamos es a eso, a simular que es una cosa que no es.
La filosofía detrás de la IA está mal
Lo que dice Alexander Lerchner desde los mismos laboratorios de Google, probablemente de los más potentes y centrados en hacernos creer que ese futuro sí es posible por lo mucho que les interesa a nivel económico, es que la inteligencia artificial nunca tomará conciencia porque es imposible. Podrá llegar a simularlo, pero no conseguirlo porque siempre dependerá de un agente externo.
Dicho de otro modo, la mera idea de que un robot tenga miedo a morir o se sienta insultado por cómo le hablamos es absurda. Y no importa cuántas máquinas y potencia sigamos sumando a la mezcla porque eso nunca cambiará, siempre habrá una mano detrás dictando que así es como debe actuar a partir de ahora.
Por aterrizar la idea aún más, intenta verlo desde la perspectiva de ponerte a ver al hombre del tiempo con las predicciones de lluvia de la semana que viene. La IA es el simulador que te dice cuántos litros de agua van a caer y en qué zona, y puede acertar con una precisión escandalosamente buena, pero es incapaz de ser la lluvia en sí misma.
Llegados a este punto probablemente te estés preguntando qué narices te importa a ti todo esto y por qué debería preocuparte lo más mínimo. Por la misma razón de siempre, si me preguntas a mí, porque gran parte del discurso alrededor de la IA pasa por ver qué hacemos con ella si en algún momento ocurre algo malo. Ese discurso está mal.
El problema es que con ella no hay que hacer nada, está fuera del debate. Lo que deberíamos estar preguntándonos, y haciendo un esfuerzo mayúsculo por legislar en su contra, es qué hacemos con el agente externo que le está controlando.
Qué hacemos con Google, Anthropic, OpenAI o cualquier otra compañía detrás de las IA que cada vez más dominan el mundo tal y como lo conocemos. El peligro no es que Terminator tome consciencia, el peligro es la persona que está simulando que lo hace para obtener beneficio por ello y no ser juzgada en consecuencia.
Imagen | Anthony Quintano
En 3DJuegos | Estudios recientes advierten que los ordenadores cuánticos van a derribar la criptografía clásica antes de lo esperado
Ver 0 comentarios