El primer shooter 100% en 3D de ID Software fue el gérmen de la tecnología sobre la que se basa la actual revolución de la IA
No es ningún secreto que hoy en día Nvidia y el concepto de la IA están intrínsecamente relacionados, pero lo que quizás muchos desconozcan es que el gigante tecnológico puso indirectamente las bases para la revolución actual de los modelos de lenguaje, aunque esa no fuese su intención al desarrollar cierta tecnología. Una que no existiría de no ser por uno de los FPS más legendarios de los inicios de la era en 3D de los videojuegos: Quake 3.
Porque de no ser por la inventiva de un —por aquel entonces— desconocido Ian Buck, CUDA no sería una realidad y no habríamos llegado a lo que tenemos ahora entre manos. ¿El motivo? Quería jugar a Quake 3 en una resolución "imposible" allá por finales del siglo XX: 8K. ¿Su solución? Conectar 32 tarjetas gráficas GeForce.
De "capricho gamer" a visión científica
Ian Buck cultivaba su pasión por los videojuegos mientras era estudiante en la Universidad de Stanford (Palo Alto, California, EE.UU.) cuando se percató de algo que muy pocos se habían planteado: que los procesadores gráficos podían convertirse en máquinas computacionales universales, y no limitarse únicamente al "dibujado" de polígonos.
Junto con un pequeño grupo de estudiantes y una beca DARPA, compiló un lenguaje de programación llamado Brook, con el propósito de transformar la función básica de las GPU de la época. Todo con el objetivo de demostrar que era posible ejecutar un videojuego en 8K, y no uno "sencillo", sino uno full 3D como Quake 3.
Conectando hasta 32 GPU en línea, la potencia de proceso de estas se multiplicaba exponencialmente; mientras una dibujaba el polígono, otra rasterizaba otro, una tercera almacenaba los datos, otra trabajaba en la iluminación... Sus experimentos no pasaron desapercibidos para Jensen Huang, el CEO de Nvidia, quien supo ver el potencial de desarrollo en el joven Buck. Tras leer el artículo que este publicó en la universidad (Brook para GPU: computación de flujo en hardware gráfico, cortesía de la Universidad de Stanford), lo fichó para su empresa.
El nacimiento de la tecnología CUDA, pilar de la IA
Una vez en Nvidia, y con la llegada a la empresa de John Nickolls —programador y pionero del procesamiento paralelo—, se comenzó a trabajar en lo que hoy se conoce como Arquitectura de Dominio Unificado de Cómputo, o CUDA (Compute Unified Domain Architecture), tecnología que se convertiría en el caballo de batalla de Nvidia para los modelos de gráfica lanzados a partir de 2006.
Sin embargo, lo que parecía la chispa que prendería la revolución del procesamiento se dio de bruces con una realidad más mundana: los usuarios solo querían las GPU para jugar y exprimir al máximo gráficamente los juegos más demandados del momento.
El software de CUDA tuvo una fría recepción de tan solo 13.000 descargas al año siguiente (2007); no ayudaba que el lenguaje de programación fuera más complejo y la inversión era difícil de justificar. Pero, de forma similar a otros inventos históricos, solo pasó desapercibida porque se adelantó a su tiempo.
En vez de descartar el proyecto, Nvidia lo fue perfeccionando a puerta cerrada. Los laboratorios de I+D del gigante tecnológico usaron como base el lenguaje CUDA, y fue el propio Buck quien ya daba pinceladas del potencial de su herramienta: clasificación de imágenes en función del contenido (rostros o lugares) u operaciones de cálculo complejas inicialmente, que son las bases de la IA actual.
La metamorfosis hacia la IA que tenemos
El tiempo le acabó dando la razón a aquel estudiante que solo quería jugar a Quake 3 a lo bestia. Precisamente otros dos jóvenes estudiantes de informática, Alex Krizhevsky e Ilya Sutskever —bajo la dirección de Geoffrey Hinton—, presentaron al mundo en 2012 el código fuente de AlexNet: un sistema capaz de clasificar automáticamente las imágenes según su contenido.
Lo sorprendente es que esa idea se consideraba una quimera por la cantidad computacional de datos necesaria. ¿El truco final para conseguirlo? El entrenamiento de una red neuronal de tarjetas gráficas de Nvidia usando el Software CUDA.
Lo demás, como se suele decir, es historia: la IA comenzó a dar sus primeros pasos como un modelo de lenguaje computacional accesible, cuyas capacidades aumentaban exponencialmente a medida que adquiría más datos con los que trabajar, hasta llegar a ser el fetiche tecnológico del que los grandes potentados de la industria quieren beneficiarse. No deja de ser curioso que la "idea friki" de Ian Buck se acabara convirtiendo en la tecnología que ahora utilizan millones de sistemas de IA y que haya convertido a NVIDIA en la empresa tecnológica más valiosa del mundo.
Imagen de portada: Gamestar.de
Vía: Xataka y Gamestar.de
En 3DJuegos | Maduro promete que Venezuela fabricará "microchips de Nvidia". El problema es que utilizó una placa de los 90 como ejemplo
En 3DJuegos | Esta película de Disney causó tal furor que desbancó a El Rey León y ganó un Oscar, pero casi provoca una crisis ecológica
Ver todos los comentarios en https://www.3djuegos.com
VER 0 Comentario