Una idea de un estudiante de Stanford en el año 2000 dio lugar al nacimiento de CUDA, la tecnología en la que se basa hoy en día toda la revolución de la IA. Todo comenzó con Quake 3 en 8K.
Una tranquila tarde de jueves en la Universidad de Stanford en el año 2000. El estudiante Ian Buck se enfrenta a un problema que parece imposible: jugar a Quake 3 en una resolución real de 8K. No solo jugar, sino renderizarlo en ocho proyectores al mismo tiempo.
Su solución oscilaba entre la genialidad y la locura: conectó 32 tarjetas gráficas Nvidia Geforce para crear una granja de renderizado. Lo que parece un simple episodio de un ambicioso nerd, sembró la semilla de una de las tecnologías más valiosas del siglo XXI. La idea de Buck allanó el camino para la tecnología CUDA de Nvidia, la plataforma que hoy en día constituye la columna vertebral de casi todos los grandes sistemas de inteligencia artificial.
De un juego a una visión científica
Para Buck, el experimento con Quake 3 supuso un punto de inflexión. Se dio cuenta de algo que casi nadie entendía en aquel momento: los procesadores gráficos podían hacer mucho más que dibujar triángulos, podían convertirse en máquinas de cálculo universales. Con esta idea, el estudiante de informática se sumergió en las especificaciones técnicas de los chips de Nvidia y comenzó su proyecto de doctorado (vía Xataka).
- El resultado: junto con un pequeño grupo de investigadores y con el apoyo de una beca de la DARPA, Buck desarrolla un lenguaje de programación de código abierto llamado «Brook». Este lenguaje consigue convertir las tarjetas gráficas en superordenadores descentralizados.
- De repente, era posible realizar cálculos paralelos en las GPU, por ejemplo, una unidad iluminaba el polígono A, otra trazaba el polígono B y una tercera almacenaba los datos.
A esto le siguió un artículo titulado «Brook for GPUs: stream computing on graphics hardware» (disponible en Stanford University) y llamó la atención de una persona en particular: el fundador de Nvidia, Jensen Huang.
Este se dio cuenta inmediatamente del enorme potencial que tenía y contrató a Buck directamente para Nvidia.
Año 2005: la empresa Silicon Graphics se derrumba, agotada por Nvidia. Hoy en día, lo único que queda del fabricante estadounidense de ordenadores es la especificación OpenGL.
Alrededor de 1200 antiguos empleados de SGI se incorporaron al departamento de investigación de Nvidia. Entre ellos se encontraba John Nickolls, un pionero del procesamiento paralelo cuyo proyecto anterior había fracasado, pero que ahora formaba un nuevo proyecto junto a Buck.
- Este proyecto recibió un nombre que, al principio, causó más confusión que aclaración: «Compute Unified Domain Architecture», abreviado CUDA.
- En noviembre de 2006, NVIDIA lanzó la primera versión de este software gratuito, aunque en exclusiva para sus propios socios de hardware.
El entusiasmo inicial se desvaneció rápidamente. En 2007, CUDA solo se descargó 13 000 veces. Los millones de usuarios de Nvidia solo querían utilizar sus tarjetas gráficas para jugar. La programación de CUDA resultó ser compleja y la inversión no parecía rentable. Además, el proyecto consumía muchos recursos internos sin aportar resultados significativos.
El largo camino hacia la revolución de la IA
En los primeros años, CUDA ciertamente no se convirtió en tecnología de IA; en aquel entonces, apenas se podía hablar de inteligencia artificial. En cambio, fueron los laboratorios de investigación y los institutos científicos los que utilizaron CUDA.
Sin embargo, el propio Buck ya había declarado en 2009, en una entrevista con Tom’s Hardware ya intuía hacia dónde podría ir el viaje:
Veremos posibilidades en los medios personales, como la clasificación de imágenes y fotografías basada en el contenido (rostros, lugares), operaciones que requieren una enorme potencia de cálculo.
Queda a vuestra elección decidir si Buck imaginó perfectamente los años siguientes. Al menos, no tuvo que esperar demasiado para que se cumpliera su predicción.
- En 2012, dos doctorandos llamados Alex Krizhevsky e Ilya Sutskever, bajo la supervisión de Geoffrey Hinton, presentaron un proyecto llamado «AlexNet».
- Este software era capaz de clasificar imágenes automáticamente según su contenido, una idea que antes se consideraba matemáticamente imposible.
Lo decisivo: entrenaron esta red neuronal en tarjetas gráficas NVIDIA con software CUDA.
A más tardar en ese momento, dos mundos se fusionaron. CUDA y la inteligencia artificial cobraron sentido de repente. El resto es historia: la idea absurda de un estudiante de Stanford se convirtió en la tecnología sobre la que hoy funcionan millones de sistemas de IA, y que convirtió a NVIDIA en la empresa tecnológica más valiosa del mundo.

