CUDA była „zakładem”, który spowodował spadek wartości rynkowej Nvidii o ponad 80 procent. Dyrektor generalny Jensen Huang wyjaśnia, jak do tego doszło – i dlaczego mimo to pozostał przy tej strategii.
Niedawno dyrektor generalny Nvidii, Jensen Huang, w podcaście szczegółowo opowiedział o historii swojej firmy. Szczególną uwagę poświęcono platformie CUDA, uruchomionej w 2006 roku, która według Huanga niemal doprowadziła Nvidię do ruiny:
To [CUDA] była pierwszą decyzją strategiczną, która najbardziej zbliżyła się do zagrożenia egzystencjalnego.
Pierwszy krok ponad 20 lat temu
Podstawy techniczne CUDA zostały położone już w 2003 roku, kiedy to firma Nvidia wbudowała w swoje jednostki shaderowe 32-bitowe obliczenia zmiennoprzecinkowe zgodne ze standardem IEEE – znane również jako FP32.
- Dzięki temu kod naukowy, który pierwotnie został zaprojektowany dla procesorów, mógł w zasadzie działać również na procesorze graficznym Nvidii.
- Naukowcy już wtedy potrafili to wykorzystać, więc CUDA („Compute Unified Domain Architecture”) stała się logicznym krokiem w kontekście pełnoprawnej architektury.
Decyzja, która zmniejszyła wartość rynkową Nvidii o połowę
Jednak prawdziwym problemem nie była sama idea tej technologii, ale jej komercyjne wdrożenie.
- Huang podjął brzemienną w skutkach decyzję, aby wprowadzić CUDA nie tylko do drogich procesorów graficznych stacji roboczych, ale do każdej pojedynczej karty GeForce. Nawet najtańsze procesory graficzne do gier firmy Nvidia obsługują CUDA.
- Gracze korzystający wyłącznie z komputerów PC nie mieli z tym żadnego pożytku, więc trudno było im przekonać do dopłaty za architekturę raczej nieistotną dla ich ulubionego hobby. Jednak koszty produkcji procesora graficznego wzrosły w związku z wdrożeniem CUDA.
CUDA zwiększyła nasze koszty o około 50 procent, a byliśmy wówczas firmą z marżą brutto na poziomie około 35 procent. Nasza marża spadła o około półtora dolara na chip.
Konsekwencje na giełdzie były brutalne: kapitalizacja rynkowa Nvidii spadła po wprowadzeniu CUDA z około ośmiu miliardów do zaledwie 1,5 miliarda dolarów – kwoty wręcz śmieszne w porównaniu z dzisiejszą wartością giełdową.
„Zakład na CUDA” opłacił się
Dla szefa Nvidii niezbędne było jednak wprowadzenie CUDA do klientów za pośrednictwem kart graficznych GeForce: jeśli CUDA miała mieć szansę jako nowa architektura obliczeniowa, musiała trafić w ręce jak największej liczby osób.
W oczach Huanga zasada stojąca za tą strategią jest prosta: „Baza instalacyjna definiuje architekturę. […] Wszystko inne ma drugorzędne znaczenie”.
- Minęło kilka lat, zanim sytuacja uległa zmianie. W 2012 roku sieć neuronowa „AlexNet” pokonała wszystkich konkurentów w konkursie ImageNet o ponad dziesięć punktów procentowych.
- Sprzęt, na którym to wszystko działało? Karty graficzne Nvidii z CUDA – i nagle wszyscy zaczęli mówić o tej architekturze.
Kontekst:Ćwierć wieku temu student połączył 32 karty graficzne Geforce, żeby zagrać w Quake 3. Tak powstała CUDA
Z perspektywy czasu Huang uważa, że sukces Nvidii opiera się na Geforce; w końcu to właśnie te karty graficzne sprawiły, że CUDA stała się „dostępna dla wszystkich”.
Przynajmniej obecna sytuacja rynkowa potwierdza jego rację, ponieważ CUDA jest zdecydowanie dominującą platformą do szkolenia i wnioskowania w zakresie sztucznej inteligencji – i dziś nie jest już symbolem samobójczego zakładu Nvidii, ale jednej z najcenniejszych firm technologicznych naszych czasów.

