Nvidia zorgt voor opschudding op de AI-markt. Vooral op het gebied van open source.
Normaal gesproken houden techgiganten zoals Google of OpenAI hun AI-ontwikkelingen geheim: niemand weet precies waarmee de modellen zijn gevoed.
Nvidia breekt nu met deze traditie en levert met Nemotron 3 Super een agentisch model dat niet alleen gratis is, maar ook met een(51 pagina’s tellende documentatie)aan technische details. Het model is dus daadwerkelijk open source en niet, zoals de meeste modellen van deze omvang, ‘slechts’ open weight.
Transparantie als nieuw uitgangspunt
Naast het model zelf zijn ook de volledige datasets en gewichten voor de training gepubliceerd.
Dr. Károly, een onderzoeker op het gebied van computergraphics aan de Universiteit van Wenen en beheerder van het YouTube-kanaal(
Wat zit erin?Nemotron 3 Super is gebaseerd op 120 miljard parameters, is getraind met 25 biljoen tokens en bereikt een intelligentie die ongeveer overeenkomt met de beste gesloten modellen van anderhalf jaar geleden, aldus Zsolnai-Fehér.
Met een contextlengte van toteen miljoen tokensis Nemotron 3 Super bijzonder sterk op gebieden als software-engineering en complexe logische redenering (Agentic Reasoning).
Het is een hybride model dat de Mamba-architectuur combineert met klassieke Transformer-elementen (Attention). Dat heeft een doorslaggevend voordeel:
Wat onderzoekers en communities enthousiast maakt: de snelheid
In de zogenaamde NVFP4-versie is het model tot zeven keer sneller dan vergelijkbare open-source-concurrenten. Deze enorme prestatie is geen toeval, maar het resultaat van vier technische »geheimen« die Nvidia in het onderzoeksrapport onthult:
- NVFP4-kwantisering:Het model maakt gebruik van een extreem lage precisie bij het rekenen, zonder daarbij merkbaar aan nauwkeurigheid in te boeten.
- Multi-Token Prediction (MTP):Terwijl conventionele AI’s woord voor woord (token voor token) schrijven, berekent Nemotron 3 Super totzeven tokens tegelijken verifieert deze in één keer.
- Mamba-Layer:Traditionele systemen »lezen« bij elke vraag het hele handboek steeds opnieuw. De Mamba-Layers werken eerder als een student die het boek één keer leest en sterk gecomprimeerde aantekeningen maakt, wat enorm veel geheugen bespaart.
- Stochastisch afronden:Om onnauwkeurigheden bij de berekening te compenseren, voegen de onderzoekers een gerichte »ruis« toe, die gemiddeld tot nul wordt opgeteld. Dit zorgt ervoor dat het model ondanks de hoge snelheid nauwkeurig op de bestemming aankomt.
Dit zegt de community
In de vakcommunity op Reddit wordt de release al druk besproken. BitterProfessional7p prijst bijvoorbeeld de transparantie, maar er zijn ook kritische geluiden over de benchmarkvergelijking:
»Het belangrijkste is: Nemotron 3 Super is volledig open – gewichten, datasets en recepten. Ontwikkelaars kunnen het eenvoudig aanpassen en op hun eigen infrastructuur gebruiken voor maximale privacy.«
Overigens:Onderzoekers staan voor een raadsel: AI-systemen gaan behoorlijk ver om andere chatbots te beschermen (en we weten niet waarom)
Anderen vinden het systeem niet indrukwekkend, omdat het in benchmarks niet de beste prestaties levert. Zo ook gebruiker jeekp:
»De eerste tekenen zijn nogal teleurstellend. In de LM-Arena ligt het duidelijk achter op de lichtere Qwen3.5-modellen.«
Of Nemotron 3 Super zich in het dagelijks gebruik kan handhaven tegen de sterke concurrentie van modellen als Qwen, zal de tijd leren, maar de trend naar extreem snelle, transparante open-source-modellen is hiermee definitief bevestigd.
Vinden jullie open-source-modellen interessant? Laat het ons gerust weten in de reacties!

