Nvidia bouleverse le marché de l’IA. Notamment dans le domaine de l’open source.
En général, les géants de la tech comme Google ou OpenAI gardent leurs développements en IA sous le boisseau : personne ne sait exactement avec quoi les modèles ont été entraînés.
Nvidia rompt désormais avec cette tradition et propose, avec Nemotron 3 Super, un modèle agentique qui est non seulement gratuit, mais également accompagné d’une(documentation de 51 pages)regorgeant de détails techniques. Le modèle est donc bel et bien open source et non, comme la plupart des modèles de cette envergure, « simplement » open weight.
La transparence, nouvelle tendance
Outre le modèle lui-même, l’ensemble des ensembles de données et des poids utilisés pour l’entraînement a également été publié.
Le Dr Károly, chercheur en infographie à l’université de Vienne et animateur de la chaîne YouTube(
Qu’est-ce qu’il y a dedans ?Nemotron 3 Super repose sur 120 milliards de paramètres, a été entraîné avec 25 billions de tokens et atteint un niveau d’intelligence qui correspond à peu près aux meilleurs modèles fermés d’il y a un an et demi, selon Zsolnai-Fehér.
Avec une longueur de contexte pouvant atteindreun million de tokensNemotron 3 Super est particulièrement performant dans des domaines tels que l’ingénierie logicielle et le raisonnement logique complexe (Agentic Reasoning).
Il s’agit d’un modèle hybride qui combine l’architecture Mamba avec des éléments classiques de Transformer (Attention). Cela présente un avantage décisif :
Ce qui enthousiasme les chercheurs et les communautés : la vitesse
Dans la version dite NVFP4, le modèle est jusqu’à sept fois plus rapide que ses concurrents open source comparables. Cette performance exceptionnelle n’est pas le fruit du hasard, mais le résultat de quatre « secrets » techniques que Nvidia dévoile dans son rapport de recherche :
- Quantification NVFP4 :Le modèle utilise une précision extrêmement faible pour ses calculs, sans pour autant perdre de manière notable en exactitude.
- Prédiction multi-tokens (MTP) :Alors que les IA traditionnelles écrivent mot par mot (token par token), Nemotron 3 Super calcule jusqu’àsept tokens simultanémentet les vérifie d’un seul coup.
- Mamba-Layer :Les systèmes traditionnels « relisent » l’intégralité du manuel à chaque question. Les Mamba-Layers fonctionnent plutôt comme un étudiant qui lit le livre une seule fois et prend des notes très condensées, ce qui permet d’économiser énormément de mémoire.
- Arrondi stochastique :Pour compenser les imprécisions de calcul, les chercheurs ajoutent un « bruit » ciblé qui s’annule en moyenne. Cela garantit que le modèle atteint sa cible avec précision malgré sa vitesse élevée.
Ce qu’en dit la communauté
Sur Reddit, cette sortie fait déjà l’objet de vifs débats au sein de la communauté spécialisée. BitterProfessional7p salue par exemple la transparence, mais des voix critiques s’élèvent également concernant la comparaison des benchmarks :
« Le plus important, c’est que Nemotron 3 Super est entièrement ouvert : poids, ensembles de données et recettes. Les développeurs peuvent facilement le personnaliser et l’utiliser sur leur propre infrastructure pour une confidentialité maximale. »
À propos:Les chercheurs sont face à une énigme : les systèmes d’IA vont très loin pour défendre d’autres chatbots (et nous ne savons pas pourquoi)
D’autres ne trouvent pas le système impressionnant, car il ne se démarque pas dans les benchmarks. C’est notamment le cas de l’utilisateur jeekp :
« Les premiers résultats sont plutôt décevants. Dans l’arène LM, il est nettement derrière les modèles Qwen3.5, plus légers. »
L’avenir nous dira si Nemotron 3 Super parviendra à s’imposer au quotidien face à la forte concurrence de modèles tels que Qwen, mais la tendance vers des modèles open source extrêmement rapides et transparents est désormais définitivement ancrée.
Les modèles open source vous intéressent-ils ? N’hésitez pas à nous le dire dans les commentaires !

