Nvidia sta rivoluzionando il mercato dell’IA, soprattutto nel settore open source.
Di solito i giganti della tecnologia come Google o OpenAI tengono segreti i loro sviluppi nel campo dell’IA: nessuno sa esattamente con cosa siano stati addestrati i modelli.
Nvidia rompe ora con questa tradizione e con Nemotron 3 Super offre un modello agentico che non solo è gratuito, ma anche con un(documentazione di 51 pagine)ricca di dettagli tecnici. Il modello è quindi effettivamente open source e non, come la maggior parte dei modelli di questa portata, «solo» open weight.
La trasparenza come nuovo annuncio
Oltre al modello stesso, sono stati pubblicati anche i set di dati completi e i pesi per l’addestramento.
Il Dr. Károly, ricercatore di computer grafica all’Università di Vienna e gestore del canale YouTube(
Cosa c’è dentro?Nemotron 3 Super si basa su 120 miliardi di parametri, è stato addestrato con 25 trilioni di token e raggiunge un livello di intelligenza che corrisponde all’incirca ai migliori modelli chiusi di un anno e mezzo fa, secondo Zsolnai-Fehér.
Con una lunghezza di contesto fino aun milione di tokenNemotron 3 Super è particolarmente forte in settori quali l’ingegneria del software e il ragionamento logico complesso (Agentic Reasoning).
Si tratta di un modello ibrido che combina l’architettura Mamba con elementi classici di Transformer (Attention). Ciò presenta un vantaggio decisivo:
Ciò che entusiasma ricercatori e comunità: la velocità
Nella cosiddetta versione NVFP4, il modello è fino a sette volte più veloce rispetto a concorrenti open source comparabili. Questa enorme performance non è un caso, ma il risultato di quattro «segreti» tecnici che Nvidia svela nel rapporto di ricerca:
- Quantizzazione NVFP4:Il modello utilizza una precisione estremamente bassa nei calcoli, senza perdere in modo percettibile in accuratezza.
- Predizione multi-token (MTP):Mentre le IA convenzionali scrivono parola per parola (token per token), Nemotron 3 Super calcola fino asette token contemporaneamentee li verifica in un unico passaggio.
- Mamba-Layer:I sistemi tradizionali «leggono» l’intero manuale da capo ad ogni domanda. I Mamba-Layer funzionano piuttosto come uno studente che legge il libro una volta sola e prende appunti altamente compressi, il che fa risparmiare enormemente spazio di memoria.
- Arrotondamento stocastico:Per compensare le imprecisioni nel calcolo, i ricercatori aggiungono un «rumore» mirato che, in media, si annulla. Ciò garantisce che il modello raggiunga l’obiettivo con precisione nonostante l’elevata velocità.
Cosa ne pensa la community
Nella community specializzata su Reddit, il rilascio è già oggetto di accese discussioni. BitterProfessional7p, ad esempio, plaude alla trasparenza, ma ci sono anche voci critiche sul confronto dei benchmark:
«La cosa più importante è che Nemotron 3 Super è completamente aperto: pesi, set di dati e ricette. Gli sviluppatori possono semplicemente personalizzarlo e utilizzarlo sulla propria infrastruttura per la massima privacy.»
A proposito:I ricercatori si trovano di fronte a un enigma: i sistemi di IA si spingono piuttosto lontano per difendere altri chatbot (e non sappiamo perché)
Altri non trovano il sistema eccezionale, perché nei benchmark non è in testa. È il caso anche dell’utente jeekp:
«I primi segnali sono piuttosto deludenti. Nell’arena LM è nettamente indietro rispetto ai modelli Qwen3.5 più leggeri.»
Solo il tempo dirà se Nemotron 3 Super riuscirà ad affermarsi nella vita quotidiana contro la forte concorrenza di modelli come Qwen, ma la tendenza verso modelli open source estremamente veloci e trasparenti è ormai definitivamente consolidata.
I modelli open source vi interessano? Scriveteci nei commenti!

