A Nvidia está a revolucionar o mercado da IA. Sobretudo na área do código aberto.
Normalmente, gigantes tecnológicos como a Google ou a OpenAI mantêm os seus desenvolvimentos de IA em segredo: ninguém sabe exatamente com que dados os modelos foram treinados.
A Nvidia rompe agora com esta tradição e apresenta, com o Nemotron 3 Super, um modelo agênico que não só é gratuito, como também está disponível com uma(documentação de 51 páginas)de detalhes técnicos. O modelo é, portanto, efetivamente de código aberto e não, como a maioria dos modelos da sua envergadura, «apenas» de pesos abertos.
A transparência como nova tendência
Para além do próprio modelo, foram também publicados os conjuntos de dados completos e os pesos utilizados para o treino.
O Dr. Károly, investigador de computação gráfica na Universidade de Viena e gestor do canal do YouTube(
O que tem lá dentro?O Nemotron 3 Super baseia-se em 120 mil milhões de parâmetros, foi treinado com 25 biliões de tokens e atinge um nível de inteligência que corresponde aproximadamente aos melhores modelos fechados de há um ano e meio, segundo Zsolnai-Fehér.
Com um comprimento de contexto de atéum milhão de tokenso Nemotron 3 Super é particularmente forte em áreas como engenharia de software e argumentação lógica complexa (Agentic Reasoning).
É um modelo híbrido que combina a arquitetura Mamba com elementos clássicos do Transformer (Attention). Isso tem uma vantagem decisiva:
O que entusiasma os investigadores e as comunidades: a velocidade
Na chamada versão NVFP4, o modelo é até sete vezes mais rápido do que concorrentes de código aberto comparáveis. Este enorme desempenho não é por acaso, mas sim o resultado de quatro «segredos» técnicos que a Nvidia revela no relatório de investigação:
- Quantização NVFP4:O modelo utiliza uma precisão extremamente baixa nos cálculos, sem perder visivelmente em exatidão.
- Previsão Multitoken (MTP):Enquanto as IAs convencionais escrevem palavra a palavra (token a token), o Nemotron 3 Super calcula atésete tokens simultaneamentee verifica-os de uma só vez.
- Camada Mamba:Os sistemas tradicionais «leem» o manual inteiro repetidamente a cada pergunta. As camadas Mamba funcionam mais como um estudante que lê o livro uma vez e toma notas altamente condensadas, o que poupa imenso espaço de armazenamento.
- Arredondamento estocástico:Para compensar imprecisões no cálculo, os investigadores adicionam um «ruído» específico que, em média, se anula. Isso garante que o modelo chegue ao destino com precisão, apesar da alta velocidade.
O que diz a comunidade
Na comunidade especializada do Reddit, o lançamento já está a ser alvo de acalorados debates. BitterProfessional7p, por exemplo, celebra a transparência, mas também há vozes críticas em relação à comparação de benchmarks:
«O mais importante é que o Nemotron 3 Super é totalmente aberto – pesos, conjuntos de dados e receitas. Os programadores podem personalizá-lo facilmente e utilizá-lo na sua própria infraestrutura para garantir a máxima privacidade.»
A propósito:Os investigadores estão perante um enigma: os sistemas de IA vão bastante longe para proteger outros chatbots (e não sabemos porquê)
Outros não consideram o sistema impressionante, porque não lidera nos benchmarks. É o caso do utilizador jeekp:
«Os primeiros sinais são um pouco decepcionantes. Na área de LM, fica claramente atrás dos modelos Qwen3.5 mais leves.»
O tempo dirá se o Nemotron 3 Super conseguirá impor-se no dia a dia face à forte concorrência de modelos como o Qwen, mas a tendência para modelos de código aberto extremamente rápidos e transparentes está assim definitivamente consolidada.
Os modelos de código aberto são interessantes para vocês? Escrevam-nos nos comentários!

