Nvidia está revolucionando el mercado de la IA. Sobre todo en el ámbito del código abierto.
Normalmente, los gigantes tecnológicos como Google u OpenAI mantienen en secreto sus desarrollos de IA: nadie sabe exactamente con qué se han entrenado los modelos.
Nvidia rompe ahora con esta tradición y ofrece con Nemotron 3 Super un modelo agencial que no solo es gratuito, sino que también cuenta con una(documentación de 51 páginas)de detalles técnicos. Así pues, el modelo es realmente de código abierto y no, como la mayoría de los modelos de su envergadura, «solo» de peso abierto.
La transparencia como nueva tendencia
Además del modelo en sí, también se han publicado los conjuntos de datos completos y los pesos para el entrenamiento.
El Dr. Károly, investigador de gráficos por ordenador en la Universidad de Viena y administrador del canal de YouTube(
¿Qué incluye?Nemotron 3 Super se basa en 120 000 millones de parámetros, se ha entrenado con 25 billones de tokens y alcanza una inteligencia que, según Zsolnai-Fehér, equivale aproximadamente a los mejores modelos cerrados de hace año y medio.
Con una longitud de contexto de hastaun millón de tokensNemotron 3 Super destaca especialmente en áreas como la ingeniería de software y el razonamiento lógico complejo (Agentic Reasoning).
Se trata de un modelo híbrido que combina la arquitectura Mamba con elementos clásicos de Transformer (Attention). Esto tiene una ventaja decisiva:
Lo que entusiasma a los investigadores y a las comunidades: la velocidad
En la denominada versión NVFP4, el modelo es hasta siete veces más rápido que sus competidores de código abierto comparables. Este enorme rendimiento no es casualidad, sino el resultado de cuatro «secretos» técnicos que Nvidia revela en el informe de investigación:
- Cuantificación NVFP4:El modelo utiliza una precisión extremadamente baja en los cálculos, sin perder notablemente en exactitud.
- Predicción multitoken (MTP):Mientras que las IA convencionales escriben palabra por palabra (token por token), Nemotron 3 Super calcula hastasiete tokens a la vezy los verifica de una sola vez.
- Capa Mamba:Los sistemas tradicionales «leen» el manual completo una y otra vez con cada pregunta. Las capas Mamba funcionan más bien como un estudiante que lee el libro una sola vez y toma apuntes muy resumidos, lo que ahorra una gran cantidad de memoria.
- Redondeo estocástico:Para compensar las imprecisiones en el cálculo, los investigadores añaden un «ruido» específico que, en promedio, se anula. Esto garantiza que el modelo llegue con precisión a su destino a pesar de la alta velocidad.
Esto dice la comunidad
En la comunidad especializada de Reddit, el lanzamiento ya es objeto de acalorados debates. BitterProfessional7p, por ejemplo, celebra la transparencia, aunque también hay voces críticas con respecto a la comparación de benchmarks:
«Lo más importante es que Nemotron 3 Super es totalmente abierto: pesos, conjuntos de datos y recetas. Los desarrolladores pueden personalizarlo fácilmente y utilizarlo en su propia infraestructura para garantizar la máxima privacidad.»
Por cierto:Los investigadores se enfrentan a un misterio: los sistemas de IA llegan bastante lejos para proteger a otros chatbots (y no sabemos por qué)
Otros no consideran que el sistema sea impresionante, ya que no destaca en las pruebas comparativas. Así lo afirma también el usuario jeekp:
«Las primeras señales son más bien decepcionantes. En el ámbito de los modelos de lenguaje (LM), se queda claramente por detrás de los modelos Qwen3.5, que son más ligeros.»
El tiempo dirá si Nemotron 3 Super puede imponerse en el día a día frente a la fuerte competencia de modelos como Qwen, pero la tendencia hacia modelos de código abierto extremadamente rápidos y transparentes queda así definitivamente consolidada.
¿Os parecen interesantes los modelos de código abierto? ¡No dudéis en contárnoslo en los comentarios!

