Nvidia встряхивает рынок ИИ. Особенно в сфере открытого исходного кода.
Обычно технологические гиганты, такие как Google или OpenAI, держат свои разработки в области ИИ в секрете: никто точно не знает, чем были обучены эти модели.
Nvidia теперь нарушает эту традицию и представляет Nemotron 3 Super — агентную модель, которая не только бесплатна, но и поставляется с(51-страничной документацией)с подробными техническими деталями. Таким образом, модель действительно является открытой (open source), а не «просто» открытой по весам (open weight), как большинство моделей такого масштаба.
Прозрачность как новое заявление
Помимо самой модели были также опубликованы полные наборы данных и веса для обучения.
Д-р Кароли, исследователь в области компьютерной графики в Венском университете и владелец YouTube-канала(
Что в нем?Nemotron 3 Super основан на 120 миллиардах параметров, был обучен на 25 триллионах токенов и достигает уровня интеллекта, который примерно соответствует лучшим закрытым моделям полуторалетней давности, по словам Зсолнай-Фехер.
Благодаря длине контекста доодного миллиона токеновNemotron 3 Super особенно силен в таких областях, как разработка программного обеспечения и сложные логические рассуждения (Agentic Reasoning).
Это гибридная модель, сочетающая архитектуру Mamba с классическими элементами Transformer (Attention). Это дает решающее преимущество:
Что вдохновляет исследователей и сообщества: скорость
В так называемой версии NVFP4 модель работает до семи раз быстрее, чем сопоставимые конкуренты с открытым исходным кодом. Такая огромная производительность — не случайность, а результат четырех технических «секретов», которые Nvidia раскрывает в исследовательском отчете:
- Квантование NVFP4:Модель использует чрезвычайно низкую точность при вычислениях, не теряя при этом заметной точности.
- Прогнозирование нескольких токенов (MTP):В то время как традиционные ИИ пишут слово за словом (токен за токеном), Nemotron 3 Super вычисляет досеми токенов одновременнои проверяет их за один проход.
- Mamba-Layer:Традиционные системы при каждом запросе заново «читают» весь справочник. Mamba-Layer работает скорее как студент, который читает книгу один раз и делает высокосжатые заметки, что значительно экономит память.
- Стохастическое округление:Чтобы компенсировать неточности при вычислении, исследователи добавляют целенаправленный «шум», который в среднем компенсируется до нуля. Это гарантирует, что модель, несмотря на высокую скорость, точно достигает цели.
Что говорит сообщество
В профессиональном сообществе на Reddit этот релиз уже активно обсуждается. Например, BitterProfessional7p приветствует прозрачность, но есть и критические голоса по поводу сравнения бенчмарков:
«Самое главное: Nemotron 3 Super полностью открыт — веса, наборы данных и рецепты. Разработчики могут легко адаптировать его и использовать на собственной инфраструктуре для максимальной конфиденциальности».
Кстати:Исследователи стоят перед загадкой: системы ИИ идут довольно далеко, чтобы защитить других чат-ботов (и мы не знаем, почему)
Другие не считают систему впечатляющей, поскольку она не лидирует в тестах. Так считает и пользователь jeekp:
«Первые признаки скорее разочаровывают. В области языковых моделей она значительно отстает от более легких моделей Qwen3.5.»
Сможет ли Nemotron 3 Super в повседневной жизни превзойти сильную конкуренцию со стороны таких моделей, как Qwen, покажет время, но тенденция к чрезвычайно быстрым, прозрачным моделям с открытым исходным кодом окончательно закрепилась.
Интересуют ли вас модели с открытым исходным кодом? Напишите нам об этом в комментариях!

