Commit dbc64aee authored by raojy's avatar raojy 💬
Browse files

Update README.md

parent 3f50f23d
# NVIDIA-Nemotron-3-Super-120B-A12B-BF16 # NVIDIA-Nemotron-3-Super
## 论文 ## 论文
...@@ -6,7 +6,7 @@ ...@@ -6,7 +6,7 @@
## 模型简介 ## 模型简介
Nemotron-3-Super-120B-A12B-BF16 是由英伟达 (NVIDIA) 训练的大语言模型 (LLM),旨在提供强大的智能体 (Agentic)、推理及对话能力。该模型针对协作智能体和高负载工作场景(如 IT 工单自动化)进行了深度优化。与该系列的其他模型类似,它在响应用户查询或任务时,会采取“先生成推理轨迹 (Reasoning Trace),后给出最终回复”的模式。此外,模型的推理能力可以通过聊天模板中的标志位 (Flag) 进行灵活配置。 Nemotron-3-Super 是由英伟达 (NVIDIA) 训练的大语言模型 (LLM),旨在提供强大的智能体 (Agentic)、推理及对话能力。该模型针对协作智能体和高负载工作场景(如 IT 工单自动化)进行了深度优化。与该系列的其他模型类似,它在响应用户查询或任务时,会采取“先生成推理轨迹 (Reasoning Trace),后给出最终回复”的模式。此外,模型的推理能力可以通过聊天模板中的标志位 (Flag) 进行灵活配置。
在架构方面,该模型采用了混合潜变量混合专家 (Latent Mixture-of-Experts, LatentMoE) 架构,通过交替堆叠 Mamba-2 层、MoE 层以及精选的注意力 (Attention) 层实现。与 Nano 版本不同,Super 模型引入了多 Token 预测 (Multi-Token Prediction, MTP) 层,从而在提升文本生成质量的同时显著加快了生成速度。为了最大化计算效率,该模型在训练过程中采用了 NVFP4 量化技术。 在架构方面,该模型采用了混合潜变量混合专家 (Latent Mixture-of-Experts, LatentMoE) 架构,通过交替堆叠 Mamba-2 层、MoE 层以及精选的注意力 (Attention) 层实现。与 Nano 版本不同,Super 模型引入了多 Token 预测 (Multi-Token Prediction, MTP) 层,从而在提升文本生成质量的同时显著加快了生成速度。为了最大化计算效率,该模型在训练过程中采用了 NVFP4 量化技术。
...@@ -79,8 +79,6 @@ vllm serve nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-BF16 \ ...@@ -79,8 +79,6 @@ vllm serve nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-BF16 \
--trust-remote-code \ --trust-remote-code \
--mamba-ssm-cache-dtype float32 \ --mamba-ssm-cache-dtype float32 \
--tensor-parallel-size 8 \ --tensor-parallel-size 8 \
--host 0.0.0.0 \
--port 8000 \
--tool-call-parser qwen3_coder \ --tool-call-parser qwen3_coder \
--enable-auto-tool-choice \ --enable-auto-tool-choice \
--reasoning-parser super_v3 \ --reasoning-parser super_v3 \
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment