# gpt-oss-20b ## 论文 [GPT-OSS](https://arxiv.org/pdf/2508.10925) ## 模型简介 我们发布了两种版本的开源模型: - gpt-oss-120b — 适用于生产环境、通用目的、高推理需求,并且可以装入单个 H100 GPU(117B 参数,其中 5.1B 活动参数) - gpt-oss-20b — 适用于低延迟以及本地或特定用途(21B 参数,其中 3.6B 活动参数) 这两种模型都是在我们的 和谐响应格式 上训练的,并且只能使用该格式,否则将无法正常工作。 **亮点** - 宽松的 Apache 2.0 许可证: 自由构建,无 copyleft 限制或专利风险—适合实验、定制和商业部署。 - 可配置的推理努力程度: 根据您的具体使用场景和延迟需求轻松调整推理努力程度(低、中、高)。 - 完整的思维链: 完全访问模型的推理过程,便于调试并增加对输出的信任。它不打算展示给最终用户。 - 可微调: 通过参数微调完全自定义模型以适应您的特定使用场景。 - 代理能力: 使用模型的原生功能进行函数调用、网页浏览、Python 代码执行 和结构化输出。 - 原生 MXFP4 量化: 模型在 MoE 层使用原生 MXFP4 精度进行训练,使 gpt-oss-120b 可以在单个 H100 GPU 上运行,而 gpt-oss-20b 模型可以在 16GB 内存内运行。
## 环境依赖 | 软件 | 版本 | | :------: | :------: | | DTK | 25.04+ | | python | 3.10+ | | torch | 2.5.1+das.opt1.dtk2604 | | transformers | 4.57.6 | | vllm | 0.11.0+das.opt1.rc4.dtk2604 | 推荐使用镜像: `harbor.sourcefind.cn:5443/dcu/admin/base/vllm:0.11.0-ubuntu22.04-dtk26.04-py3.10 ` ```bash docker run -it \ --shm-size 60g \ --network=host \ --name gpt-oss-inference \ --privileged \ --device=/dev/kfd \ --device=/dev/dri \ --device=/dev/mkfd \ --group-add video \ --cap-add=SYS_PTRACE \ --security-opt seccomp=unconfined \ -u root \ -v /opt/hyhal/:/opt/hyhal/:ro \ -v /path/your_code_data/:/path/your_code_data/ \ harbor.sourcefind.cn:5443/dcu/admin/base/vllm:0.11.0-ubuntu22.04-dtk26.04-py3.10 bash ``` 更多镜像可前往[光源](https://sourcefind.cn/#/service-list)下载使用。 关于本项目DCU显卡所需的特殊深度学习库可从[光合](https://developer.sourcefind.cn/tool/)开发者社区下载安装,其它包参照requirements.txt安装: ## 数据集 暂无 ## 训练 暂无 ## 推理 ### vllm #### 单机推理 ```bash bash dirs/run_vllm_server.sh ``` ## 效果展示
### 精度 `DCU与GPU精度一致,推理框架:vllm。` ## 预训练权重 | 模型名称 | 权重大小 | DCU型号 | 最低卡数需求 |下载地址| |:-----:|:----------:|:----------:|:---------------------:|:----------:| | gpt-oss-20b | 20B | BW1000 | 1 | [Modelscope](https://www.modelscope.cn/models/unsloth/gpt-oss-20b-BF16) | ## 源码仓库及问题反馈 - https://developer.sourcefind.cn/codes/modelzoo/gpt-oss_vllm ## 参考资料 - [GPT-OSS GitHub](https://github.com/openai/gpt-oss) - [vLLM 官方文档](https://docs.vllm.ai/)