README.md 3.88 KB
Newer Older
weishb's avatar
weishb committed
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
# Qwen3-Next-80B-A3B
## 论文
暂无
## 模型简介

Qwen3-Next-80B-A3B 是 Qwen3-Next 系列的第一个版本,具有以下关键改进:

混合注意力:用 Gated DeltaNet 和 Gated Attention 的组合替代标准注意力机制,实现超长上下文的有效建模。
高稀疏度混合专家系统(MoE):在 MoE 层中实现极低的激活比率,大幅减少每个 token 的 FLOPs,同时保持模型容量。
稳定性优化:包括 零中心化和权重衰减的层归一化 以及其他稳定增强技术,以确保预训练和后训练的稳健性。
多 token 预测(MTP):提升预训练模型性能并加速推理。

<div align=center>
    <img src="./doc/model_architecture.png"/>
</div>

## 环境依赖

|     软件     |                      版本                      |
| :----------: | :--------------------------------------------: |
|     DTK      |                    26.04.2                     |
|    python    |                    3.10.12                     |
| transformers |                     4.57.6                     |
|    torch     |   2.5.1+das.opt1.dtk2604.20260116.g78471bfd    |
|  accelerate  |                     1.12.0                     |
| torchvision  |   0.20.1+das.opt1.dtk2604.20260116.g65c66897   |
|  flash_attn  |   2.6.1+das.opt1.dtk2604.20260131.g4edd8bf9    |
|     vllm     | 0.11.0+das.opt1.rc2.dtk2604.20260128.g0bf89b0c |

推荐使用镜像:harbor.sourcefind.cn:5443/dcu/admin/base/vllm:0.11.0-ubuntu22.04-dtk26.04-0130-py3.10-20260202

- 挂载地址`-v`根据实际模型情况修改

```bash
docker run -it \
    --shm-size 60g \
    --network=host \
    --name qwen3-next \
    --privileged \
    --device=/dev/kfd \
    --device=/dev/dri \
    --device=/dev/mkfd \
    --group-add video \
    --cap-add=SYS_PTRACE \
    --security-opt seccomp=unconfined \
    -u root \
    -v /opt/hyhal/:/opt/hyhal/:ro \
    -v /path/your_code_data/:/path/your_code_data/ \
    harbor.sourcefind.cn:5443/dcu/admin/base/vllm:0.11.0-ubuntu22.04-dtk26.04-0130-py3.10-20260202 bash
```

更多镜像可前往[光源](https://sourcefind.cn/#/service-list)下载使用。
weishb's avatar
weishb committed
53
关于本项目DCU显卡所需的特殊深度学习库可从[光合](https://developer.sourcefind.cn/tool/)开发者社区下载安装。
weishb's avatar
weishb committed
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72

## 数据集

`暂无`

## 训练

`暂无`

## 推理

## vllm

#### 单机推理

```bash
## serve启动
export HF_HUB_OFFLINE=1
export TRANSFORMERS_OFFLINE=1
weishb's avatar
weishb committed
73
vllm serve Qwen/Qwen3-Next-80B-A3B-Thinking \
weishb's avatar
weishb committed
74
75
76
77
78
79
80
81
82
  --served-model-name "Qwen3-Next-80B-A3B-Thinking" \
  --dtype bfloat16 \
  --trust-remote-code \
  --tensor-parallel-size 4 \
  --gpu-memory-utilization 0.95 \
  --max-model-len 8192 \
  --port 8000

## client访问
weishb's avatar
weishb committed
83
84
85
86
87
88
89
curl http://127.0.0.1:8000/v1/chat/completions \
 -H "Content-Type: application/json" \
 -d '{
     "model":"Qwen3-Next-80B-A3B-Thinking",
     "messages":[{"role":"user","content":"简短介绍一下Qwen3-Next-80B-A3B模型"}],
     "temperature":0.3
 }'
weishb's avatar
weishb committed
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
```

## 效果展示

<div align=center>
    <img src="./doc/02.png"/>
</div>


### 精度

`DCU与GPU精度一致,推理框架:vllm。`

## 预训练权重

|     **模型名称**     | **权重大小** |  **DCU型号**  | **最低卡数需求** |                         **下载地址**                         |
| :------------------: | :----------: | :-----------: | :--------------: | :----------------------------------------------------------: |
weishb's avatar
weishb committed
107
108
| Qwen3-Next-80B-A3B-Instruct |     80B      | BW1000 |        4         | [Modelscope](https://www.modelscope.cn/models/Qwen/Qwen3-Next-80B-A3B-Instruct) |
| Qwen3-Next-80B-A3B-Thinking |     80B      | BW1000 |        4         | [Modelscope](https://www.modelscope.cn/models/Qwen/Qwen3-Next-80B-A3B-Thinking) |
weishb's avatar
weishb committed
109
110
111
112
113
114
115
116
117
118
119




## 源码仓库及问题反馈

- https://developer.sourcefind.cn/codes/modelzoo/qwen3-next-80b-a3b_vllm

## 参考资料

- https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list