# GLM-4.6V
## 论文
[GLM-4.5V and GLM-4.1V-Thinking: Towards Versatile Multimodal Reasoning with Scalable Reinforcement Learning](https://arxiv.org/abs/2507.01006)
## 模型简介
GLM-4.6V 系列模型包含两个版本:GLM-4.6V(106B),一款专为云端和高性能集群场景设计的基础模型;以及 GLM-4.6V-Flash(9B),一款针对本地部署和低延迟应用优化的轻量级模型。
GLM-4.6V 在训练中将上下文窗口扩展至 128k tokens,并在相近参数规模的模型中实现了视觉理解能力的最先进(SoTA)性能。
更重要的是,该模型首次集成了原生函数调用(Function Calling)能力,有效弥合了“视觉感知”与“可执行动作”之间的鸿沟,为现实业务场景中的多模态智能体提供了统一的技术基础。
除在主流多模态基准测试中达到同规模模型的 SoTA 性能外,GLM-4.6V 还引入了若干关键特性:
- 原生多模态函数调用
支持原生的视觉驱动工具调用。图像、截图和文档页面可直接作为工具输入,无需转换为文本;同时,视觉输出(如图表、搜索图片、渲染页面)可被模型解析并整合进推理链路,从而实现从感知到理解再到执行的闭环。
- 交错式图文内容生成
支持基于复杂多模态输入生成高质量混合媒体内容。GLM-4.6V 能够处理包含文档、用户输入和工具检索图像在内的多模态上下文,并合成任务导向的、图文交错的连贯内容。在生成过程中,模型还能主动调用搜索与检索工具,收集并筛选额外的文本与视觉素材,产出丰富且视觉锚定的内容。
- 多模态文档理解
GLM-4.6V 可处理最多 128K tokens 的多文档或长文档输入,直接将格式丰富的页面作为图像进行解析。它能联合理解文本、版式、图表、表格和插图,无需事先转换为纯文本,即可准确理解复杂且富含图像的文档。
- 前端复现与视觉编辑
可从 UI 截图重建像素级精确的 HTML/CSS 代码,并支持自然语言驱动的编辑。模型通过视觉方式识别布局、组件和样式,生成干净的代码,并可通过简单的用户指令进行迭代式的视觉修改。
## 环境依赖
| 软件 | 版本 |
| :------: | :------: |
| DTK | 26.04 |
| python | 3.10.12 |
| torch | 2.9.0+das.opt1.dtk2604.20260206.g275d08c2 |
| transformers | 5.0.0.dev0 |
| vllm | 0.15.1+das.opt1.alpha.dtk2604.20260220.g2799735a |
推荐使用镜像: harbor.sourcefind.cn:5443/dcu/admin/base/custom:vllm0.15.1-ubuntu22.04-dtk26.04-0130-py3.10-20260220
- 挂载地址`-v`根据实际模型情况修改
```bash
docker run -it \
--shm-size 200g \
--network=host \
--name glm-4.6v \
--privileged \
--device=/dev/kfd \
--device=/dev/dri \
--device=/dev/mkfd \
--group-add video \
--cap-add=SYS_PTRACE \
--security-opt seccomp=unconfined \
-u root \
-v /opt/hyhal/:/opt/hyhal/:ro \
-v /path/your_code_data/:/path/your_code_data/ \
harbor.sourcefind.cn:5443/dcu/admin/base/custom:vllm0.15.1-ubuntu22.04-dtk26.04-0130-py3.10-20260220 bash
```
更多镜像可前往[光源](https://sourcefind.cn/#/service-list)下载使用,其它包安装:
```
pip install pycountry
pip install git+https://github.com/huggingface/transformers.git@159219a6601ab87787b75cdc270b3b2438a9f0cf
```
## 数据集
`暂无`
## 训练
`暂无`
## 推理
### vllm
#### 单机推理
```bash
## serve启动
export ALLREDUCE_STREAM_WITH_COMPUTE=1
export MOE_NN=0
vllm serve ZhipuAI/GLM-4.6V \
--tensor-parallel-size 8 \
--gpu-memory-utilization 0.95 \
--port 8001 \
--max-model-len 32768 \
--tool-call-parser glm45 \
--reasoning-parser glm45 \
--enable-auto-tool-choice \
--allowed-local-media-path / \
--mm-encoder-tp-mode data \
--mm_processor_cache_type shm \
--served-model-name GLM-4.6V
## client访问
curl http://localhost:8001/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "GLM-4.6V",
"messages": [
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {
"url": "file:///path/of/doc/Grayscale_8bits_palette_sample_image.png"
}
},
{
"type": "text",
"text": "请描述这张图片的内容。"
}
]
}
],
"temperature": 0.8,
"chat_template_kwargs": {
"thinking": true
}
}'
```
## 效果展示
### 精度
`DCU与GPU精度一致,推理框架:vllm。`
## 预训练权重
| 模型名称 | 权重大小 | DCU型号 | 最低卡数需求 |下载地址|
|:-----:|:----------:|:----------:|:---------------------:|:----------:|
| GLM-4.6V | 106B | BW1000 | 8 | [Modelscope](https://modelscope.cn/models/ZhipuAI/GLM-4.6V) |
| GLM-4.6V-Flash | 9B | BW1000 | 1 | [Modelscope](https://modelscope.cn/models/ZhipuAI/GLM-4.6V-Flash) |
## 源码仓库及问题反馈
- https://developer.sourcefind.cn/codes/modelzoo/glm-4.6v_vllm
## 参考资料
- https://github.com/zai-org/GLM-V