# MLLM部署文档
## 目录
- [环境准备](#环境准备)
- [qwen-vl-chat](#qwen-vl-chat)
- [yi-vl-6b-chat](#yi-vl-6b-chat)
- [minicpm-v-v2_5-chat](#minicpm-v-v2_5-chat)
- [qwen-vl](#qwen-vl)
## 环境准备
```shell
git clone https://github.com/modelscope/swift.git
cd swift
pip install -e '.[llm]'
pip install vllm
```
以下我们给出了4个模型的例子(选择了尺寸较小的模型来方便实验),分别为qwen-vl-chat、qwen-vl、yi-vl-6b-chat和minicpm-v-v2_5-chat。从这些例子中,你可以发现三种不同类型MLLM:一轮对话可以包含多张图片(或不含图片)、一轮对话只能包含一张图片、整个对话围绕一张图片的部署和调用方式差异,以及MLLM中chat模型与base模型的部署和调用方式差异。
如果使用qwen-audio-chat, 请在qwen-vl-chat示例的基础上将`
`改为`