Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
norm
vllm
Commits
cc4a8e6f
Commit
cc4a8e6f
authored
May 16, 2024
by
zhuwenwen
Browse files
update readme
parent
a6950aea
Changes
1
Show whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
33 additions
and
2 deletions
+33
-2
README.md
README.md
+33
-2
No files found.
README.md
View file @
cc4a8e6f
...
@@ -2,6 +2,29 @@
...
@@ -2,6 +2,29 @@
## 简介
## 简介
vLLM是一个快速且易于使用的LLM推理和服务库,使用PageAttention高效管理kv内存,Continuous batching传入请求,支持很多Hugging Face模型,如LLaMA & LLaMA-2、Qwen、Chatglm2 & Chatglm3等。
vLLM是一个快速且易于使用的LLM推理和服务库,使用PageAttention高效管理kv内存,Continuous batching传入请求,支持很多Hugging Face模型,如LLaMA & LLaMA-2、Qwen、Chatglm2 & Chatglm3等。
## 暂不支持的官方功能
-
**量化推理**
:目前支持fp16的推理和gptq推理,awq-int4和mralin的权重量化、kv-cache fp8推理方案暂不支持
-
**模块支持**
:目前不支持Sliding window attention、 moe kernel和lora模块
## 支持模型结构列表
| 结构 | 模型 | 模型并行 | FP16 |
| :----------: | :----------: | :------: | :--: |
| LlamaForCausalLM | LLaMA | Yes | Yes |
| LlamaForCausalLM | LLaMA-2 | Yes | Yes |
| LlamaForCausalLM | LLaMA-3 | Yes | Yes |
| LlamaForCausalLM | Codellama | Yes | Yes |
| QWenLMHeadModel | QWen | Yes | Yes |
| BaiChuanForCausalLM | Baichuan-7B | Yes | Yes |
| BaiChuanForCausalLM | Baichuan2-7B | Yes | Yes |
| ChatGLMModel | chatglm2-6b | Yes | Yes |
| ChatGLMModel | chatglm3-6b | Yes | Yes |
| InternLMForCausalLM | InternLM | Yes | Yes |
| InternLM2ForCausalLM | InternLM2 | Yes | Yes |
| LlamaForCausalLM | Yi | Yes | Yes |
| MixtralForCausalLM | Mixtral-8x7B | Yes | Yes |
## 安装
## 安装
vLLM支持
vLLM支持
+
Python 3.8.
+
Python 3.8.
...
@@ -16,7 +39,7 @@ vLLM支持
...
@@ -16,7 +39,7 @@ vLLM支持
1.
基于光源pytorch2.1.0基础镜像环境:镜像下载地址:
[
https://sourcefind.cn/#/image/dcu/pytorch
](
https://sourcefind.cn/#/image/dcu/pytorch
)
,根据pytorch2.1.0、python、dtk及系统下载对应的镜像版本。
1.
基于光源pytorch2.1.0基础镜像环境:镜像下载地址:
[
https://sourcefind.cn/#/image/dcu/pytorch
](
https://sourcefind.cn/#/image/dcu/pytorch
)
,根据pytorch2.1.0、python、dtk及系统下载对应的镜像版本。
2.
基于现有python环境:安装pytorch2.1.0,pytorch whl包下载目录:
[
https://cancon.hpccube.com:65024/4/main/pytorch/
dtk24
.0
4
](
https://cancon.hpccube.com:65024/4/main/pytorch/
dtk24
.0
4
)
,根据python、dtk版本,下载对应pytorch2.1.0的whl包。安装命令如下:
2.
基于现有python环境:安装pytorch2.1.0,pytorch whl包下载目录:
[
https://cancon.hpccube.com:65024/4/main/pytorch/
DAS1
.0
](
https://cancon.hpccube.com:65024/4/main/pytorch/
DAS1
.0
)
,根据python、dtk版本,下载对应pytorch2.1.0的whl包。安装命令如下:
```
shell
```
shell
pip
install
torch
*
(
下载的torch的whl包
)
pip
install
torch
*
(
下载的torch的whl包
)
pip
install
setuptools wheel
pip
install
setuptools wheel
...
@@ -38,11 +61,19 @@ pip install vllm*
...
@@ -38,11 +61,19 @@ pip install vllm*
python3 setup.py install
python3 setup.py install
```
```
#### 运行基础环境准备
1、使用基于光源pytorch2.1.0基础镜像环境:docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-centos7.6-dtk24.04-py310
2、安装对应依赖的包:
triton:
[
https://cancon.hpccube.com:65024/4/main/triton/DAS1.0
](
https://cancon.hpccube.com:65024/4/main/triton/DAS1.0
)
xformers:
[
https://cancon.hpccube.com:65024/4/main/xformers/DAS1.0
](
https://cancon.hpccube.com:65024/4/main/xformers/DAS1.0
)
flash_attn:
[
https://cancon.hpccube.com:65024/4/main/flash_attn/DAS1.0
](
https://cancon.hpccube.com:65024/4/main/flash_attn/DAS1.0
)
#### 注意事项
#### 注意事项
+
若使用 pip install 下载安装过慢,可添加源:-i https://pypi.tuna.tsinghua.edu.cn/simple/
+
若使用 pip install 下载安装过慢,可添加源:-i https://pypi.tuna.tsinghua.edu.cn/simple/
## 验证
## 验证
-
python -c "import vllm; print(vllm.
\_\_
version__)",版本号与官方版本同步,查询该软件的版本号,例如0.
3.3
;
-
python -c "import vllm; print(vllm.
\_\_
version__)",版本号与官方版本同步,查询该软件的版本号,例如0.
4.0
;
## Known Issue
## Known Issue
-
无
-
无
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment