Commit f5657d46 authored by xiabo's avatar xiabo
Browse files

Update README.md

parent ba02a3e3
...@@ -65,7 +65,7 @@ cd .. && python3 setup.py install ...@@ -65,7 +65,7 @@ cd .. && python3 setup.py install
# <model_format> 保存输出的目标路径(默认./workspace) # <model_format> 保存输出的目标路径(默认./workspace)
# <tp> 用于张量并行的GPU数量应该是2^n # <tp> 用于张量并行的GPU数量应该是2^n
mdeploy convert --model_name qwen-7b --model_path /path/to/model --model_format qwen --tokenizer_path None --dst_path ./workspace_qwe7b --tp 1 lmdeploy convert --model_name qwen-7b --model_path /path/to/model --model_format qwen --tokenizer_path None --dst_path ./workspace_qwe7b --tp 1
# bash界面运行 # bash界面运行
lmdeploy chat turbomind --model_path ./workspace_qwe7b --tp 1 # 输入问题后执行2次回车进行推理 lmdeploy chat turbomind --model_path ./workspace_qwe7b --tp 1 # 输入问题后执行2次回车进行推理
...@@ -87,7 +87,7 @@ lmdeploy serve gradio --model_path_or_server ./workspace_qwe7b --server_name {ip ...@@ -87,7 +87,7 @@ lmdeploy serve gradio --model_path_or_server ./workspace_qwe7b --server_name {ip
### 运行 Qwen-14B-chat ### 运行 Qwen-14B-chat
``` ```
# 模型转换 # 模型转换
mdeploy convert --model_name qwen-14b --model_path /path/to/model --model_format qwen --tokenizer_path None --dst_path ./workspace_qwe14b --tp 2 lmdeploy convert --model_name qwen-14b --model_path /path/to/model --model_format qwen --tokenizer_path None --dst_path ./workspace_qwe14b --tp 2
# bash界面运行 # bash界面运行
lmdeploy chat turbomind --model_path ./workspace_qwe14b --tp 2 lmdeploy chat turbomind --model_path ./workspace_qwe14b --tp 2
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment