"profiler/src/profile_conv_fwd_cpu.cpp" did not exist on "acbd7bd7c5efd17b7061157a5868e28acc04d33e"
Commit 06efe340 authored by xuxzh1's avatar xuxzh1 🎱
Browse files
parents 5983dd56 eb45db79
...@@ -18,11 +18,10 @@ InterLM是一个基础语言模型的集合,参数范围从7B到20B。在数万 ...@@ -18,11 +18,10 @@ InterLM是一个基础语言模型的集合,参数范围从7B到20B。在数万
```bash ```bash
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10(推荐) docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10(推荐)
docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:lmdeploy0.0.13_dtk23.04_torch1.13_py38
# <Image ID>用上面拉取docker镜像的ID替换 # <Image ID>用上面拉取docker镜像的ID替换
# <Host Path>主机端路径 # <Host Path>主机端路径
# <Container Path>容器映射路径 # <Container Path>容器映射路径
docker run -it --name baichuan --shm-size=1024G --device=/dev/kfd --device=/dev/dri/ --cap-add=SYS_PTRACE --security-opt seccomp=unconfined --ulimit memlock=-1:-1 --ipc=host --network host --group-add video -v <Host Path>:<Container Path> <Image ID> /bin/bash docker run -it --name baichuan --shm-size=1024G --device=/dev/kfd --device=/dev/dri/ --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v /opt/hyhal:/opt/hyhal:ro --ulimit memlock=-1:-1 --ipc=host --network host --group-add video -v <Host Path>:<Container Path> <Image ID> /bin/bash
``` ```
镜像版本依赖: 镜像版本依赖:
...@@ -31,16 +30,6 @@ InterLM是一个基础语言模型的集合,参数范围从7B到20B。在数万 ...@@ -31,16 +30,6 @@ InterLM是一个基础语言模型的集合,参数范围从7B到20B。在数万
* Pytorch: 2.1.0 * Pytorch: 2.1.0
* python: python3.10 * python: python3.10
> [!NOTE]
>
> 使用lmdeploy0.0.13_dtk23.04_torch1.13_py38如果遇到 importError:libgemm multiB int4.so: cannot open shared obiect file: No such file or directory
>
> 解决方法:
>
> ```bash
> rm /usr/local/lib/python3.8/site-packages/_turbomind.cpython-38-x86_64-linux-gnu.so
> ```
## 数据集 ## 数据集
...@@ -71,31 +60,23 @@ pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple ...@@ -71,31 +60,23 @@ pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
source /opt/dtk/cuda/env.sh source /opt/dtk/cuda/env.sh
``` ```
### 运行 internlm-chat-7 ### 运行 internlm-chat-7b
```bash ```bash
# 模型转换 # 模型转换
# <model_name> 模型的名字 ('llama', 'internlm', 'vicuna', 'internlm-chat-7b', 'internlm-chat', 'internlm-chat-7b-8k', 'internlm-chat-20b', 'internlm-20b', 'baichuan-7b', 'baichuan2-7b', 'llama2', 'qwen-7b', 'qwen-14b')
# <model_path> 模型路径
# <model_format> 模型的格式 ('llama', 'hf', 'qwen')
# <tokenizer_path> tokenizer模型的路径(默认None,会去model_path里面找tokenizer.model)
# <model_format> 保存输出的目标路径(默认./workspace)
# <tp> 用于张量并行的GPU数量应该是2^n # <tp> 用于张量并行的GPU数量应该是2^n
# bash界面运行 # bash界面运行
lmdeploy chat turbomind ./workspace_interlm7b --tp 1 # 输入问题后执行2次回车进行推理 lmdeploy chat turbomind ./path_to_interlm7b --tp 1 # 输入问题后执行2次回车进行推理
# 服务器网页端运行 # 服务器网页端运行
在bash端运行: 在bash端运行:
# <model_path_or_server> 部署模型的路径或tritonserver URL或restful api URL。前者用于与gradio直接运行服务。后者用于默认情况下使用tritonserver运行。如果输入URL是restful api。请启用另一个标志“restful_api”。 # <server-name> gradio服务器的ip地址
# <server_name> gradio服务器的ip地址 # <server-port> gradio服务器的ip的端口
# <server_port> gradio服务器的ip的端口
# <batch_size> 于直接运行Turbomind的batch大小 (默认32)
# <tp> 用于张量并行的GPU数量应该是2^n (和模型转换的时候保持一致) # <tp> 用于张量并行的GPU数量应该是2^n (和模型转换的时候保持一致)
# <restful_api> modelpath_or_server的标志(默认是False)
lmdeploy serve gradio ./workspace_interlm7b --server-name {ip} --server-port {port} --batch_size 32 --tp 1 --restful_api False lmdeploy serve gradio ./path_to_interlm7b --server-name {ip} --server-port {port}
在网页上输入{ip}:{port}即可进行对话 在网页上输入{ip}:{port}即可进行对话
``` ```
...@@ -103,12 +84,12 @@ lmdeploy serve gradio ./workspace_interlm7b --server-name {ip} --server-port {p ...@@ -103,12 +84,12 @@ lmdeploy serve gradio ./workspace_interlm7b --server-name {ip} --server-port {p
### 运行 internlm-chat-20b ### 运行 internlm-chat-20b
```bash ```bash
# bash界面运行 # bash界面运行
lmdeploy chat turbomind ./workspace_interlm20b --tp 4 lmdeploy chat turbomind ./path_to_interlm20b --tp 4
# 服务器网页端运行 # 服务器网页端运行
在bash端运行: 在bash端运行:
lmdeploy serve gradio ./workspace_interlm20b --server-name {ip} --server-port {port} --batch_size 32 --tp 4 --restful_api False lmdeploy serve gradio ./path_to_interlm20b --server-name {ip} --server-port {port} --tp 4
在网页上输入{ip}:{port}即可进行对话 在网页上输入{ip}:{port}即可进行对话
``` ```
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment