Commit c5c841b0 authored by dongchy920's avatar dongchy920
Browse files

Update README.md

parent f395f37f
...@@ -41,7 +41,9 @@ Qwen2.5-Coder以Qwen2.5为基础,有0.5B、1.5B、3B、7B、14B以及32B六个 ...@@ -41,7 +41,9 @@ Qwen2.5-Coder以Qwen2.5为基础,有0.5B、1.5B、3B、7B、14B以及32B六个
<img src="./imgs/Training.png"/> <img src="./imgs/Training.png"/>
</div> </div>
## 环境配置 ## 环境配置
## 硬件需求
DCU型号:K100_AI,节点数量:1台,卡数:1张
### Docker(方法一) ### Docker(方法一)
[光源](https://www.sourcefind.cn/#/service-list)中拉取docker镜像: [光源](https://www.sourcefind.cn/#/service-list)中拉取docker镜像:
``` ```
...@@ -105,7 +107,7 @@ SCNet快速下载连接[SCNet下载](http://113.200.138.88:18080/aimodels/qwen/Q ...@@ -105,7 +107,7 @@ SCNet快速下载连接[SCNet下载](http://113.200.138.88:18080/aimodels/qwen/Q
``` ```
# 注意:根据自己的模型切换.yaml文件中的模型位置 # 注意:根据自己的模型切换.yaml文件中的模型位置
HIP_VISIBLE_DEVICES=0 llamafactory-cli train examples/train_lora/qwen2vl_lora_sft_custom.yaml HIP_VISIBLE_DEVICES=0 llamafactory-cli train examples/train_lora/qwen2vl_lora_sft_custom.yaml
# 如果显存不够,可以使用Zero-offload减少显存使用 # 如果显存不够,可以使用Zero-offload减少显存使用,单卡时要注释掉yaml中的deepspeed内容
HIP_VISIBLE_DEVICES=0 llamafactory-cli train examples/train_lora/qwen2vl_lora_sft_offload_custom.yaml HIP_VISIBLE_DEVICES=0 llamafactory-cli train examples/train_lora/qwen2vl_lora_sft_offload_custom.yaml
``` ```
...@@ -136,7 +138,7 @@ DCU与GPU精度一致,推理框架:pytorch。 ...@@ -136,7 +138,7 @@ DCU与GPU精度一致,推理框架:pytorch。
### 热点应用行业 ### 热点应用行业
代码生成,代码修改,教育 代码生成,代码修改,教育
## 其他预训练权重 ## 预训练权重
Instruct系列模型 Instruct系列模型
[Qwen2.5-Coder-0.5B-Instruct](http://113.200.138.88:18080/aimodels/qwen/Qwen2.5-Coder-0.5B-Instruct) [Qwen2.5-Coder-0.5B-Instruct](http://113.200.138.88:18080/aimodels/qwen/Qwen2.5-Coder-0.5B-Instruct)
[Qwen2.5-Coder-1.5B-Instruct](http://113.200.138.88:18080/aimodels/qwen/Qwen2.5-Coder-1.5B-Instruct) [Qwen2.5-Coder-1.5B-Instruct](http://113.200.138.88:18080/aimodels/qwen/Qwen2.5-Coder-1.5B-Instruct)
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment