Commit 3e1bad38 authored by lvzhen's avatar lvzhen
Browse files

Update README.md

parent 9aa71e93
...@@ -113,8 +113,8 @@ python process.py ...@@ -113,8 +113,8 @@ python process.py
#### 单轮对话微调 #### 单轮对话微调
```bash ```bash
cd ./finetune_demo cd ./finetune_demo
bash sft.sh bash sft.sh
``` ```
注意:请根据自己的需求配置其中的模型路径、数据集路径;batchsize、学习率等参数在./finetune_demo/configs/sft.yaml; 注意:请根据自己的需求配置其中的模型路径、数据集路径;batchsize、学习率等参数在./finetune_demo/configs/sft.yaml;
...@@ -126,8 +126,8 @@ python process.py ...@@ -126,8 +126,8 @@ python process.py
注意:此时要将hf上下载的原生`tokenizer_config.json``tokenization_chatglm.py` 两个文件放入要待测的 checkpoint 文件夹下,比如./finetune_demo/output/checkpoint-3000/ 注意:此时要将hf上下载的原生`tokenizer_config.json``tokenization_chatglm.py` 两个文件放入要待测的 checkpoint 文件夹下,比如./finetune_demo/output/checkpoint-3000/
```bash ```bash
cd ./finetune_demo cd ./finetune_demo
bash sft_inf.sh bash sft_inf.sh
``` ```
...@@ -137,8 +137,8 @@ python process.py ...@@ -137,8 +137,8 @@ python process.py
#### 单轮对话微调 #### 单轮对话微调
```bash ```bash
cd ./fintune_demo cd ./fintune_demo
bash lora.sh bash lora.sh
``` ```
注意:请根据自己的需求配置其中的模型路径、数据集路径;batchsize、学习率等参数在 ./finetune_demo/configs/lora.yaml; 注意:请根据自己的需求配置其中的模型路径、数据集路径;batchsize、学习率等参数在 ./finetune_demo/configs/lora.yaml;
...@@ -150,8 +150,8 @@ python process.py ...@@ -150,8 +150,8 @@ python process.py
注意:经过LORA微调训练后的checkpoint无需复制原生GLM3的tokenizer文件到其目录下。 注意:经过LORA微调训练后的checkpoint无需复制原生GLM3的tokenizer文件到其目录下。
```bash ```bash
cd ./finetune_demo cd ./finetune_demo
bash lora_inf.sh bash lora_inf.sh
``` ```
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment