README.md 1.47 KB
Newer Older
wanglch's avatar
wanglch committed
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
## LLM-CODE
轩辕系列模型的预训练和指令微调代码库,暨大语言模型-原理与工程实践书籍的示例代码
### 运行环境
Nvidia显卡驱动版本>=525.85.12  
CUDA版本>=12.3  
Python版本>=3.10.12  
gcc版本>=11.4.0  
  
python pip安装包版本如下:  
argparse==1.4.0  
deepspeed==0.12.5  
datasets==2.15.0  
transformers==4.36.0  
sentencepiece==0.1.99  


### 数据集下载
方式一:直接下载,数据集文件可通过如下huggingface链接下载  
https://huggingface.co/datasets/Duxiaoman-DI/FinCorpus  

方式二:python代码获取,代码如下
```py
from datasets import load_dataset

dataset = load_dataset("Duxiaoman-DI/FinCorpus")
```

### 模型下载
方式一:直接下载,Llama-2-7b-hf模型文件可通过如下huggingface链接下载  
https://huggingface.co/meta-llama/Llama-2-7b-hf  
  
方式二:python代码获取,代码如下
```py
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-hf")
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-hf")
```

### 执行步骤
```sh
切换到你的宿主机工作目录
cd /your_host_workspace

clone项目代码
git clone https://github.com/Duxiaoman-DI/XuanYuan.git

切换到容器内项目根目录
cd XuanYuan/llm-code

删除缓存
sh clear_cache.sh

执行数据预处理
sh data_preprocess_run.sh

执行预训练
sh pretrain_run.sh

执行sft
sh sft_run.sh
```