README.md 6.1 KB
Newer Older
chenzk's avatar
v1.0  
chenzk committed
1
2
3
4
# Llama3.2
Llama 3.2支持12.8万个token的上下文长度,在图像识别和其他视觉理解任务上能够与OpenAI的GPT 4o-mini相媲美,其中3B计算量的模型方便用于边缘端部署,Llama 3.2 3B模型在IFEval评测中达到了Llama 3.1 8B的水平。
## 论文
`Open and Efficient Foundation Language Models`
chenzk's avatar
v1.0.2  
chenzk committed
5
- https://arxiv.org/pdf/2302.13971
chenzk's avatar
v1.0  
chenzk committed
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
 
## 模型结构
Llama 3.2继续沿用Decoder-only结构,支持大型上下文窗口(最多 128K 个标记),其GQA在推理过程提速比较明显。
<div align=center>
    <img src="./doc/llama3.png"/>
</div>

## 算法原理
通过剪枝(Pruning)和知识蒸馏,从Llama 3.1的8B和70B分别获得Llama 3.2的1B和3B模型,实现了在边缘设备端高效运行的能力,在后期训练中,采用与Llama 3.1类似的流程,通过多轮对预训练模型的对齐,包括监督微调、拒绝采样和直接偏好优化,生成最终的对话模型,另外,开始支持11B和90B多模态模型。
<div align=center>
    <img src="./doc/distillation.png"/>
</div>

## 环境配置
```
mv llama-factory-llama3.2_pytorch LLaMA-Factory-Llama3.2 # 去框架名后缀
```

### Docker(方法一)
```
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.3.0-ubuntu22.04-dtk24.04.2-py3.10
# <your IMAGE ID>为以上拉取的docker的镜像ID替换,本镜像为:83714c19d308
docker run -it --shm-size=64G -v $PWD/LLaMA-Factory-Llama3.2:/home/LLaMA-Factory-Llama3.2 -v /opt/hyhal:/opt/hyhal:ro --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name llama32 <your IMAGE ID> bash
cd /home/LLaMA-Factory-Llama3.2
pip install -r requirements.txt # requirements.txt
pip install -e ".[torch,metrics]" # 安装llamafactory-cli=0.9.1
```
### Dockerfile(方法二)
```
cd LLaMA-Factory-Llama3.2/docker
docker build --no-cache -t llama32:latest .
docker run --shm-size=64G --name llama32 -v /opt/hyhal:/opt/hyhal:ro --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video -v $PWD/../../LLaMA-Factory-Llama3.2:/home/LLaMA-Factory-Llama3.2 -it llama32 bash
# 若遇到Dockerfile启动的方式安装环境需要长时间等待,可注释掉里面的pip安装,启动容器后再安装python库:pip install -r requirements.txt。
# 在镜像里安装llamafactory-cli=0.9.1
cd /home/LLaMA-Factory-Llama3.2
pip install -e ".[torch,metrics]"
```
### Anaconda(方法三)
1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装:
- https://developer.hpccube.com/tool/
```
DTK驱动:dtk24.04.2
python:python3.10
torch:2.3.0
torchvision:0.18.1
torchaudio:2.1.2
triton:2.1.0
flash-attn:2.0.4
deepspeed:0.14.2
apex:1.3.0
xformers:0.0.25
```

`Tips:以上dtk驱动、python、torch等DCU相关工具版本需要严格一一对应。`

2、其它非特殊库参照requirements.txt安装
```
pip install -r requirements.txt # requirements.txt
pip install -e ".[torch,metrics]" # 安装llamafactory-cli=0.9.1
```

## 数据集
`identity``alpaca_en_demo`

数据集快速下载中心:[SCNet AIDatasets](http://113.200.138.88:18080/aidatasets)

项目中已提供用于试验训练的迷你数据集:[`identity`](./data/identity.json)[`alpaca_en_demo`](./data/alpaca_en_demo.json),训练数据目录结构如下:
```
/home/LLaMA-Factory-Llama3.2/data
            ├── identity.json
            ├── alpaca_en_demo.json
            ├── ...
```
用户自定义产品场景训练数据的制作方式请参照[`data/README`](./data/README.md)中的格式介绍,并更新[data/dataset_info](data/dataset_info.json)进行使用。例如微调数据集格式:
```
# 以下内容放入文件data.json
[
  {
    "instruction": "人类指令(必填)",
    "input": "人类输入(选填)",
    "output": "模型回答(必填)",
    "system": "系统提示词(选填)",
    "history": [
      ["第一轮指令(选填)", "第一轮回答(选填)"],
      ["第二轮指令(选填)", "第二轮回答(选填)"]
    ]
  }
]
```
对于上述格式的数据,dataset_info.json 中的数据集描述应为:
```
"数据集名称": {
  "file_name": "data.json",
  "columns": {
    "prompt": "instruction",
    "query": "input",
    "response": "output",
    "system": "system",
    "history": "history"
  }
}
```

## 训练
### 单机多卡

```
# 微调
# 修改llama3_lora_sft.yaml中的model_name_or_path: meta-llama/Llama-3.2-3B-Instruct
cd /home/LLaMA-Factory-Llama3.2
llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml #本README以Llama-3.2-3B-Instruct进行示例,其它llama模型可以此类推进行使用。
# 微调完成后,利用以下命令将微调结果与下载的原始预训练权重合并成最终权重进行发布:
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml
```
更多资料可参考源项目的[`README_origin`](./README_origin.md)

## 推理
```
# 方法一:pytorch 推理
llamafactory-cli chat examples/inference/llama3_lora_sft.yaml
# 方法二:vllm 推理
python infer_vllm.py # 目前vllm官网发布的vllm=0.5.0暂未兼容llama3.2,待vllm兼容后,方可从光合开发者社区下载新的适配版本利用此命令进行vllm推理。
```

## result
`User: `
```
世界上效果最好的对话大模型是哪个?
```
`Assistant:`
```
目前,世界上效果最好的对话大模型是{{name}}。
```

### 精度
DCU与GPU精度一致,推理框架:pytorch。

## 应用场景
### 算法类别
`对话问答`
### 热点应用行业
`制造,广媒,金融,能源,医疗,家居,教育`
## 预训练权重
预训练权重快速下载中心:[SCNet AIModels](http://113.200.138.88:18080/aimodels) ,项目中的预训练权重可从快速下载通道下载:[Llama-3.2-3B-Instruct](http://113.200.138.88:18080/aimodels/meta-llama/Llama-3.2-3B-Instruct.git)

Hugging Face下载地址为:[Llama-3.2-3B-Instruct](https://huggingface.co/meta-llama/Llama-3.2-3B-Instruct) 
## 源码仓库及问题反馈
chenzk's avatar
v1.0.1  
chenzk committed
153
- http://developer.sourcefind.cn/codes/modelzoo/llama-factory-llama3.2_pytorch.git
chenzk's avatar
v1.0  
chenzk committed
154
155
156
157
## 参考资料
- https://github.com/hiyouga/LLaMA-Factory.git
- https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/