README.md 3.37 KB
Newer Older
mashun1's avatar
xlam  
mashun1 committed
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
# xLAM

## 论文

`APIGen-MT: Agentic PIpeline for Multi-Turn Data Generation via Simulated Agent-Human Interplay`

* https://arxiv.org/pdf/2504.03601

`ActionStudio: A Lightweight Framework for Data and Training of Large Action Models`

* https://arxiv.org/pdf/2503.22673

## 模型结构

模型基于Qwen2.5以及LLama3.1/3.2训练

![alt text](readme_imgs/arch.png)

## 算法原理
Multi-Head Attention是一种并行注意力机制,它通过多个子空间中的注意力头协同工作,从不同角度捕捉序列中元素之间的关系,从而增强模型的表达能力。

![alt text](readme_imgs/alg.png)

## 环境配置

### Docker(方法一)
    
    docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.3.0-ubuntu22.04-dtk24.04.3-py3.10

    docker run --shm-size 100g --network=host --name=wan --privileged --device=/dev/kfd --device=/dev/dri --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v 项目地址(绝对路径):/home/ -v /opt/hyhal:/opt/hyhal:ro -it <your IMAGE ID> bash

    pip install -r requirements.txt

    pip install -e .


### Dockerfile(方法二)

    docker build -t <IMAGE_NAME>:<TAG> .

    docker run --shm-size 100g --network=host --name=wan --privileged --device=/dev/kfd --device=/dev/dri --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v 项目地址(绝对路径):/home/ -v /opt/hyhal:/opt/hyhal:ro -it <your IMAGE ID> bash
    
    pip install -r requirements.txt

    pip install -e .

### Anaconda(方法三)

1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: https://developer.sourcefind.cn/tool/

```
DTK驱动:dtk24.04.3
python:python3.10
torch:2.3.0
torchvision:0.18.1
triton:2.1.0
flash-attn:2.6.1
deepspeed:0.14.2
apex:1.3.0
xformers:0.0.25
transformers:4.48.0
```

2、其他非特殊库直接按照requirements.txt安装

```
pip install -r requirements.txt
pip install -e .
```

## 数据集

项目提供用于验证的数据集,位于`actionstudio/datasets/unified_data`.


## 训练

### 数据处理

1、数据转换

```bash
cd actionstudio/src/data_pipeline

python data_converters.py

cd -
```

2、数据验证(可选)

```bash
cd actionstudio/examples
bash sft_data_verifier.sh
```

注意:运行前需根据文件中指示修改相应内容。


### Lora

```bash
cd actionstudio/examples/trainings

bash sft_lora_bf16_single_pods.sh
```

注意:运行前需根据文件中指示修改相应内容。


### 全参

```bash
cd actionstudio/examples/trainings

bash sft_bf16_single_pods.sh
```

注意:运行前需根据文件中指示修改相应内容。

本项目已关闭hf模型及wandb上传,如需使用,请修改`actionstudio/src/foundation_modeling/train`中相应部分。


## 推理

```bash
python inference.py
```

## result

![alt text](readme_imgs/result.png)

### 精度

|base model|训练方式|loss|
|:---:|:---:|:---:|
|qwen2.5-1.5b-instruct|lora|0.008|

## 应用场景

### 算法类别

`对话问答`

### 热点应用行业

`电商,教育,广媒`

## 预训练权重

此处仅提供示例模型权重,更多请参考[文档](README_official.md#model-instruction)

[Llama-xLAM-2-8b-fc-r](https://huggingface.co/Salesforce/Llama-xLAM-2-8b-fc-r)

## 源码仓库及问题反馈

* https://developer.sourcefind.cn/codes/modelzoo/xlam_pytorch

## 参考资料

* https://github.com/SalesforceAIResearch/xLAM