README.md 2.72 KB
Newer Older
zzg_666's avatar
zzg_666 committed
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
# LFM2.5
## 论文
[LFM2 Technical Report](https://arxiv.org/abs/2511.23404)

## 模型简介
LFM2.5是一个专为端侧部署设计的新型混合模型系列。它在LFM2架构的基础上,通过扩展预训练和强化学习构建而成。<br>
核心特性:

- 同类最佳性能:一个12亿参数的模型可媲美更大的模型,将高质量的人工智能带入你的口袋。<br>
- 快速边缘推理:在AMD CPU上解码速度达239词元/秒,在移动NPU上达82词元/秒。内存占用低于1GB,并在发布首日即支持llama.cpp、MLX 和vLLM。<br>
- 规模化训练:预训练数据从10万亿词元扩展至28万亿词元,并进行了大规模多阶段强化学习。<br>

<div align="center">
    <img src="https://cdn-uploads.huggingface.co/production/uploads/61b8e2ba285851687028d395/dxnYF2fuLpulismtFSGFi.png" width="100%" />
</div>

## 环境依赖

| 软件 | 版本 |
| :------: | :------: |
| DTK | 26.04 |
| python | 3.10.12 |
| torch | 2.9.0+das.opt1.dtk2604.20260126.g22910426 |
| transformers | 5.2.0.dev0 |
| vllm | 0.15.1+das.opt1.alpha.dtk2604 |

推荐使用镜像:image.sourcefind.cn:5000/dcu/admin/base/custom:pytorch2.9.1-ubuntu22.04-dtk26.04-0130-py3.10-20260204-qwen3_5

- 挂载地址`-v`根据实际模型情况修改

```bash
docker run -it \
    --shm-size 200g \
    --network=host \
    --name LFM2.5 \
    --privileged \
    --device=/dev/kfd \
    --device=/dev/dri \
    --device=/dev/mkfd \
    --group-add video \
    --cap-add=SYS_PTRACE \
    --security-opt seccomp=unconfined \
    -u root \
    -v /opt/hyhal/:/opt/hyhal/:ro \
    -v /path/your_code_data/:/path/your_code_data/ \
    image.sourcefind.cn:5000/dcu/admin/base/custom:pytorch2.9.1-ubuntu22.04-dtk26.04-0130-py3.10-20260204-qwen3_5 bash
```
更多镜像可前往[光源](https://sourcefind.cn/#/service-list)下载使用。

关于本项目DCU显卡所需的特殊深度学习库可从[光合](https://developer.sourcefind.cn/tool/)开发者社区下载安装,moviepy库需要单独安装。

```bash
pip install numpy==1.25
```

## 数据集

`暂无`

## 训练

`暂无`

## 推理

### transformers
#### 单机推理
```bash
python inference.py
```

## 效果展示
<div align=center>
    <img src="./doc/result.png"/>
</div>


### 精度
`DCU与GPU精度一致,推理框架:transformers`

## 预训练权重
| 模型名称  | 权重大小  | DCU型号  | 最低卡数需求 |下载地址|
|:-----:|:----------:|:----------:|:---------------------:|:----------:|
| LFM2.5-1.2B-Instruct | 1.2B | BW1000  | 1  | [HuggingFace](https://huggingface.co/LiquidAI/LFM2.5-1.2B-Instruct) |

## 源码仓库及问题反馈
- https://developer.sourcefind.cn/codes/modelzoo/lfm2.5_pytorch

## 参考资料
- https://docs.liquid.ai/lfm/getting-started/welcome