Commit 573338cc authored by chenzk's avatar chenzk
Browse files

Update sf.md

parent ac5c25f6
......@@ -9,7 +9,7 @@
## 模型结构
2017 年, Google 提出了 Transformer 架构, 随后 BERT 、GPT、T5等预训练模型不断涌现, 并在各项任务中都不断刷新 SOTA 纪录。2022年, 清华提出了 GLM 模型(https://github.com/THUDM/GLM), 不同于上述预训练模型架构,它采用了一种自回归的空白填充方法, 在 NLP 领域三种主要的任务(自然语言理解、无条件生成、有条件生成)上都取得了不错的结果。
<img src="http://developer.hpccube.com/codes/modelzoo/glm_oneflow/-/raw/main/glm%E6%A8%A1%E5%9E%8B%E7%BB%93%E6%9E%84.png" alt="glm模型结构.png" style="zoom:50%;" />
<img src="http://developer.sourcefind.cn/codes/modelzoo/glm_oneflow/-/raw/main/glm%E6%A8%A1%E5%9E%8B%E7%BB%93%E6%9E%84.png" alt="glm模型结构.png" style="zoom:50%;" />
在LiBai中主要实现了GLM推理部分的工作。
......@@ -20,7 +20,7 @@
用 LiBai 搭建的 GLM 可以便捷地实现model parallel + pipeline parallel推理, 很好地解决单卡放不下大规模模型的问题。
<img src="http://developer.hpccube.com/codes/modelzoo/glm_oneflow/-/raw/main/glm%E7%AE%97%E6%B3%95%E5%8E%9F%E7%90%86.png" alt="glm算法原理.png" style="zoom:50%;" />
<img src="http://developer.sourcefind.cn/codes/modelzoo/glm_oneflow/-/raw/main/glm%E7%AE%97%E6%B3%95%E5%8E%9F%E7%90%86.png" alt="glm算法原理.png" style="zoom:50%;" />
### 分布式推理具有天然优势
......@@ -63,7 +63,7 @@ class Linear1D(nn.Module):
### Docker
提供[光源](https://www.sourcefind.cn/#/service-details)拉取的训练以及推理的docker镜像:image.sourcefind.cn:5000/dcu/admin/base/oneflow:0.9.1-centos7.6-dtk-22.10.1-py39-latest,关于本项目DCU显卡所需torch库等均可从[光合](https://developer.hpccube.com/tool/)开发者社区下载安装
提供[光源](https://www.sourcefind.cn/#/service-details)拉取的训练以及推理的docker镜像:image.sourcefind.cn:5000/dcu/admin/base/oneflow:0.9.1-centos7.6-dtk-22.10.1-py39-latest,关于本项目DCU显卡所需torch库等均可从[光合](https://developer.sourcefind.cn/tool/)开发者社区下载安装
docker pull image.sourcefind.cn:5000/dcu/admin/base/oneflow:0.9.1-centos7.6-dtk-22.10.1-py39-latest
# <Your Image ID>用上面拉取docker镜像的ID替换
......@@ -231,7 +231,7 @@ demo.py如下:
## 源码仓库及问题反馈
- https://developer.hpccube.com/codes/modelzoo/glm_oneflow
- https://developer.sourcefind.cn/codes/modelzoo/glm_oneflow
## 参考
* https://github.com/Oneflow-Inc/libai
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment