Commit df7a3701 authored by yongshk's avatar yongshk
Browse files

Initial commit

parent 841e3e01
# 算法名简写(英文简写大写) # TRANSFORMER-XL
## 论文 ## 论文
`Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context` `Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context`
...@@ -23,15 +23,29 @@ transformer-XL ...@@ -23,15 +23,29 @@ transformer-XL
``` ```
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:1.10.0-centos7.6-dtk-22.10-py37-latest docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:1.10.0-centos7.6-dtk-22.10-py37-latest
docker run -it --network=host --name=transformer-XL --privileged --device=/dev/kfd --device=/dev/dri --ipc=host --shm-size=32G --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -u root --ulimit stack=-1:-1 --ulimit memlock=-1:-1 -v /root/transformerxl:/home image.sourcefind.cn:5000/dcu/admin/base/pytorch:1.10.0-centos7.6-dtk-22.10-py37-latest docker run -it --network=host --name=transformer-XL --privileged --device=/dev/kfd --device=/dev/dri --ipc=host --shm-size=32G --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -u root --ulimit stack=-1:-1 --ulimit memlock=-1:-1 image.sourcefind.cn:5000/dcu/admin/base/pytorch:1.10.0-centos7.6-dtk-22.10-py37-latest
``` ```
### Anaconda(方法二) ### Dockerfile(方法二)
此处提供dockerfile的使用方法
```
docker build --no-cache -t transformer-XL:latest .
docker run -dit --network=host --name=transformer-XL --privileged --device=/dev/kfd --device=/dev/dri --ipc=host --shm-size=16G --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -u root --ulimit stack=-1:-1 --ulimit memlock=-1:-1 unet:latest
docker exec -it transformer-XL /bin/bash
pip install -r requirements.txt
```
### Anaconda(方法三)
此处提供本地配置、编译的详细步骤,例如: 此处提供本地配置、编译的详细步骤,例如:
关于本项目DCU显卡所需的特殊深度学习库可从[光合](https://developer.hpccube.com/tool/)开发者社区下载安装。 关于本项目DCU显卡所需的特殊深度学习库可从[光合](https://developer.hpccube.com/tool/)开发者社区下载安装。
``` ```
DTK驱动:dtk22.10 DTK驱动:dtk22.10
python:python3.7 python:python3.7
apex==0.1+gitdb7007a.dtk2210
torch==1.10.0a0+git2040069.dtk2210
``` ```
`Tips:以上dtk驱动、python等DCU相关工具版本需要严格一一对应` `Tips:以上dtk驱动、python等DCU相关工具版本需要严格一一对应`
...@@ -58,15 +72,16 @@ python3 prep_enwik8.py ...@@ -58,15 +72,16 @@ python3 prep_enwik8.py
│   └── test.txt │   └── test.txt
``` ```
## 训练 ## 训练
### 单机单卡
```
sh run_enwik8_base.sh train
```
### 单机多卡 ### 单机多卡
``` ```
sh run_enwik8_base_dp.sh train sh run_enwik8_base_dp.sh train
``` ```
### 单机单卡
```
sh run_enwik8_base.sh train
```
## 推理 ## 推理
``` ```
sh run_enwik8_base.sh eval --work_dir 模型路径 sh run_enwik8_base.sh eval --work_dir 模型路径
...@@ -84,10 +99,10 @@ sh run_enwik8_base.sh eval --work_dir 模型路径 ...@@ -84,10 +99,10 @@ sh run_enwik8_base.sh eval --work_dir 模型路径
## 应用场景 ## 应用场景
### 算法类别 ### 算法类别
`nlp、长序列处理` `语言翻译`
### 热点应用行业 ### 热点应用行业
`自然语言生成``机器翻译``长文本分类``对话系统` `科研`
## 源码仓库及问题反馈 ## 源码仓库及问题反馈
- https://developer.hpccube.com/codes/modelzoo/transformer-XL-pytorch - https://developer.hpccube.com/codes/modelzoo/transformer-XL-pytorch
......
# 模型唯一标识
modelCode = 421
# 模型名称
modelName=transformer-XL_pytorch
# 模型描述
modelDescription=Transformer-XL是一种深度学习模型,主要用于自然语言处理任务。它解决了长序列问题,能够处理更长的输入序列并记忆过去的信息。这主要通过增加一个称为“差分注意力”的操作和使用“分段序列记忆”的技术实现.
# 应用场景
appScenario=推理,训练,语言翻译,科研
# 框架类型
frameType=pytorch
apex==0.1+gitdb7007a.dtk2210
numpy==1.21.4 numpy==1.21.4
torch==1.10.0a0+git2040069.dtk2210
torchinfo==1.8.0 torchinfo==1.8.0
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment