Commit d1814075 authored by zhouxiang's avatar zhouxiang
Browse files

更新描述信息

parent f8a481f8
...@@ -41,7 +41,7 @@ GLM是一种基于Transformer的语言模型,以自回归空白填充为训练 ...@@ -41,7 +41,7 @@ GLM是一种基于Transformer的语言模型,以自回归空白填充为训练
在光源可拉取推理的docker镜像,拉取方式如下: 在光源可拉取推理的docker镜像,拉取方式如下:
``` ```
docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:glm-ft-v1.0 docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:glm-ft-v1.1
``` ```
### 容器启动 ### 容器启动
...@@ -51,7 +51,7 @@ docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:glm-ft-v1.0 ...@@ -51,7 +51,7 @@ docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:glm-ft-v1.0
``` ```
# <container_name> 自定义容器名 # <container_name> 自定义容器名
# <project_path> 当前工程所在路径 # <project_path> 当前工程所在路径
docker run -it --name=<container_name> -v <project_path>:/work -w /work --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --cap-add=SYS_PTRACE --shm-size=16G --group-add 39 image.sourcefind.cn:5000/dcu/admin/base/custom:glm-ft-v1.0 /bin/bash docker run -it --name=<container_name> -v <project_path>:/work -w /work --device=/dev/kfd --device=/dev/dri --security-opt seccomp=unconfined --cap-add=SYS_PTRACE --shm-size=16G --group-add 39 image.sourcefind.cn:5000/dcu/admin/base/custom:glm-ft-v1.1 /bin/bash
``` ```
### 编译方法 ### 编译方法
...@@ -112,6 +112,12 @@ mpirun -n 8 --allow-run-as-root ./bin/glm_example ...@@ -112,6 +112,12 @@ mpirun -n 8 --allow-run-as-root ./bin/glm_example
python ../examples/pytorch/glm/glm_tokenize.py python ../examples/pytorch/glm/glm_tokenize.py
``` ```
## Result
<div align="center">
<img src="doc/result.png">
</div>
## 应用场景 ## 应用场景
### 算法类别 ### 算法类别
...@@ -120,7 +126,7 @@ python ../examples/pytorch/glm/glm_tokenize.py ...@@ -120,7 +126,7 @@ python ../examples/pytorch/glm/glm_tokenize.py
### 热点应用行业 ### 热点应用行业
`nlp,智能聊天助手,科研` `nlp,大模型基座,科研,智能聊天助手`
## 源码仓库及问题反馈 ## 源码仓库及问题反馈
......
# 模型唯一标识 # 模型唯一标识
modelCode = 348 modelCode = 348
# 模型名称 # 模型名称
modelName=GLM130B_FT modelName=glm130b_fastertransformer
# 模型描述 # 模型描述
modelDescription=GLM-130B是一个开放的双语(中英)双向密集模型,具有130亿个参数,使用通用语言模型(GLM)算法进行预训练。 modelDescription=GLM-130B是一个开放的双语(中英)双向密集模型,具有130亿个参数,使用通用语言模型(GLM)算法进行预训练。
# 应用场景 # 应用场景
appScenario=推理,NLP,大模型基座,智能聊天助手 appScenario=推理,NLP,大模型基座,科研,智能聊天助手
# 框架类型 # 框架类型
frameType=fastertransformer frameType=fastertransformer
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment