Commit addc6376 authored by yangzhong's avatar yangzhong
Browse files

update image

parent 709a786a
...@@ -13,8 +13,7 @@ BERT的主模型是BERT中最重要组件,BERT通过预训练(pre-training ...@@ -13,8 +13,7 @@ BERT的主模型是BERT中最重要组件,BERT通过预训练(pre-training
主模型由三部分构成:**嵌入层****编码器****池化层** 主模型由三部分构成:**嵌入层****编码器****池化层**
如图: 如图:
![image](https://developer.hpccube.com/codes/modelzoo/bert4torch/-/raw/master/doc/model.png?inline=false)
![img](https://images.cnblogs.com/cnblogs_com/wangzb96/1789835/o_200618140451BERT%E4%B9%8B%E4%B8%BB%E6%A8%A1%E5%9E%8B.png)
其中 其中
...@@ -30,8 +29,7 @@ BERT模型是基于Transformer模型的,但是与原始的Transformer模型不 ...@@ -30,8 +29,7 @@ BERT模型是基于Transformer模型的,但是与原始的Transformer模型不
- 预训练(pre-training):先对大量语料进行无监督学习; - 预训练(pre-training):先对大量语料进行无监督学习;
- 微调(Fine-tuning):再对少量标注语料进行监督学习,提升模型针对特定任务的表现能力。 - 微调(Fine-tuning):再对少量标注语料进行监督学习,提升模型针对特定任务的表现能力。
![image](https://developer.hpccube.com/codes/modelzoo/bert4torch/-/raw/master/doc/architecture.png?inline=false)
![architecture](D:\Projects\1011\bert4torch\architecture.png)
## 环境配置 ## 环境配置
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment