Commit c4d92a1a authored by liangjing's avatar liangjing
Browse files

Update README.md

parent c92d5f63
...@@ -17,9 +17,9 @@ BERT-large包含24个Transformer编码器,每个编码器有1024个隐藏层 ...@@ -17,9 +17,9 @@ BERT-large包含24个Transformer编码器,每个编码器有1024个隐藏层
## MLPerf代码参考版本 ## MLPerf代码参考版本
版本:v1.0 版本:v2.1
原始代码位置:https://github.com/mlcommons/training_results_v1.0/tree/master/NVIDIA/benchmarks/bert/implementations/pytorch 原始代码位置:https://github.com/mlcommons/training_results_v2.1/tree/main/Baidu/benchmarks/bert/implementations/8_node_64_A100_PaddlePaddle
## 数据集 ## 数据集
模型训练的数据集来自Wikipedia 2020/01/01,即一种常用的自然语言处理数据集,它包含了维基百科上的文章和对应的摘要(即第一段内容),可用于各种文本相关的任务,例如文本分类、文本摘要、命名实体识别等。 模型训练的数据集来自Wikipedia 2020/01/01,即一种常用的自然语言处理数据集,它包含了维基百科上的文章和对应的摘要(即第一段内容),可用于各种文本相关的任务,例如文本分类、文本摘要、命名实体识别等。
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment