# Bidirectional Encoder Representation from Transformers(BERT) ## 模型介绍 BERT的全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。 ## 模型结构 以往的预训练模型的结构会受到单向语言模型(从左到右或者从右到左)的限制,因而也限制了模型的表征能力,使其只能获取单方向的上下文信息。而BERT利用MLM进行预训练并且采用深层的双向Transformer组件(单向的Transformer一般被称为Transformer decoder,其每一个token(符号)只会attend到目前往左的token。而双向的Transformer则被称为Transformer encoder,其每一个token会attend到所有的token)来构建整个模型,因此最终生成能融合左右上下文信息的深层双向语言表征。 ## 推理 ### 环境配置 在光源可拉取推理的docker镜像,BERT模型推理的镜像如下: ```python docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:ort_dcu_1.14.0_migraphx2.5.2_dtk22.10.1 ``` 在光合开发者社区可下载MIGraphX安装包,python依赖安装: ```python pip install -r requirement.txt ``` 本次采用经典的Bert模型完成问题回答任务,模型和分词文件下载链接:https://pan.baidu.com/s/1yc30IzM4ocOpTpfFuUMR0w, 提取码:8f1a, 将bertsquad-10.onnx文件和uncased_L-12_H-768_A-12分词文件保存在model文件夹下。 ### 运行示例 我们提供了基于MIGraphX的推理脚本,版本依赖: - Migraphx(DCU版本) >= 2.5.2 bert.py是基于Migraphx的推理脚本,使用需安装好MIGraphX。使用方法: ```python # 执行推理 python bert.py ``` 推理结果为: ## 历史版本 https://developer.hpccube.com/codes/modelzoo/bert_migraphx ## 参考资料 https://github.com/ROCmSoftwarePlatform/AMDMIGraphX/tree/develop/examples/nlp/python_bert_squad