# 基于TF2框架的Bert训练 ## 模型介绍 ``` BERT的全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。 ``` ## 模型结构 ``` 以往的预训练模型的结构会受到单向语言模型(从左到右或者从右到左)的限制,因而也限制了模型的表征能力,使其只能获取单方向的上下文信息。而BERT利用MLM进行预训练并且采用深层的双向Transformer组件(单向的Transformer一般被称为Transformer decoder,其每一个token(符号)只会attend到目前往左的token。而双向的Transformer则被称为Transformer encoder,其每一个token会attend到所有的token)来构建整个模型,因此最终生成能融合左右上下文信息的深层双向语言表征。 ``` ## 模型下载 [bert-base-uncace(MNLI分类时使用此模型)](https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-12_H-768_A-12.zip) [bert-large-uncase(squad问答使用此模型)](https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-24_H-1024_A-16.zip) ## 数据集准备 MNLI分类数据集:[MNLI](https://dl.fbaipublicfiles.com/glue/data/MNLI.zip) squad问答数据集:[train-v1.1.json](https://rajpurkar.github.io/SQuAD-explorer/dataset/train-v1.1.json)、[dev-v1.1.json](https://rajpurkar.github.io/SQuAD-explorer/dataset/dev-v1.1.json) squad-v1.1 eval脚本:[evaluate-v1.1.py](https://github.com/allenai/bi-att-flow/blob/master/squad/evaluate-v1.1.py) ## 环境配置 推荐使用docker方式运行,提供[光源](https://www.sourcefind.cn/#/main-page)镜像,可以dockerpull拉取 ``` docker pull image.sourcefind.cn:5000/dcu/admin/base/tensorflow:2.7.0-centos7.6-dtk-22.10.1-py37-latest ``` ## 安装依赖 安装过程可能顶掉DCU版本的tensorflow,可以到[开发者社区](https://cancon.hpccube.com:65024/4/main/tensorflow/dtk22.10)下载DCU版本对应包 ``` pip install requirements.txt ``` # MNLI分类测试 ## 数据转化 TF2.0版本读取数据需要转化为tf_record格式 ``` python create_finetuning_data.py \ --input_data_dir=/public/home/hepj/data/MNLI \ --vocab_file=/public/home/hepj/model_source/uncased_L-12_H-768_A-12/vocab.txt \ --train_data_output_path=/public/home/hepj/MNLI/train.tf_record \ --eval_data_output_path=/public/home/hepj/MNLI/eval.tf_record \ --meta_data_file_path=/public/home/hepj/MNLI/meta_data \ --fine_tuning_task_type=classification --max_seq_length=32 \ --classification_task_name=MNLI #参数说明 --input_data_dir 训练数据路径 --vocab_file vocab文件路径 --train_data_output_path 训练数据保存路径 --eval_data_output_path 验证数据保存路径 --fine_tuning_task_type fine-tune任务类型 --do_lower_case 是否进行lower --max_seq_length 最大句子长度 --classification_task_name 分类任务名 ``` ## 模型转化 TF2.7.2与TF1.15.0模型存储、读取格式不同,官网给出的Bert一般是基于TF1.0的模型需要进行模型转化 ``` python3 tf2_encoder_checkpoint_converter.py \ --bert_config_file /public/home/hepj/model_source/uncased_L-12_H-768_A-12/bert_config.json \ --checkpoint_to_convert /public/home/hepj/model_source/uncased_L-12_H-768_A-12/bert_model.ckpt \ --converted_checkpoint_path /public/home/hepj/model_source/bert-base-TF2/bert_model.ckpt #参数说明 --bert_config_file bert模型config文件 --checkpoint_to_convert 需要转换的模型路径 --converted_checkpoint_path 转换后模型路径 将转换完后的bert_model.ckpt-1.data-00000-of-00001 改为bert_model.ckpt.data-00000-of-00001 bert_model.ckpt-1.index改为 bert_model.ckpt.index ``` ## 单卡运行 ``` sh bert_class.sh #参数说明 --mode 模型模式train_and_eval、export_only、predict --input_meta_data_path 用于训练和验证的元数据 --train_data_path 训练数据路径 --eval_data_path 验证数据路径 --bert_config_file bert模型config文件 --init_checkpoint 初始化模型路径 --train_batch_size 训练批大小 --eval_batch_size 验证批大小 --steps_per_loop 打印log间隔 --learning_rate 学习率 --num_train_epochs 训练epoch数 --model_dir 模型保存文件夹 --distribution_strategy 分布式策略 --num_gpus 使用gpu数量 ``` ## 多卡运行 ``` sh bert_class_gpus.sh ``` # SQUAD1.1问答测试 ## 数据转化 TF2.0版本读取数据需要转化为tf_record格式 ``` python3 create_finetuning_data.py \ --squad_data_file=/public/home/hepj/model/model_source/sq1.1/train-v1.1.json \ --vocab_file=/public/home/hepj/model_source/bert-large-uncased-TF2/uncased_L-24_H-1024_A-16/vocab.txt \ --train_data_output_path=/public/home/hepj/model/tf2.7.0_Bert/squad1.1/train_new.tf_record \ --meta_data_file_path=/public/home/hepj/model/tf2.7.0_Bert/squad1.1/meta_data \ --eval_data_output_path=/public/home/hepj/model/tf2.7.0_Bert/squad1.1/eval_new.tf_record \ --fine_tuning_task_type=squad \ --do_lower_case=Flase \ --max_seq_length=384 #参数说明 --squad_data_file 训练文件路径 --vocab_file vocab文件路径 --train_data_output_path 训练数据保存路径 --eval_data_output_path 验证数据保存路径 --fine_tuning_task_type fine-tune任务类型 --do_lower_case 是否进行lower --max_seq_length 最大句子长度 ``` ## 模型转化 ``` python3 tf2_encoder_checkpoint_converter.py \ --bert_config_file /public/home/hepj/model/model_source/uncased_L-24_H-1024_A-16/bert_config.json \ --checkpoint_to_convert /public/home/hepj/model/model_sourceuncased_L-24_H-1024_A-16/bert_model.ckpt \ --converted_checkpoint_path /public/home/hepj/model_source/bert-large-TF2/bert_model.ckpt #参数说明 --bert_config_file bert模型config文件 --checkpoint_to_convert 需要转换的模型路径 --converted_checkpoint_path 转换后模型路径 将转换完后的bert_model.ckpt-1.data-00000-of-00001 改为bert_model.ckpt.data-00000-of-00001 bert_model.ckpt-1.index改为 bert_model.ckpt.index ``` ## 单卡运行 ``` sh bert_squad.sh #参数说明 --mode 模型模式train_and_eval、export_only、predict --vocab_file vocab文件路径 --input_meta_data_path 用于训练和验证的元数据 --train_data_path 训练数据路径 --eval_data_path 验证数据路径 --bert_config_file bert模型config文件 --init_checkpoint 初始化模型路径 --train_batch_size 总训练批大小 --predict_file 预测文件路径 --eval_batch_size 验证批大小 --steps_per_loop 打印log间隔 --learning_rate 学习率 --num_train_epochs 训练epoch数 --model_dir 模型保存文件夹 --distribution_strategy 分布式策略 --num_gpus 使用gpu数量 ``` ## 多卡运行 ``` sh bert_squad_gpus.sh ``` ## 模型精度 待完善... # 源码仓库及问题反馈 https://developer.hpccube.com/codes/modelzoo/bert-tf2 # 参考 https://github.com/tensorflow/models/tree/v2.3.0/official/nlp