Commit 58641af0 authored by zhougaofeng's avatar zhougaofeng
Browse files

Update README.md

parent 102f54dc
......@@ -9,7 +9,7 @@
## 模型架构
MetaMathMetaMathQA数据集上对LLama-2模型进行微调LLama-2基于Transformer decoder-only架构,具有自注意力机制、位置编码、多头注意力、前馈神经网络、残差连接和层归一化等。它通过预训练和微调在大规模语料库上学习语言模式和知识,并在特定任务上现出
MetaMath对LLama-2模型进行了MetaMathQA数据集上微调LLama-2采用基于Transformer的解码器架构,集成了自注意力、位置编码、多头注意力机制、前馈网络、残差连接和层归一化等技术。该模型通过在大规模语料上的预训练和微调,有效学习语言模式和知识,并在特定任务上现出卓越的性能
## 算法原理
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment