Unverified Commit bb0b41aa authored by MPU王荣胜's avatar MPU王荣胜 Committed by GitHub
Browse files

Update README.md

parent 93994f98
...@@ -159,6 +159,7 @@ bash finetune_XrayGLM.sh ...@@ -159,6 +159,7 @@ bash finetune_XrayGLM.sh
1. 模型的能力更多来源于数据的支持,`OpenI-zh`作为微调数据集,其数据量足以支持研究,在更广泛的任务和性能表现上,我们认为**在大规模数据集上预训练并在高质量少量数据集上微调是一种可行的方案** 1. 模型的能力更多来源于数据的支持,`OpenI-zh`作为微调数据集,其数据量足以支持研究,在更广泛的任务和性能表现上,我们认为**在大规模数据集上预训练并在高质量少量数据集上微调是一种可行的方案**
2. 普遍意义的理解上,视觉多模态模型=视觉模型+语言模型。除了需要关注视觉模型信息与语言模型输出的搭配外,还需要**额外关注到语言模型的加强,在人机的对话中,尤其是医疗语言模型的问答上,除了专业的医疗问题回答,带有人文情怀的有温度的回答更应该是我们追寻的目标** 2. 普遍意义的理解上,视觉多模态模型=视觉模型+语言模型。除了需要关注视觉模型信息与语言模型输出的搭配外,还需要**额外关注到语言模型的加强,在人机的对话中,尤其是医疗语言模型的问答上,除了专业的医疗问题回答,带有人文情怀的有温度的回答更应该是我们追寻的目标**
3. **高精度的模型永远打不过大参数的模型**,如果在6B模型和13B模型上选择微调,请在资源充足情况下选择13B的大参数模型;
## 项目致谢 ## 项目致谢
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment