Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
laibao
llava_vllm
Commits
214595f4
Commit
214595f4
authored
Oct 15, 2024
by
laibao
Browse files
No commit message
No commit message
parent
a4771668
Changes
1
Show whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
5 additions
and
4 deletions
+5
-4
README.md
README.md
+5
-4
No files found.
README.md
View file @
214595f4
...
@@ -25,11 +25,12 @@ LLaVA 的最新进展包括支持动态高分辨率处理,以及多语言的
...
@@ -25,11 +25,12 @@ LLaVA 的最新进展包括支持动态高分辨率处理,以及多语言的
## 算法原理
## 算法原理
和Qwen一样,Qwen1.5仍然是一个decoder-only的transformer模型,使用SwiGLU激活函数、RoPE、多头注意力机制等。
LLaVA(Large Language and Vision Assistant)的算法原理主要包括以下几个方面:
<div
align=
center
>
*
**视觉指令调优**
:通过使用GPT-4生成的多模态语言-图像指令数据,对模型进行调优,以提高其在新任务上的零样本能力。
<img
src=
"./doc/qwen1.5.png"
/>
*
**大规模多模态模型**
:将CLIP的视觉编码器与Vicuna的语言解码器连接,形成一个端到端训练的多模态模型,用于通用的视觉和语言理解。
</div>
*
**数据生成**
:利用GPT-4生成多模态指令跟随数据,包括对图像内容的详细描述和复杂推理问题。
*
**评估基准**
:构建了两个评估基准,包含多样且具有挑战性的应用任务,以测试模型的多模态对话能力。
## 环境配置
## 环境配置
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment