Unverified Commit a63e16de authored by ShuoZhang2003's avatar ShuoZhang2003 Committed by GitHub
Browse files

Create README_cn.md

parent 836112ee
<p align="left">
中文</a>&nbsp | &nbsp<a href="README.md">English</a>&nbsp
</p>
<br><br>
# Monkey: 图像分辨率和高质量文本描述对于大型多模态模型很重要
<br>
<p align="center">
<img src="images/logo_monkey.png" width="300"/>
<p>
<br>
<div align="center">
Zhang Li*, Biao Yang*, Qiang Liu, Zhiyin Ma, Shuo Zhang, Jingxu Yang, Yabo Sun, Yuliang Liu†, Xiang Bai†
</div>
<div align="center">
<strong>华中科技大学,金山</strong>
</div>
<p align="center">
<a href="https://arxiv.org/abs/2311.06607">论文</a>&nbsp&nbsp | &nbsp&nbsp<a href="http://27.18.241.29:7680/">演示</a>&nbsp&nbsp | &nbsp&nbsp<a href="http://27.18.241.29:7681/">对话演示</a>&nbsp&nbsp | &nbsp&nbsp<a href="http://huggingface.co/datasets/echo840/Detailed_Caption">详细描述</a>&nbsp&nbsp | &nbsp&nbsp<a href="http://huggingface.co/echo840/Monkey">模型权重</a>&nbsp&nbsp | <a href="https://www.wisemodel.cn/models/HUST-VLRLab/Monkey/">始智AI</a>&nbsp&nbsp
<!-- | &nbsp&nbsp<a href="Monkey Model">Monkey Models</a>&nbsp | &nbsp <a href="http://huggingface.co/echo840/Monkey">Tutorial</a> -->
</p>
-----
**Monkey** 引入了一种高效的训练方法,可以有效地将输入分辨率提高到 896 x 1344 ,同时不需要从开始进行预训练。为了弥合简单的文本描述和高输入分辨率之间的差距,Monkey 还提出了一种多级描述生成方法,该方法自动提供丰富的信息,可以指导模型学习场景和对象之间的关联。通过这两种设计的协同作用,Monkey 在多个基准测试中取得了优异的结果。与各种多模态大模型(包括 GPT4V)相比,Monkey 通过关注文本信息并捕获图像中的精细细节,在图像字幕方面表现出了良好的性能;高输入分辨率还可以使模型在具有密集文本的文档图像中展现出出色的性能。
## 新闻
* ```2023.11.25``` 🚀🚀🚀 Monkey [对话演示](http://27.18.241.29:7681/)发布。
* ```2023.11.06``` 🚀🚀🚀 Monkey [论文](https://arxiv.org/abs/2311.06607)发布。
## 贡献
- **上下文关联。** Monkey在回答问题时展现了更有效地推断目标之间关系的卓越能力,从而能够提供更全面和更有洞察力的结果。
- **支持高达 1344 x 896 的分辨率。** Monkey支持的分辨率的显着超越了 LMM 通常采用的标准 448 x 448 分辨率,增强了辨别和理解不明显或紧密聚集的对象和密集文本的能力。
- **性能提高** 在 16 个不同的数据集上进行了测试,结果表明 Monkey 在图像字幕、一般视觉问答、以文本为中心的视觉问答和面向文档的视觉问答等任务中表现出色。
## 环境
```python
conda create -n monkey python=3.9
conda activate monkey
git clone https://github.com/Yuliang-Liu/Monkey.git
cd ./Monkey
pip install -r requirements.txt
```
## 演示
[演示](http://27.18.241.29:7680/) 快速且易于使用。只需从桌面或手机上传图像,或直接拍照即可。
为了提供更好的交互体验,我们还推出了原始演示的升级版本[对话演示](http://27.18.241.29:7681/)
我们观察到对于一些随机图片Monkey可以取得比GPT4V更准确的结果。
<br>
<p align="center">
<img src="images/demo_gpt4v_compare4.png" width="900"/>
<p>
<br>
我们还提供原始演示的源代码和模型权重,允许您自定义某些参数以获得更独特的体验。具体操作如下:
1. 确保您配置好了[环境](#环境).
2. 您可以选择在线或离线方法运行demo.py:
- **离线:**
- 下载[模型权重](http://huggingface.co/echo840/Monkey).
- 修改`demo.py`文件里的`DEFAULT_CKPT_PATH="pathto/Monkey"`为您下载的模型权重的路径。
- 用下面的命令运行演示:
```
python demo.py
```
- **在线:**
- 使用下面的命令加载模型并运行演示:
```
python demo.py -c echo840/Monkey
```
为了生成更详细的字幕,我们提供了一些 prompt 示例,以便您进行更有趣的探索。您可以在`caption`函数中修改这两个变量来实现字幕任务的不同提示输入,如下所示:
```
query = "Generate the detailed caption in English. Answer:"
chat_query = "Generate the detailed caption in English. Answer:"
```
- Generate the detailed caption in English.
- Explain the visual content of the image in great detail.
- Analyze the image in a comprehensive and detailed manner.
- Describe the image in as much detail as possible in English without duplicating it.
- Describe the image in as much detail as possible in English, including as many elements from the image as possible, but without repetition.
## 数据集
我们开源了多级描述生成方法生成的数据。您可以在这里下载:[详细描述数据](https://huggingface.co/datasets/echo840/Detailed_Caption).
## 评估
我们在`evaluate_vqa.py`文件中提供了 14 个视觉问答(VQA)数据集的评估代码,以便于快速验证结果。具体操作如下:
1. 确保您配置好了[环境](#环境).
2. 修改`sys.path.append("pathto/Monkey")`为模型权重的路径。
3. 准备需要评估的数据集。
4. 运行评估代码。
以ESTVQA数据集的评测为例:
- 按照下面的格式准备数据集:
```
├── data
| ├── estvqa
| ├── test_image
| ├── {image_path0}
| ├── {image_path1}
| ·
| ·
| ├── estvqa.jsonl
```
- 注释文件`.jsonl`每行的格式示例:
```
{"image": "data/estvqa/test_image/011364.jpg", "question": "What is this store?", "answer": "pizzeria", "question_id": 0}
```
- 修改这个字典`ds_collections`
```
ds_collections = {
'estvqa_test': {
'test': 'data/estvqa/estvqa.jsonl',
'metric': 'anls',
'max_new_tokens': 100,
},
...
}
```
- 运行下面的命令:
```
bash eval/eval.sh 'EVAL_PTH' 'SAVE_NAME'
```
## 训练
我们还提供 Monkey 的模型定义和训练代码,您可以在上面进行探索。 通过执行`finetune_ds_debug.sh`来进行训练。
**注意:** 需要指定训练数据的路径,该路径应该是包含对话列表的 json 文件。
## 性能
<br>
<p align="center">
<img src="images/radar.png" width="800"/>
<p>
<br>
## 展示
Monkey 可以准确地描述图像中的细节。
<br>
<p align="center">
<img src="images/caption_1.png" width="700"/>
<p>
<br>
Monkey 在密集文本问答任务中表现特别好。 例如,在商品标签的密集文本中,Monkey 可以准确回答有关该商品的各种信息,与包括 GPT4V 在内的其他 LMMs 相比,Monkey的性能非常突出。
<br>
<p align="center">
<img src="images/dense_text_1.png" width="700"/>
<p>
<br>
<br>
<p align="center">
<img src="images/dense_text_2.png" width="700"/>
<p>
<br>
Monkey 在日常生活场景中也表现同样出色。 它可以完成各种问答和字幕任务,详细描述图像中的各种细节,甚至是不显眼的水印。
<br>
<p align="center">
<img src="images/qa_caption.png" width="700"/>
<p>
<br>
与现有的 LMMs(包括 GPT4V、Qwen-vl 等)进行定性比较,Moneky 显示出令人鼓舞的结果。 您可以尝试使用我们提供的演示。
<br>
<p align="center">
<img src="images/compare.png" width="800"/>
<p>
<br>
## Citing Monkey
如果您觉得我们的论文和代码对研究有帮助,请考虑star和引用:
```BibTeX
@article{li2023monkey,
title={Monkey: Image Resolution and Text Label Are Important Things for Large Multi-modal Models},
author={Li, Zhang and Yang, Biao and Liu, Qiang and Ma, Zhiyin and Zhang, Shuo and Yang, Jingxu and Sun, Yabo and Liu, Yuliang and Bai, Xiang},
journal={arXiv preprint arXiv:2311.06607},
year={2023}
}
```
## Acknowledgement
我们在 [Qwen-VL](https://github.com/QwenLM/Qwen-VL.git) 的基础上构建代码。感谢 Qwen 的作者提供的框架。
## Copyright
我们欢迎提出建议来帮助我们改进 Monkey。如有任何疑问,请联系刘禹良博士:ylliu@hust.edu.cn。如果您发现有趣的事,也请随时通过电子邮件与我们分享或提出问题。谢谢!
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment