Commit c6235b45 authored by chenzk's avatar chenzk
Browse files

Update url.md

parent 94fb3852
...@@ -60,8 +60,6 @@ pip install -r requirements.txt -i http://mirrors.aliyun.com/pypi/simple ...@@ -60,8 +60,6 @@ pip install -r requirements.txt -i http://mirrors.aliyun.com/pypi/simple
``` ```
## 数据集 ## 数据集
- [数据集快速下载地址] <http://113.200.138.88:18080/aidatasets/fingpt/fingpt-fiqa_qa> 网站提供12中不同任务的数据集用于训练
- [huggingface数据集下载地址] <https://huggingface.co/FinGPT> 网站提供12中不同任务的数据集用于训练 - [huggingface数据集下载地址] <https://huggingface.co/FinGPT> 网站提供12中不同任务的数据集用于训练
需要训练数据转换为必要的json格式,数据格式为: 需要训练数据转换为必要的json格式,数据格式为:
...@@ -110,7 +108,7 @@ bash single_dcu_train.sh ...@@ -110,7 +108,7 @@ bash single_dcu_train.sh
``` ```
## 推理 ## 推理
**注:[FinGPT预训练模型权重下载地址](https://www.modelscope.cn/models/Wangluochao/FinGPT_ChatGLM2-6B/files),根据实际情况修改模型路径。** **注:根据实际情况修改模型路径。**
``` ```
python inference_FinGPT.py python inference_FinGPT.py
``` ```
...@@ -138,20 +136,10 @@ python inference_FinGPT.py ...@@ -138,20 +136,10 @@ python inference_FinGPT.py
`金融,教育,政府,科研` `金融,教育,政府,科研`
## 预训练权重 ## 预训练权重
- [modelscope预训练模型下载地址] <https://www.modelscope.cn/models/Wangluochao/FinGPT_ChatGLM2-6B/files> 可下载带有lora后缀的预训练权重,使用本人编写的**merge_model.py**文件进行模型合并。
可下载带有lora后缀的预训练权重,使用本人编写的**merge_model.py**文件进行模型合并。
- [huggingface预训练模型及数据集下载地址](https://huggingface.co/FinGPT) - [huggingface预训练模型及数据集下载地址](https://huggingface.co/FinGPT)
- [FinGPT_ChatGLM2-6B预训练模型下载地址](https://www.modelscope.cn/models/Wangluochao/FinGPT_ChatGLM2-6B/files)
预训练权重快速下载中心:[SCNet AIModels](http://113.200.138.88:18080/aimodels)
项目中的预训练权重可从快速下载通道下载: [FinGPT_ChatGLM2-6B](http://113.200.138.88:18080/aimodels/fingpt_glm)
## 源码仓库及问题反馈 ## 源码仓库及问题反馈
- https://developer.hpccube.com/codes/modelzoo/fingpt-glm_pytorch - https://developer.hpccube.com/codes/modelzoo/fingpt-glm_pytorch
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment