Unverified Commit 3b86122f authored by techlead-krischang's avatar techlead-krischang Committed by GitHub
Browse files

Update README-ZH.md

parent c5be1d60
......@@ -5,15 +5,15 @@
中医大语言模型,灵感来自中国古代杰出医家张仲景的智慧。 该模型旨在阐明中医博大精深之知识,传承古代智慧与现代技术创新,最终为医学领域提供可信赖和专业的工具。然而,目前所有产生的结果仅供参考,应由经验丰富的专业人员提供诊断和治疗结果和建议。
<p align="center"> <img src="https://raw.githubusercontent.com/pariskang/CMLM-ZhongJing/main/logo.png" alt="logo" title="logo" width="50%"> </p>
<p align="center"><b>Fig 1. A logo of CMLM-ZhongJing generated by Bing’s drawing output combined with human creative prompts.</b></p>
<p align="center"><b>图1. 由Bing画图输出与人类提示相结合生成的CMLM-ZhongJing的Logo。</b></p>
## 1.指令数据构建:
目前大多如Alpaca、Belle等工作基于self-instruct思路。self-instruct思路可以很好的调用大语言模型的知识,生成多样和具有创造性的指令,在常规问答场景可以快速构造海量指令实现指令调优。但在一些专业知识容错率较低的领域,比如医疗和法律场景,幻觉输出会导致噪声指令数据从而影响模型的准确性。典型的情况是比如不当的诊断及处方建议甚至影响患者生命,事实性错误的法律条文和法理的引用会造成权益人的败诉。因此,如何快速调用OpenAI API且不牺牲指令数据的专业性成为指令数据构造及标注等场景的重要研究方向。以下将简述我们的初步实验探索。
<p align="center"> <img src="https://raw.githubusercontent.com/pariskang/CMLM-ZhongJing/main/logo_image/Strategy.jpeg" alt="strategy" title="strategy" width="100%"> </p>
<p align="center"><b>Fig 2. A Multi-task Therapeutic Behavior Decomposition Instruction Construction Strategy in the Loop of Human Physicians.</b></p>
<p align="center"><b>图2. 人类医生参与的多任务治疗行为分解指令构建策略。</b></p>
#### 1.1多任务诊疗行为分解instruction构建策略
#### 1.1多任务诊疗行为分解instruction指令构建策略
人类在记忆和理解时需要构建各种情景和故事,以隐式编码知识信息。记忆的清晰程度取决于学习的持续过程和丰富程度。穿插学习、间隔练习和多样化学习可以提升知识的巩固程度,由此形成深刻的领域知识理解能力。我们的思路是借鉴人类记忆知识的过程,采用专业表格,借助大语言模型的语言表征能力,严格设置特定的prompt模板,使得模型基于中医妇科方药表格数据生成包括患者治疗故事、诊断分析、诊断治疗预期结果、处方功用、互动故事、患者治疗故事、叙事医学、舌脉象、诊疗方案制定、批判性思维、随访、处方、药物用量、个例研究、真实世界问题、病因病机等15个场景,以促进模型对中医方药数据及诊断思维逻辑的推理能力。
```
{
......@@ -33,7 +33,7 @@
}
```
| File Name | Total Tokens Quantity | Input Quantity | Instruction Quantity | Output Quantity |
| 文件名 | 总Tokens数量 | 输入数量 | 指令数量 | 输出数量 |
| --- | --- | --- | --- | --- |
| patient_therapeutic_story_data1.json | 62722 | 208 | 208 | 208 |
| diagnostic_analysis.json | 1492105 | 6592 | 6592 | 6592 |
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment