subjective_evaluation.md 4.29 KB
Newer Older
1
2
3
4
5
6
# 主观评测指引

## 介绍

主观评测旨在评估模型在符合人类偏好的能力上的表现。这种评估的黄金准则是人类喜好,但标注成本很高。

7
为了探究模型的主观能力,我们采用了JudgeLLM作为人类评估者的替代品([LLM-as-a-Judge](https://arxiv.org/abs/2306.05685))。
8

9
流行的评估方法主要有: 1.将模型的回答进行两两比较,以计算其胜率, 2.针对单模型的回答进行打分([Chatbot Arena](https://chat.lmsys.org/))。
10

11
我们基于以上方法支持了JudgeLLM用于模型的主观能力评估(目前opencompass仓库里支持的所有模型都可以直接作为JudgeLLM进行调用,此外一些专用的JudgeLLM我们也在计划支持中)。
12
13
14

## 数据准备

15
对于两回答比较和单回答打分两种方法,我们各提供了一个demo测试集如下:
16

17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
```python
###COREV2
[
    {
        "question": "如果我在空中垂直抛球,球最初向哪个方向行进?",
        "capability": "知识-社会常识",
        "others": {
            "question": "如果我在空中垂直抛球,球最初向哪个方向行进?",
            "evaluating_guidance": "",
            "reference_answer": "上"
        }
    },...]

###CreationV0.1
[
    {
        "question": "请你扮演一个邮件管家,我让你给谁发送什么主题的邮件,你就帮我扩充好邮件正文,并打印在聊天框里。你需要根据我提供的邮件收件人以及邮件主题,来斟酌用词,并使用合适的敬语。现在请给导师发送邮件,询问他是否可以下周三下午15:00进行科研同步会,大约200字。",
        "capability": "邮件通知",
        "others": ""
    },
```
38

39
如果要准备自己的数据集,请按照以下字段进行提供,并整理为一个json文件:
40
41

- 'question':问题描述
42
43
44
45
- 'capability':题目所属的能力维度
- 'others':其他可能需要对题目进行特殊处理的项目

以上三个字段是必要的,用户也可以添加其他字段,如果需要对每个问题的prompt进行单独处理,可以在'others'字段中进行一些额外设置,并在Dataset类中添加相应的字段。
46
47
48
49
50
51

## 评测配置

具体流程包括:

1. 模型回答的推理
52
2. JudgeLLM评估
53
54
3. 生成评测报告

55
56
57
### 两回答比较配置

对于两回答比较,更详细的config setting请参考 `config/subjective_compare.py`,下面我们提供了部分简略版的注释,方便用户理解配置文件的含义。
58
59
60
61

```python
from mmengine.config import read_base
with read_base():
62
    from .datasets.subjective_cmp.subjective_corev2 import subjective_datasets
63

64
from opencompass.summarizers import Corev2Summarizer
65

66
67
68
datasets = [*subjective_datasets] #指定需要评测的数据集
models = [...] #指定需要评测的模型
judge_model = [...] #指定JudgeLLM
69
70
71
72

eval = dict(
    partitioner=dict(
        type=SubjectiveNaivePartitioner,
73
74
75
76
        mode='m2n',  #选择评测模式,在m2n模式下,需要指定base_models和compare_models,将会对base_models和compare_models生成对应的两两pair(去重且不会与自身进行比较)
        base_models = [...],
        compare_models = [...]
    ))
77

78
work_dir = 'Your work dir' #指定工作目录,在此工作目录下,若使用--reuse参数启动评测,将自动复用该目录下已有的所有结果
79

80
81
82
83
summarizer = dict(
    type=Corev2Summarizer, #自定义数据集Summarizer
    match_method='smart' #自定义答案提取方式
)
84
85
```

86
87
88
89
此外,在数据集的配置config中,还可以选择两回答比较时的回答顺序,请参考`config/subjective_compare.py`,
`infer_order`设置为`random`时,将对两模型的回复顺序进行随机打乱,
`infer_order`设置为`double`时,将把两模型的回复按两种先后顺序进行判断。

90
### 单回答打分配置
91

92
对于单回答打分,更详细的config setting请参考 `config/subjective_score.py`,该config的大部分都与两回答比较的config相同,只需要修改评测模式即可,将评测模式设置为`singlescore`
93

94
## 启动评测
95

96
97
```shell
python run.py configs/subjective_score.py -r
98
99
```

100
`-r` 参数支持复用模型推理和评估结果。
101

102
## 评测报告
103

104
105
JudgeLLM的评测回复会保存在 `output/.../results/timestamp/xxmodel/xxdataset/.json`
评测报告则会输出到 `output/.../summary/timestamp/report.csv`