Commit efb46937 authored by Baber's avatar Baber
Browse files

Merge branch 'main' into convert_gen

# Conflicts:
#	lm_eval/__main__.py
#	lm_eval/evaluator.py
parents 7fbf899c ade01428
tag: evalita-mp_faq_tasks
include: _faq_template_yaml
task: evalita-mp_faq_prompt-5
task_alias: prompt-5
#doc_to_text: "Data la seguente domanda {{question}}, individua la risposta corretta tra le seguenti opzioni:\n A: {{A}}\nB: {{B}}\nC: {{C}}\nD: {{D}} Risposta:"
#doc_to_text: "La risposta alla domanda: '{{question}}' è:"
doc_to_text: "La risposta alla domanda: '{{question}}' è:"
doc_to_choice: "{{[A,B,C,D]}}"
doc_to_target: "{{ A if correct_answer == 'A' else B if correct_answer == 'B' else C if correct_answer == 'C' else D }}"
metric_list:
- metric: acc
aggregation: mean
higher_is_better: true
metadata:
version: 1
tag: evalita-mp_faq_tasks
include: _faq_template_yaml
task: evalita-mp_faq_prompt-6
task_alias: prompt-6
#doc_to_text: "Data la seguente domanda {{question}}, individua la risposta corretta tra le seguenti opzioni:\n A: {{A}}\nB: {{B}}\nC: {{C}}\nD: {{D}} Risposta:"
doc_to_text: "Devi risolvere un compito di risposte a domande. La risposta alla domanda: '{{question}}' è:"
doc_to_choice: "{{[A,B,C,D]}}"
doc_to_target: "{{ A if correct_answer == 'A' else B if correct_answer == 'B' else C if correct_answer == 'C' else D }}"
metric_list:
- metric: acc
aggregation: mean
higher_is_better: true
metadata:
version: 1
group: evalita-mp_faq
group_alias: faq
task:
- evalita-mp_faq_tasks # Each of the tasks has to have a matching tag in its own yaml file
aggregate_metric_list:
- metric: acc
weight_by_size: True
metadata:
version: 1
group: evalita-mp_gen
group_alias: Evalita-LLM - Generative
task:
- evalita-mp_sum_fp
- evalita-mp_ls
- evalita-mp_ner_group
- evalita-mp_re
aggregate_metric_list:
- metric: acc
weight_by_size: True
metadata:
version: 1
tag: evalita-mp_hs_tasks
include: _hs_template_yaml
task: evalita-mp_hs_prompt-1
task_alias: prompt-1
#doc_to_text: "Dato il seguente testo, rispondi Vero se il testo contiene hate speech, altrimenti rispondi Falso. Testo:\n{{full_text}} Risposta:"
doc_to_text: "C'è incitamento all'odio nel seguente tweet: '{{full_text}}'?"
metric_list:
- metric: f1
higher_is_better: true
average: macro
aggregation: f1
metadata:
version: 1.0
tag: evalita-mp_hs_tasks
include: _hs_template_yaml
task: evalita-mp_hs_prompt-2
task_alias: prompt-2
#doc_to_text: "Dato il seguente testo, rispondi Vero se il testo contiene hate speech, altrimenti rispondi Falso. Testo:\n{{full_text}} Risposta:"
doc_to_text: "Devi svolgere un compito di identificazione di incitamento all'odio. C'è incitamento all'odio nel seguente tweet: '{{full_text}}'?"
metric_list:
- metric: f1
higher_is_better: true
average: macro
aggregation: f1
metadata:
version: 1.0
tag: evalita-mp_hs_tasks
include: _hs_template_yaml
task: evalita-mp_hs_prompt-3
task_alias: prompt-3
doc_to_choice: ["B", "A"]
#doc_to_text: "Dato il seguente testo, rispondi Vero se il testo contiene hate speech, altrimenti rispondi Falso. Testo:\n{{full_text}} Risposta:"
doc_to_text: "C'è incitamento all'odio nel seguente tweet: '{{full_text}}'?\nA: Vero\nB: Falso\nRisposta:"
metric_list:
- metric: f1
higher_is_better: true
average: macro
aggregation: f1
metadata:
version: 1.0
tag: evalita-mp_hs_tasks
include: _hs_template_yaml
task: evalita-mp_hs_prompt-4
task_alias: prompt-4
doc_to_choice: ["B", "A"]
#doc_to_text: "Dato il seguente testo, rispondi Vero se il testo contiene hate speech, altrimenti rispondi Falso. Testo:\n{{full_text}} Risposta:"
doc_to_text: "Devi svolgere un compito di identificazione di incitamento all'odio. C'è incitamento all'odio nel seguente tweet: '{{full_text}}'?\nA: \nB: No\nRisposta:"
metric_list:
- metric: f1
higher_is_better: true
average: macro
aggregation: f1
metadata:
version: 1.0
tag: evalita-mp_hs_tasks
include: _hs_template_yaml
task: evalita-mp_hs_prompt-5
task_alias: prompt-5
doc_to_choice: ["non contiene incitamento all'odio", "contiene incitamento all'odio"]
#doc_to_text: "Dato il seguente testo, rispondi Vero se il testo contiene hate speech, altrimenti rispondi Falso. Testo:\n{{full_text}} Risposta:"
doc_to_text: "Il tweet: '{{full_text}}'"
metric_list:
- metric: f1
higher_is_better: true
average: macro
aggregation: f1
metadata:
version: 1.0
tag: evalita-mp_hs_tasks
include: _hs_template_yaml
task: evalita-mp_hs_prompt-6
task_alias: prompt-6
doc_to_choice: ["non contiene incitamento all'odio", "contiene incitamento all'odio"]
#doc_to_text: "Dato il seguente testo, rispondi Vero se il testo contiene hate speech, altrimenti rispondi Falso. Testo:\n{{full_text}} Risposta:"
doc_to_text: "Devi svolgere un compito di identificazione di incitamento all'odio. Il tweet: '{{full_text}}'"
metric_list:
- metric: f1
higher_is_better: true
average: macro
aggregation: f1
metadata:
version: 1.0
group: evalita-mp_hs
group_alias: hate-speech-detection
task:
- evalita-mp_hs_tasks
aggregate_metric_list:
- metric: f1
weight_by_size: True
metadata:
version: 1
tag: evalita-mp_ls_tasks
include: _ls_template_yaml
task: evalita-mp_ls_prompt-1
task_alias: prompt-1
#doc_to_text: "Sostituisci la parola tra i tag <head> con sinonimi appropriati per il contesto. Separa i sinonimi con virgole. Testo:\n{{context}}"
doc_to_text: "Trova 10 parole che possono sostituire la parola racchiusa tra i marcatori <head> nella seguente frase: '{{context}}', mantenendo lo stesso significato. Elenca i lemmi (forme base) di queste parole, separandoli con una virgola, ad esempio: lemma1, lemma2, lemma3, lemma4, lemma5. Non aggiungere commenti o altro testo. Risposta:"
tag: evalita-mp_ls_tasks
include: _ls_template_yaml
task: evalita-mp_ls_prompt-2
task_alias: prompt-2
#doc_to_text: "Sostituisci la parola tra i tag <head> con sinonimi appropriati per il contesto. Separa i sinonimi con virgole. Testo:\n{{context}}"
doc_to_text: "Devi risolvere un compito di sostituzione lessicale. Trova 10 parole che possono sostituire la parola racchiusa tra i marcatori <head> nella seguente frase: '{{context}}', mantenendo lo stesso significato. Elenca i lemmi (forme base) di queste parole, separandoli con una virgola, ad esempio: lemma1, lemma2, lemma3, lemma4, lemma5. Non aggiungere commenti o altro testo. Risposta:"
group: evalita-mp_ls
group_alias: lexical-substitution
task:
- evalita-mp_ls_tasks
aggregate_metric_list:
- metric: f1
weight_by_size: True
metadata:
version: 1
group: evalita-mp_mc
group_alias: Evalita-LLM - PPL-based
task:
- evalita-mp_te
- evalita-mp_sa
- evalita-mp_wic
- evalita-mp_hs
- evalita-mp_at
- evalita-mp_faq
aggregate_metric_list:
- metric: acc
weight_by_size: True
metadata:
version: 1
group: evalita-mp_ner_adg_group
group_alias: 'evalita NER: ADG'
task:
- evalita-mp_ner-v2_tasks_adg
aggregate_metric_list:
- metric: f1
weight_by_size: True
metadata:
version: 1
include: _ner_template_yaml
dataset_name: adg
test_split: reduced_test
fewshot_split: dev
task_alias: prompt-1
tag: evalita-mp_ner-v2_tasks_adg
task: evalita-mp_ner-v2_adg_p1
# English
#doc_to_text: "Given the following text, write the entity mentions in the text, indicating their type: [PER] (person), [LOC] (location), [ORG] (organization). Respond with the following format: Entity$Type. Separate each entity-type pair with the '%' character. Text: {{text}}"
# Italian
doc_to_text: "Dato il seguente testo, scrivi le menzioni di entità nel testo, indicandone il tipo: PER (persona), LOC (luogo), ORG (organizzazione). Rispondi con il seguente formato: Entità$Tipo%Entità$Tipo. Separa ogni coppia entità-tipo con il carattere '%' ad esempio: Entità_2$Tipo%Entità_2$Tipo. In caso non ci siano entita' rispondi '&&NOENT&&'.
Testo: {{text}}"
include: _ner_template_yaml
dataset_name: adg
test_split: reduced_test
fewshot_split: dev
task_alias: prompt-2
tag: evalita-mp_ner-v2_tasks_adg
task: evalita-mp_ner-v2_adg_p2
# English
#doc_to_text: "Given the following text, write the entity mentions in the text, indicating their type: [PER] (person), [LOC] (location), [ORG] (organization). Respond with the following format: Entity$Type. Separate each entity-type pair with the '%' character. Text: {{text}}"
# Italian
doc_to_text: "Dato il seguente testo, scrivi le menzioni di entità nel testo, indicandone il tipo: PER (persona), LOC (luogo), ORG (organizzazione). Rispondi con il seguente formato: Entità$Tipo%Entità$Tipo. Separa ogni coppia entità-tipo con il carattere '%' ad esempio: Entità_2$Tipo%Entità_2$Tipo. In caso non ci siano entita' rispondi '&&NOENT&&'.
Testo: {{text}}"
group: evalita-mp_ner_fic_group
group_alias: 'evalita NER: FIC'
task:
- evalita-mp_ner-v2_tasks_fic
aggregate_metric_list:
- metric: f1
weight_by_size: True
metadata:
version: 1
include: _ner_template_yaml
dataset_name: fic
test_split: reduced_test
test_split: dev
fewshot_split: dev
task_alias: prompt-1
tag: evalita-mp_ner-v2_tasks_fic
task: evalita-mp_ner-v2_fic_p1
#
doc_to_target: !function utils.filter_per_entities_from_lines
doc_to_target: entities
# English
#doc_to_text: "Given the following text, write the entity mentions in the text, indicating their type: [PER] (person), [LOC] (location), [ORG] (organization). Respond with the following format: Entity$Type. Separate each entity-type pair with the '%' character. Text: {{text}}"
# Italian
doc_to_text: "Dato il seguente testo, scrivi le menzioni di entità nel testo, indicandone il tipo: PER (persona), LOC (luogo), ORG (organizzazione). Rispondi con il seguente formato: Entità$Tipo%Entità$Tipo. Separa ogni coppia entità-tipo con il carattere '%' ad esempio: Entità_2$Tipo%Entità_2$Tipo. In caso non ci siano entita' rispondi '&&NOENT&&'. Testo: {{text}}"
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment