模型:
lmqg/mt5-base-jaquad-qag
这个模型是基于 google/mt5-base 用于 lmqg/qag_jaquad (数据集名称:default)上的问答对生成任务进行微调的版本,通过 lmqg 进行微调。
from lmqg import TransformersQG
# initialize model
model = TransformersQG(language="ja", model="lmqg/mt5-base-jaquad-qag")
# model prediction
question_answer_pairs = model.generate_qa("フェルメールの作品では、17世紀のオランダの画家、ヨハネス・フェルメールの作品について記述する。フェルメールの作品は、疑問作も含め30数点しか現存しない。現存作品はすべて油彩画で、版画、下絵、素描などは残っていない。")
from transformers import pipeline
pipe = pipeline("text2text-generation", "lmqg/mt5-base-jaquad-qag")
output = pipe("ゾフィーは貴族出身ではあったが王族出身ではなく、ハプスブルク家の皇位継承者であるフランツ・フェルディナントとの結婚は貴賤結婚となった。皇帝フランツ・ヨーゼフは、2人の間に生まれた子孫が皇位を継がないことを条件として結婚を承認していた。視察が予定されている6月28日は2人の14回目の結婚記念日であった。")
| Score | Type | Dataset | |
|---|---|---|---|
| QAAlignedF1Score (BERTScore) | 74.52 | default | 12313321 |
| QAAlignedF1Score (MoverScore) | 52.08 | default | 12313321 |
| QAAlignedPrecision (BERTScore) | 74.36 | default | 12313321 |
| QAAlignedPrecision (MoverScore) | 52.01 | default | 12313321 |
| QAAlignedRecall (BERTScore) | 74.71 | default | 12313321 |
| QAAlignedRecall (MoverScore) | 52.16 | default | 12313321 |
在微调过程中使用了以下超参数:
可在 fine-tuning config file 找到完整的配置信息。
@inproceedings{ushio-etal-2022-generative,
title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
author = "Ushio, Asahi and
Alva-Manchego, Fernando and
Camacho-Collados, Jose",
booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2022",
address = "Abu Dhabi, U.A.E.",
publisher = "Association for Computational Linguistics",
}