模型:
optimum/distilbert-base-uncased-mnli
这是在 Multi-Genre Natural Language Inference (MNLI)数据集上经过 uncased DistilBERT model fine-tuning 的用于零-shot分类任务的模型。该模型对大小写不敏感,即不区分 "english" 和 "English"。
训练是在 p3.2xlarge AWS EC2 实例(1 NVIDIA Tesla V100 GPU)上完成的,采用以下超参数:
$ run_glue.py \
--model_name_or_path distilbert-base-uncased \
--task_name mnli \
--do_train \
--do_eval \
--max_seq_length 128 \
--per_device_train_batch_size 16 \
--learning_rate 2e-5 \
--num_train_epochs 5 \
--output_dir /tmp/distilbert-base-uncased_mnli/
| Task | MNLI | MNLI-mm |
|---|---|---|
| 82.0 | 82.0 |