distilbert-imdb
这个模型是在imdb数据集上对
distilbert-base-uncased
进行微调后的版本(训练笔记本是
here
)。它在评估集上取得了以下结果:
模型描述
需要更多信息
预期用途和限制
需要更多信息
训练和评估数据
需要更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- learning_rate:5e-05
- train_batch_size:16
- eval_batch_size:16
- seed:42
- optimizer:Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type:linear
- num_epochs:1
训练结果
|
Training Loss
|
Epoch
|
Step
|
Validation Loss
|
Accuracy
|
|
0.2195
|
1.0
|
1563
|
0.1903
|
0.928
|
框架版本
- Transformers 4.15.0
- Pytorch 1.10.0+cu111
- Datasets 1.17.0
- Tokenizers 0.10.3