模型:

Qiliang/bart-large-cnn-samsum-ChatGPT_v3

英文

bart-large-cnn-samsum-ChatGPT_v3

这个模型是在未知数据集上对 philschmid/bart-large-cnn-samsum 进行微调的版本。

模型描述

需要更多信息。

使用目的与限制

需要更多信息。

训练和评估数据

需要更多信息。

训练过程

训练超参数

在训练过程中使用了以下超参数:

  • 学习率:2e-05
  • 训练批大小: 4
  • 评估批大小: 4
  • 种子: 42
  • 优化器: Adam, betas=(0.9,0.999), epsilon=1e-08
  • 学习率调度器类型: linear
  • 训练轮数: 3
  • 混合精度训练: Native AMP

框架版本

  • Transformers 4.24.0
  • Pytorch 1.12.1
  • Datasets 2.6.1
  • Tokenizers 0.13.2