英文

ChatGPT Prompt Generator v12

此模型是 ChatGPT 提示生成器数据集上 BART-large 的经过微调的版本。它在评估集上达到以下结果:

  • 训练损失: 2.4800
  • 验证损失: 2.7320
  • 迭代次数: 4

预期用途与限制

您可以使用此模型生成 ChatGPT 的个人资料。只需输入如下的个人信息:

from transformers import BartForConditionalGeneration, BartTokenizer

example_english_phrase = "photographer"
batch = tokenizer(example_english_phrase, return_tensors="pt")
generated_ids = model.generate(batch["input_ids"], max_new_tokens=150)
output = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)

训练过程

训练超参数

训练时使用了以下超参数:

  • 优化器:{'name': 'AdamWeightDecay', 'learning_rate': 2e-05, 'decay': 0.0, 'beta_1': 0.9, 'beta_2': 0.999, 'epsilon': 1e-07, 'amsgrad': False, 'weight_decay_rate': 0.01}
  • 训练精度:float32

训练结果

Train Loss Validation Loss Epoch
5.3808 3.3133 0
3.2642 3.0104 1
2.8886 2.8600 2
2.6594 2.7949 3
2.4800 2.7320 4

框架版本

  • Transformers 4.26.1
  • TensorFlow 2.11.0
  • Datasets 2.10.1
  • Tokenizers 0.13.2