t5-end2end-question-generation
 
    这个模型是在SQuAD数据集上对t5模型的1,233,321个参数进行微调,以便根据上下文生成问题。
 
    👉如果您想学习如何对t5模型进行微调以执行相同的任务,可以按照这里的说明进行操作。
 
    例如:
    它在评估集上实现了如下结果:
    
    使用模型
    点击此处
    训练超参数
    在训练过程中使用了以下超参数:
    
        - learning_rate: 0.0001
 
        - train_batch_size: 4
 
        - eval_batch_size: 4
 
        - seed: 42
 
        - gradient_accumulation_steps: 16
 
        - total_train_batch_size: 64
 
        - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
 
        - lr_scheduler_type: linear
 
        - num_epochs: 7
 
    
    训练结果
    通过训练,取得了如下结果:
    框架版本
    
        - Transformers 4.10.3
 
        - Pytorch 1.9.0+cu102
 
        - Datasets 1.12.1
 
        - Tokenizers 0.10.3