模型:

microsoft/BiomedNLP-PubMedBERT-large-uncased-abstract

英文

PubMedBERT-large (仅限摘要)

预训练大型神经语言模型,如BERT,已经在许多自然语言处理(NLP)任务中取得了显著的进展。然而,大多数预训练工作侧重于一般领域的语料库,如新闻稿和网络。一个普遍的假设是,即使是特定领域的预训练也可以通过从一般领域语言模型开始受益。 Recent work 表明,在具有丰富无标签文本的领域,如生物医学,从头开始预训练语言模型可以获得比继续预训练一般领域语言模型更大的收益。 Followup work 探索了更大的模型规模及其对BLURB基准性能的影响。

此PubMedBERT是使用 PubMed 中的摘要从头预训练的。

引用

如果您在研究中发现PubMedBERT对您有用,请引用以下论文:

@misc{https://doi.org/10.48550/arxiv.2112.07869,
  doi = {10.48550/ARXIV.2112.07869},
  url = {https://arxiv.org/abs/2112.07869},
  author = {Tinn, Robert and Cheng, Hao and Gu, Yu and Usuyama, Naoto and Liu, Xiaodong and Naumann, Tristan and Gao, Jianfeng and Poon, Hoifung},
  keywords = {Computation and Language (cs.CL), Machine Learning (cs.LG), FOS: Computer and information sciences, FOS: Computer and information sciences},
  title = {Fine-Tuning Large Neural Language Models for Biomedical Natural Language Processing},
  publisher = {arXiv},
  year = {2021},
  copyright = {arXiv.org perpetual, non-exclusive license}
}