模型:

NbAiLab/nb-bert-base

英文
  • 发布 1.1 (2021年3月11日)
  • 发布 1.0 (2021年1月13日)

NB-BERT-base

描述

NB-BERT-base 是一个基于挪威国家图书馆的大规模数字文集构建的通用 BERT-base 模型。

该模型基于与 BERT Cased multilingual model 相同的结构,并在过去200年的各种挪威文本(包括书面挪威语和新挪威语)上进行训练。

预期用途和限制

1.1 版本的模型是通用的,可根据具体用途进行微调。GitHub上可以找到一些微调设置,请参阅

训练数据

该模型是在各种文本上进行训练的。训练集的描述见

更多信息

有关该模型的更多信息,请参阅

https://github.com/NBAiLab/notram