模型:
Geotrend/bert-base-th-cased
我们正在共享处理自定义语言数量的较小版本的 bert-base-multilingual-cased 。
与 distilbert-base-multilingual-cased 不同,我们的版本提供与原始模型完全相同的表示,从而保留了原始准确性。
有关更多信息,请访问我们的论文: Load What You Need: Smaller Versions of Multilingual BERT 。
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("Geotrend/bert-base-th-cased")
model = AutoModel.from_pretrained("Geotrend/bert-base-th-cased")
要生成其他较小的多语种转换器版本,请访问 our Github repo 。
@inproceedings{smallermbert,
title={Load What You Need: Smaller Versions of Mutlilingual BERT},
author={Abdaoui, Amine and Pradel, Camille and Sigel, Grégoire},
booktitle={SustaiNLP / EMNLP},
year={2020}
}
有任何问题、反馈或请求,请联系amine@geotrend.fr。