模型:

vinai/bartpho-word

英文

BARTpho:越南语的预训练序列到序列模型

BARTpho有两个版本,BARTpho-syllable和BARTpho-word,它们是首个公开的针对越南语的大规模单语序列到序列模型的预训练模型。BARTpho采用了序列到序列去噪模型 BART 的"large"架构和预训练方案,因此特别适用于生成型自然语言处理任务。在越南语文本摘要的下游任务上的实验证明,BARTpho在自动评估和人工评估中均优于强基线 mBART ,并改善了现有技术水平。

BARTpho的总体架构和实验结果可以在我们的 paper 中找到:

@article{bartpho,
title     = {{BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnamese}},
author    = {Nguyen Luong Tran and Duong Minh Le and Dat Quoc Nguyen},
journal   = {arXiv preprint},
volume    = {arXiv:2109.09701},
year      = {2021}
}

当使用BARTpho帮助生成发表结果或并入其他软件时,请引用我们的论文。

如需更多信息或有其他请求,请访问 BARTpho's homepage