模型:
HooshvareLab/bert-fa-base-uncased-sentiment-digikala
波斯语理解的基于Transformer的模型
我们在新的波斯语语料库上重新构建了词汇表,并对ParsBERT v1.1进行了微调,以便为在其他领域使用ParsBERT提供一些功能!有关先前和当前模型的最新信息,请关注 ParsBERT repo。
它旨在基于情感偏见对文本(例如评论)进行分类。我们对此任务进行了三个著名数据集的测试:Digikala用户评论、SnappFood用户评论以及DeepSentiPers的二进制形式和多形式类型。
Digikala用户评论由 Open Data Mining Program (ODMP) 提供。该数据集包含62,321条用户评论,分为三类:
| Label | # |
|---|---|
| no_idea | 10394 |
| not_recommended | 15885 |
| recommended | 36042 |
下载 您可以从 here 下载数据集
下表总结了ParsBERT与其他模型和架构相比所获得的F1分数。
| Dataset | ParsBERT v2 | ParsBERT v1 | mBERT | DeepSentiPers |
|---|---|---|---|---|
| Digikala User Comments | 81.72 | 81.74* | 80.74 | - |
| Task | Notebook |
|---|---|
| Sentiment Analysis | 1234321
请在出版物中引用如下:
@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}
在 ParsBERT Issues repo上发布Github问题。