模型:
LTP/tiny
Language | version |
---|---|
Python | 1238321 1239321 12310321|
Rust | 12311321
LTP(Language Technology Platform) 提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。
如果您在工作中使用了 LTP,您可以引用这篇论文
@article{che2020n, title={N-LTP: A Open-source Neural Chinese Language Technology Platform with Pretrained Models}, author={Che, Wanxiang and Feng, Yunlong and Qin, Libo and Liu, Ting}, journal={arXiv preprint arXiv:2009.11616}, year={2020} }
参考书:由哈工大社会计算与信息检索研究中心(HIT-SCIR)的多位学者共同编著的《 自然语言处理:基于预训练模型的方法 》(作者:车万翔、郭江、崔一鸣;主审:刘挺)一书现已正式出版,该书重点介绍了新的基于预训练模型的自然语言处理技术,包括基础知识、预训练词向量和预训练模型三大部分,可供广大LTP用户学习参考。
pip install -U ltp ltp-core ltp-extension -i https://pypi.org/simple # 安装 ltp
注:如果遇到任何错误,请尝试使用上述命令重新安装 ltp,如果依然报错,请在 Github issues 中反馈。
import torch from ltp import LTP ltp = LTP("LTP/small") # 默认加载 Small 模型 # 将模型移动到 GPU 上 if torch.cuda.is_available(): # ltp.cuda() ltp.to("cuda") output = ltp.pipeline(["他叫汤姆去拿外衣。"], tasks=["cws", "pos", "ner", "srl", "dep", "sdp"]) # 使用字典格式作为返回结果 print(output.cws) # print(output[0]) / print(output['cws']) # 也可以使用下标访问 print(output.pos) print(output.sdp) # 使用感知机算法实现的分词、词性和命名实体识别,速度比较快,但是精度略低 ltp = LTP("LTP/legacy") # cws, pos, ner = ltp.pipeline(["他叫汤姆去拿外衣。"], tasks=["cws", "ner"]).to_tuple() # error: NER 需要 词性标注任务的结果 cws, pos, ner = ltp.pipeline(["他叫汤姆去拿外衣。"], tasks=["cws", "pos", "ner"]).to_tuple() # to tuple 可以自动转换为元组格式 # 使用元组格式作为返回结果 print(cws, pos, ner)
详细说明
use std::fs::File; use itertools::multizip; use ltp::{CWSModel, POSModel, NERModel, ModelSerde, Format, Codec}; fn main() -> Result<(), Box<dyn std::error::Error>> { let file = File::open("data/legacy-models/cws_model.bin")?; let cws: CWSModel = ModelSerde::load(file, Format::AVRO(Codec::Deflate))?; let file = File::open("data/legacy-models/pos_model.bin")?; let pos: POSModel = ModelSerde::load(file, Format::AVRO(Codec::Deflate))?; let file = File::open("data/legacy-models/ner_model.bin")?; let ner: NERModel = ModelSerde::load(file, Format::AVRO(Codec::Deflate))?; let words = cws.predict("他叫汤姆去拿外衣。")?; let pos = pos.predict(&words)?; let ner = ner.predict((&words, &pos))?; for (w, p, n) in multizip((words, pos, ner)) { println!("{}/{}/{}", w, p, n); } Ok(()) }
深度学习模型 | 分词 | 词性 | 命名实体 | 语义角色 | 依存句法 | 语义依存 | 速度(句/S) |
---|---|---|---|---|---|---|---|
12315321 | 98.7 | 98.5 | 95.4 | 80.6 | 89.5 | 75.2 | 39.12 |
12316321 | 99.22 | 98.73 | 96.39 | 79.28 | 89.57 | 76.57 | --.-- |
12317321 | 99.18 | 98.69 | 95.97 | 79.49 | 90.19 | 76.62 | --.-- |
12318321 | 98.4 | 98.2 | 94.3 | 78.4 | 88.3 | 74.7 | 43.13 |
12319321 | 96.8 | 97.1 | 91.6 | 70.9 | 83.8 | 70.1 | 53.22 |
感知机算法 | 分词 | 词性 | 命名实体 | 速度(句/s) | 备注 |
---|---|---|---|---|---|
12320321 | 97.93 | 98.41 | 94.28 | 21581.48 | 性能详情 |
注:感知机算法速度为开启16线程速度
make bdist
感知机算法
深度学习算法