这是 cointegrated/rubert-tiny 的更新版本:一种具有高质量句子嵌入的小型俄语BERT编码器。这是 post in Russian ,它提供了更多详细信息。
与之前版本相比,主要差异包括:
该模型应按原样用于生成句子嵌入(例如,用于对短文本进行KNN分类)或对下游任务进行微调。
可以按照以下方式生成句子嵌入:
# pip install transformers sentencepiece
import torch
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("cointegrated/rubert-tiny2")
model = AutoModel.from_pretrained("cointegrated/rubert-tiny2")
# model.cuda() # uncomment it if you have a GPU
def embed_bert_cls(text, model, tokenizer):
t = tokenizer(text, padding=True, truncation=True, return_tensors='pt')
with torch.no_grad():
model_output = model(**{k: v.to(model.device) for k, v in t.items()})
embeddings = model_output.last_hidden_state[:, 0, :]
embeddings = torch.nn.functional.normalize(embeddings)
return embeddings[0].cpu().numpy()
print(embed_bert_cls('привет мир', model, tokenizer).shape)
# (312,)