模型:
tinkoff-ai/ruDialoGPT-small
此生成模型是基于 sberbank-ai/rugpt3small_based_on_gpt2 的。它是用大量对话数据进行训练的,可用于构建生成型对话代理。
模型是使用上下文大小为3进行训练的。
在私人验证集上,我们计算了 this paper 中引入的度量标准:
| sensibleness | specificity | SSA | |
|---|---|---|---|
| 1233321 | 0.64 | 0.5 | 0.57 |
| 1234321 | 0.78 | 0.69 | 0.735 |
如何使用:
import torch
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained('tinkoff-ai/ruDialoGPT-small')
model = AutoModelWithLMHead.from_pretrained('tinkoff-ai/ruDialoGPT-small')
inputs = tokenizer('@@ПЕРВЫЙ@@ привет @@ВТОРОЙ@@ привет @@ПЕРВЫЙ@@ как дела? @@ВТОРОЙ@@', return_tensors='pt')
generated_token_ids = model.generate(
**inputs,
top_k=10,
top_p=0.95,
num_beams=3,
num_return_sequences=3,
do_sample=True,
no_repeat_ngram_size=2,
temperature=1.2,
repetition_penalty=1.2,
length_penalty=1.0,
eos_token_id=50257,
max_new_tokens=40
)
context_with_response = [tokenizer.decode(sample_token_ids) for sample_token_ids in generated_token_ids]
context_with_response