GPT-Neo 2.7B-Picard 是使用 EleutherAI 的 GPT-Neo 2.7B 模型进行 fine-tune 得到的。
训练数据包含大约1800本电子书,主要涵盖科幻和奇幻题材。
您可以直接使用这个模型进行文本生成。下面的示例每次运行都会生成一个不同的序列:
>>> from transformers import pipeline
>>> generator = pipeline('text-generation', model='mrseeker87/GPT-Neo-2.7B-Picard')
>>> generator("Jean-Luc Picard", do_sample=True, min_length=50)
[{'generated_text': 'Jean-Luc Picard, the captain of a Federation starship in command of one of Starfleet's few fulltime scientists.'}]
GPT-Neo 是一个自回归语言模型。这意味着它的核心功能是接受一个字符串文本并预测下一个标记。虽然语言模型被广泛用于除此之外的任务,但这项工作还存在许多未知因素。GPT-Neo 是在名为 Pile 的数据集上进行训练的,该数据集已知包含亵渎、淫秽和其他令人不快的语言。根据您的用途,GPT-Neo 可能会生成社会上不可接受的文本。请参阅 Pile 论文的第 5 和第 6 节,以获得有关 Pile 偏见的更详细分析。与所有语言模型一样,很难事先预测 GPT-Neo 对特定提示的响应,可能会出现意外的冒犯内容。我们建议在发布之前,由人类对输出进行审查或过滤,既可阻止不良内容,又可提高结果的质量。
该模型采用以下软件制作:
@software{gpt-neo,
author = {Black, Sid and
Leo, Gao and
Wang, Phil and
Leahy, Connor and
Biderman, Stella},
title = {{GPT-Neo: Large Scale Autoregressive Language
Modeling with Mesh-Tensorflow}},
month = mar,
year = 2021,
note = {{If you use this software, please cite it using
these metadata.}},
publisher = {Zenodo},
version = {1.0},
doi = {10.5281/zenodo.5297715},
url = {https://doi.org/10.5281/zenodo.5297715}
}