模型:
neulab/gpt2-finetuned-wikitext103
这是一个在Wikitext-103数据集上微调的gpt2模型。
使用“滑动窗口”上下文,使用run_clm.py脚本在 https://github.com/neulab/knn-transformers 上实现的模型,达到了14.84的困惑度。
| Base LM: | distilgpt2 | gpt2 | 
|---|---|---|
| base perplexity | 18.25 | 14.84 | 
| +kNN-LM | 15.03 | 12.57 | 
| +RetoMaton | 14.70 | 12.46 | 
此模型是作为ICML'2022论文的一部分发布的。
有关更多信息,请参见: https://github.com/neulab/knn-transformers
如果您使用此模型,请引用:
@inproceedings{alon2022neuro,
  title={Neuro-Symbolic Language Modeling with Automaton-augmented Retrieval},
  author={Alon, Uri and Xu, Frank and He, Junxian and Sengupta, Sudipta and Roth, Dan and Neubig, Graham},
  booktitle={International Conference on Machine Learning},
  pages={468--485},
  year={2022},
  organization={PMLR}
}