英文

模型描述

摘要

构建开放域聊天机器人是机器学习研究中的一个具有挑战性的领域。虽然先前的工作表明,通过在参数数量和训练数据规模上扩展神经模型可以获得改进的结果,但我们表明,其他因素对于高性能的聊天机器人也是重要的。良好的对话需要一些技能,擅长对话的人需要以无缝的方式融合这些技能:提供引人入胜的话题并倾听对方,提出问题并回答问题,并根据情况适当地展示知识、共情和个性。我们表明,当给定适当的训练数据和生成策略选择时,大规模模型可以学习这些技能。我们构建了90M、2.7B和9.4B参数神经模型的变体,并公开提供我们的模型和代码。人类评估显示,我们最好的模型在多轮对话中优于现有方法,表现出更高的引人入胜度和人性度。然后,我们通过分析模型的失败案例来讨论此工作的局限性。