英文

模型描述

摘要

构建开放领域的聊天机器人是机器学习研究的一个具有挑战性的领域。虽然之前的研究表明,增加神经模型的参数数量和训练数据的规模可以提高结果,但我们表明,其他因素对于高性能的聊天机器人也很重要。良好的对话需要专业对话者将多种技巧无缝融合在一起:提供有趣的话题,倾听对方,提问和回答问题,根据情况适当地展示知识、同理心和个性。我们表明,当提供适当的训练数据和生成策略选择时,大规模模型可以学习这些技巧。我们构建了90M、2.7B和9.4B参数的神经模型的变种,并公开提供我们的模型和代码。人类评估表明,我们最好的模型在多轮对话中优于现有方法,从吸引力和人性化度量的角度来看。然后,我们通过分析模型的失败案例讨论了这项工作的局限性。