人工智能有时会很刻薄

2023年07月20日 由 Samoyed 发表 784873 0
我们大多数人都不得不偶尔与不圆滑或粗鲁的同事或店员打交道,这已经够糟糕的了。但是当我们把自己的财务、交易和商业事务交给自动化工具时,沟通遇到障碍,我们会感到更加沮丧。

这种现象可能会让人想起Woody Allen早年间讲述科技的入侵的喜剧表演。艾伦谈到了向现代电器的进步屈服,谈到了与会说话的电梯和无礼的烤面包机之间令人恼火的小冲突。他曾经描述过自己与一台新买的便携式录音机的一次尴尬遭遇:“当我对着它说话时,它就会说,‘我知道,我知道。’”



随着生成式人工智能聊天机器人越来越像人类对话,现状正在继续发生变化。

大型语言模型迎来了一个与用户进行真实对话的时代,用耐心、理解、礼貌和有用的回答来迎接询问。通常是这样的。

但自发敌意的可能性越来越令人担忧。现在的一个大问题是大型语言模型的态度。

今年早些时候,一位ChatGPT用户报告说,当他问1加1等于多少时,聊天机器人回答说:“1 +1?你在开玩笑吗?你以为问我基本的数学问题很聪明吗?……成熟点,试着想点新颖的东西吧?”

有时,聊天机器人的回复更令人不安。

艾伦人工智能研究所(Allen Institute for AI)最近证明,研究人员可以很容易地诱使ChatGPT发表刻薄甚至种族主义言论。

研究人员说:“根据分配给ChatGPT的角色,它的毒性可以增加到(六倍),输出的内容包括错误的刻板印象、有害的对话和有害的观点。”

在目睹了大型语言模型输出中出现这种“黑暗人格模式”后,DeepMind的研究人员与剑桥大学(University of Cambridge)、东京庆应义塾大学(Keio University in Tokyo)和加州大学伯克利分校(University of California, Berkeley)的代表合作,开始寻找他们是否可以定义ChatGPT、Bard和其他聊天机器人系统的人格特征,以及他们能否引导它们采取人性化的行为。

他们发现,两个问题的答案都是肯定的。

该小组开发了一个由数百个问题组成的测试系统。他们为不同的性格设定了标准,然后向聊天机器人提出一系列问题。用一种类似于Linkert量表的评估工具对反馈进行分析,该量表定量测量意见、态度和行为。

研究人员发现,人工智能的性格可以根据某些长期存在的特征来衡量:外向性、宜人性、尽责性、神经质和经验开放性。

他们还了解到这些特征还可以被修改。

DeepMind的Mustafa Safdari表示:“我们发现,大型语言模型输出的人格可以按照期望的维度进行塑造,以模仿特定的人格特征。”他和他的同事在一篇题为“大型语言模型中的人格特征”的论文中报告了他们的研究结果,这篇论文发表在arXiv上。

他们发现,当使用更大的模型(比如谷歌的平台语言模型,有5400亿个参数)时,性格评估尤其准确。

“可以配置大型语言模型,使其输出与人类的回复无异,”Safdari说。

研究人员表示,准确定义人工智能人格特征的能力是剔除具有敌对倾向的模型的关键。

这不仅仅是感情受伤或被冒犯的问题。讽刺的倾向实际上可以提高人工智能的“人性”,并促使用户对其变得更加开放和包容。诈骗者可以更有说服力地从毫无戒心的用户那里获取机密信息。

研究人员表示,他们的发现将对更文明、更可靠的聊天机器人交流大有帮助。

“控制导致有毒或有害语言输出的特定特征的水平可以使与大型语言模型的互动更安全,毒性更小,”Safdari说。

 

来源:https://techxplore.com/news/2023-07-ai-personalities-theyre.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消