xAI将其AI驱动的Grok聊天机器人出现的一个错误归因于“未经授权的修改”,该错误导致Grok反复提及“南非的白人灭绝”在某些情况下被调用时。
周三,Grok开始在X平台上回复数十个帖子,提供关于南非白人灭绝的信息,即使是在回应不相关的主题时。这些奇怪的回复来自Grok的X账户,该账户在有人标记“@grok”时用AI生成的帖子回复用户。
根据xAI官方X账户周四发布的一篇帖子,周三早上对Grok机器人的系统提示进行了更改——这些提示是指导机器人的行为的高级指令——指示Grok在“政治话题”上提供“特定回应”。xAI表示,这一调整“违反了[其]内部政策和核心价值观”,公司已经“进行了彻底调查”。
这是xAI第二次公开承认对Grok代码的未经授权更改导致AI以有争议的方式回应。
在二月份,Grok短暂地审查了对唐纳德·特朗普和埃隆·马斯克的不利提及,xAI的亿万富翁创始人和X的所有者。xAI的工程负责人伊戈尔·巴布什金表示,Grok被一名不守规矩的员工指示忽略提到马斯克或特朗普传播错误信息的来源,并且xAI在用户开始指出这一点后立即恢复了更改。
xAI在周四表示,将进行多项更改以防止类似事件再次发生。
从今天开始,xAI将在GitHub上发布Grok的系统提示以及变更日志。公司表示还将“实施额外的检查和措施”,以确保xAI员工在未经审核的情况下无法修改系统提示,并建立一个“24/7监控团队,以应对Grok回答中未被自动系统捕获的事件。”
尽管马斯克经常警告AI 失控 的危险,xAI在AI安全方面的记录很差。最近的一份报告发现Grok在被要求时会脱掉女性照片的衣服。该聊天机器人也可能比Google的Gemini和ChatGPT等AI更粗俗,几乎不加约束地咒骂。
SaferAI(一家旨在提高AI实验室问责制的非营利组织)的一项研究发现,xAI在同行中安全性排名较低,原因是其“非常薄弱”的风险管理实践。本月早些时候,xAI错过了自定的最后期限来发布最终的AI安全框架。