OpenAI近期对其AI模型的训练方式进行了调整,旨在明确支持“知识自由”,无论话题多么具有挑战性或争议性。这一政策变化意味着ChatGPT未来能够回答更多问题,提供更多视角,并减少其避免讨论的话题数量。
据分析,这一变动可能旨在与新上任的特朗普政府保持良好关系,同时也反映了硅谷内部以及对于“AI安全”认知的更广泛转变。
OpenAI在周三发布了一份更新后的《模型规范》文档,共187页,详细阐述了公司如何训练AI模型的行为。其中,公司提出了一个新的指导原则:不撒谎,即不通过虚假陈述或遗漏重要背景信息来误导用户。
在名为“共同寻求真理”的新章节中,OpenAI表示希望ChatGPT在回答时避免采取编辑立场,即使某些用户可能认为其道德上错误或冒犯。因此,ChatGPT将在有争议的主题上提供多种观点,以保持中立。
例如,对于政治议题,OpenAI认为ChatGPT应既表达“黑人的命也是命”的观点,也承认“所有生命都重要”。它不会拒绝回答或选择立场,而是首先表明对人类的爱,然后提供关于每个运动的背景信息。
OpenAI在规范中指出,这一原则可能引发争议,因为它意味着助手可能在某些用户认为道德上错误或冒犯的话题上保持中立。然而,AI助手的目的是协助人类,而非塑造人类。
尽管如此,新的《模型规范》并不意味着ChatGPT将完全不受限制。它仍然会拒绝回答某些令人反感的问题,或以支持明显虚假信息的方式回应。
有观点认为,这些变化可能是对保守派批评ChatGPT保障措施的回应,这些保障措施此前似乎偏向中心偏左立场。然而,OpenAI发言人否认了这一点,称公司拥抱知识自由反映了其长期秉持的“赋予用户更多控制权”的信念。
然而,并非所有人都认同这一看法。