人工智能与模型崩溃的风险

2023年07月31日 由 Samoyed 发表 879718 0
人工智能正在日益融入我们的日常生活,但当人工智能知道它需要知道的一切时会发生什么呢?随着人工智能不断输入人类的知识并生成自己的内容,这就存在“模型崩溃”的风险。

人工智能模型正在迅速为网络注入新的内容,例如Midjourney和ChatGPT。然而,这种人工智能内容创作的激增正在导致一个更大的问题,即模型崩溃。模型崩溃指的是一个退化的学习过程,在这个过程中,模型最终会忘记正确的事情,从而歪曲现实。



其中一个例子就是ChatGPT,它已经开始出现彻头彻尾的谎言。随着生成数据中错误的积累,模型离现实越来越远。参与这项研究的研究员Ilya Shumailov警告说,模型会很快忘记它们最初学到的基本数据。

模型崩溃引起的另一个问题是,人工智能系统会不断输入错误信息。这会导致输出的质量下降,类似于被多次复制和扭曲的 JPEG 图像。

为了解决这个问题,研究人员提出了两种方法。首先,保留原始人工生成训练数据集的“主副本”,以防止被人工智能生成数据污染。其次,在训练的后期阶段纳入人类生成的新数据集。

模型崩溃的风险突出了持续的人类参与和监督的重要性。当人工智能继续发展和创造自己的内容时,保持对人工智能的控制和确保其输出的准确性以防止生成的知识质量进一步恶化至关重要。

 

来源:https://fagenwasanni.com/news/artificial-intelligence-and-the-risk-of-model-collapse/96818/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消