谷歌推出前沿AI安全框架,应对潜在威胁

2024年05月20日 由 daydream 发表 68 0

谷歌近日推出了前沿安全框架(Frontier Safety Framework),这是一套旨在预先识别和缓解未来人工智能系统潜在威胁的策略体系。该框架的核心在于通过实施一系列机制,及时发现并处理潜在风险,从而走在风险前面,确保AI系统的稳健运行。


微信截图_20240520104040


前沿安全框架主要关注由高级AI模型带来的重大风险,特别是那些具备高度自主性和复杂网络功能的模型。它的设计初衷是补充谷歌现有的AI安全实践和对齐研究,以确保AI的行为能够符合人类社会的价值观和道德规范。


该框架由三个核心部分组成:


  • 首先是识别能力。谷歌将深入研究高级AI模型可能带来的风险。他们将设立“关键能力水平”(CCLs)作为指导,明确模型在何种能力下可能构成严重风险。这些CCLs将为评估和缓解风险提供重要依据。


  • 其次是评估模型。谷歌将定期对AI模型进行测试,以检测它们是否接近这些关键能力水平。他们还将开发“早期预警评估”系统,以便在模型达到CCL之前发出警报,及时采取相应措施。


  • 最后是缓解计划。当模型通过早期预警评估时,谷歌将启动缓解计划。该计划旨在平衡模型的利弊,特别关注安全性和防止关键能力的滥用。


初期阶段,该框架将重点关注四个领域:自主性、生物安全、网络安全和机器学习研发。针对每个领域,谷歌都明确了具体的CCLs以及相应的安全和部署缓解措施。


以自主性领域为例,一个关键能力可能是一个AI模型能够自主获取资源并维持自身的额外副本。在网络安全领域,一个关键能力可能是一个能够自动化执行机会性网络攻击的模型。


与此同时,其他研究机构如OpenAI和Anthropic也在积极投入AI安全研究。OpenAI去年发布了他们的准备框架,并概述了一系列关键安全措施,旨在保护AI技术免受滥用。Anthropic也在多个方面积极开展AI安全研究,包括提高AI的可解释性、可扩展的监督、测试潜在的危险故障模式以及评估其社会影响等。这些努力共同体现了AI研究社区对主动应对高级AI系统潜在风险的重视。


谷歌的框架尚处于探索阶段,预计将在实施过程中不断学习和完善,并通过与行业、学术界和政府的合作,共同推动AI技术的健康发展。他们计划在2025年初之前全面实施这一初始框架。

文章来源:https://www.maginative.com/article/google-introduces-frontier-safety-framework-to-identify-and-mitigate-future-ai-risks/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消