谷歌的新产品Threat Intelligence着眼于网络安全

2024年05月07日 由 samoyed 发表 48 0

随着人们努力寻找更多关于生成式AI的实用用途,而不仅仅是制造假照片,谷歌计划将AI指向网络安全,并使威胁报告更容易阅读。


在一篇博客文章中,谷歌写道,其新的网络安全产品Google Threat Intelligence将把其Mandiant网络安全部门和VirusTotal威胁情报的工作与Gemini AI模型结合在一起。


STK255_Google_Gemini_C


这个新产品使用了Gemini 1.5 Pro大型语言模型,谷歌表示,这减少了逆向工程恶意软件攻击所需的时间。该公司声称,于2月份发布的Gemini 1.5 Pro仅用34秒就分析了WannaCry病毒的代码——这种2017年的勒索软件攻击使世界各地的医院、公司和其他组织陷入瘫痪——并识别出一个终止开关。这很令人印象深刻,但并不奇怪,因为大型语言模型擅长阅读和编写代码。


但Gemini在威胁领域的另一个可能用途是在Threat Intelligence中将威胁报告总结成自然语言,以便公司评估潜在攻击可能对它们产生的影响——换句话说,就是让公司不会对威胁反应过度或反应不足。


谷歌表示,Threat Intelligence还有一个庞大的信息网络,用于在攻击发生前监测潜在威胁。它让用户看到网络安全环境的更大图景,并确定优先关注的事项。Mandiant提供人类专家来监测潜在的恶意团体,以及与公司合作阻止攻击的顾问。VirusTotal的社区也会定期发布威胁指标。


谷歌在2022年收购了网络安全公司Mandiant,该公司发现了2020年针对美国联邦政府的SolarWinds网络攻击。


谷歌还计划利用Mandiant的专家来评估围绕AI项目的安全漏洞。通过谷歌的安全AI框架,Mandiant将测试AI模型的防御能力,并协助红队测试工作。虽然AI模型可以帮助总结威胁并逆向工程恶意软件攻击,但这些模型本身有时也会成为恶意行为者的目标。这些威胁有时包括“数据投毒”,即将恶意代码添加到AI模型抓取的数据中,使模型无法对特定提示做出响应。


当然,谷歌并不是唯一一家将AI与网络安全相结合的公司。微软推出了由GPT-4和微软特定于网络安全的AI模型支持的Copilot for Security,让网络安全专家可以就威胁提问。这些是否真正是生成式AI的良好用例还有待观察,但很高兴看到它被用于这些有意义的事情上。


文章来源:https://www.theverge.com/2024/5/6/24150610/google-gemini-cybersecurity-mandiant
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消