2024年将为网络安全行业带来新的挑战-人工智能将发挥重大作用。
Venafi发布了其关于即将到来的一年网络安全和云原生领域的预测,强调人工智能将继续引入新的威胁并放大现有风险。像人工智能污染这样的新威胁也已开始出现,考虑到人工智能和机器学习运行在云原生基础架构上,技术如Kubernetes的风险也变得更大,成为攻击者的更大目标。
众所周知,人工智能持续通过加剧现有风险为企业引入新威胁。然而,虽然预计这些趋势将持续下去,Venafi也预测云驱动的发展,如平台团队在网络安全方面扮演更大角色。
人工智能“污染”攻击和数字黑客攻击的增加
2024年,Venafi预计将看到“1000倍开发者”结合“1000倍黑客”,共同创造出漏洞满地的完美风暴。
根据该公司的研究,背后正在集聚动力的“1000倍开发者”运动-这是一个概念,即看到开发者通过人工智能的力量提高千倍的生产力,放大未来的安全挑战。
Venafi看到企业已经在挣扎,有75%的IT和安全领导者相信,Kubernetes和容器的速度和复杂性正在创造新的安全盲点。此外,59%的受访者承认在Kubernetes或容器环境中已经经历过安全相关问题。
使事情变得复杂的是“1000倍黑客”的崛起-Venafi描述这是同等生产力和威力的AI启用攻击者。Venafi的生态系统和社区副总裁Kevin Bocek表示:“组织无法切实雇佣1000名网络安全专家来与这些威胁竞争。解决方案在于拥抱以机器速度运作的自动化的力量。"
他继续说:"要跟上步伐,唯一的方法是以机器速度运作的自动化的力量。如果开发者正在使用人工智能提高1000倍的生产力,我们需要‘1000倍CISO'和‘1000倍安全架构师'。"
该公司还预测,2024年将是人工智能污染攻击的一年,企业需要确保其数据安全。Venafi的首席产品官Shivajee Samdarshi表示:“到2024年,人工智能污染攻击将成为新的软件供应链攻击。这样的攻击将以威胁行为者针对数据输入和输出管道进行操作,以及污染人工智能模型和它们产生的输出为特征。"
Samdarshi继续说:“随着人工智能在各种商业关键工作负载中的使用——可能几乎没有监督——维护这些系统的完整性需要成为最关键的关注点。
"同时,随着全球主要选举与生成性人工智能的大规模采用同时发生,我们很可能在2024年看到人工智能加速选举干预。从创造令人信服的深度伪造到增加针对性的错误信息,信任、身份和民主本身的概念将受到检验。
“这将更大程度上要求个体审查并做出知情决策以及媒体平台根除虚假内容。”
面对新技术,网络弹性的重要性
Venafi还预测,2024年的法规将更进一步侵入开发空间,数据泄露责任将发生变化。
“欧盟网络弹性法案语言关于责任的表述必须更明确,否则在欧盟编写开源代码的人可能会停止贡献,”Venafi的全球云原生服务主管Matt Barker说。"随着我们进入2024年,我们将看到对‘了解你的代码'的增加关注——受到如行政命令关于SBOMs的法规的支持——这意味着组织将需要建立并验证它们正在使用的代码的来源。"
他继续说:"现在人工智能正在被用于生成代码,确定代码来源比以往任何时候都更加困难。那些未能这样做的人很快就会发现自己面临风险,不仅是来自攻击,还有监管罚款。"
此外,随着组织在信任边界之间扩展安全性和治理,到2024年,机器身份和访问管理将转移到工作负载级别。
Venafi的云原生解决方案高级总监Sitaram Iyer说:“随着成熟度的提高,组织已经开始以更分散的方式在多个信任边界之间使用云,所有这些边界都包含需要管理的身份。
"2024年的挑战将是确保安全控制在环境中工作,并能以一致的方式进行管理。这需要战略性地转变为一种更中立、分散的管理机器身份和控制访问的方式,只能通过在工作负载级别进行身份和访问验证来实现。"
他继续说:“因此,如SPIFFE机器身份这样的联合身份的采用将会增加。这将使组织能够利用现有的公钥基础设施进行跨工作负载的强加密,无论它们在哪里运行。"