在过去的几个月里,人工智能的普及程度呈爆炸式增长,以至于一些主要的科技公司认为现在是制定一套通用标准来构建和部署这些新技术的时候了。
周五,谷歌推出了安全人工智能框架(SAIF),这是一个保护人工智能系统的概念框架。
SAIF旨在开发一个与人工智能发展保持同步的生态系统,以人工智能为中心扩展检测和响应,将自动化集成到人工智能中,并使用为人工智能开发的模型进行红队演练。
谷歌计划与政府标准机构密切合作,帮助制定 NIST AI 风险管理框架 和 ISO/IEC 42001 AI 管理系统标准,这是业界首个 AI 认证标准。
在具体行动方面,谷歌表示计划扩大其漏洞赏金计划,以激励围绕人工智能安全和保障的行业研究。他们还计划发布几个开源工具,以帮助将 SAIF 元素付诸实践以实现 AI 安全。
“研究社区在 AI 生态系统中发挥着重要作用,我们很自豪地说我们已经与安全研究人员建立了这种关系,” Google Cloud首席信息安全官 Phil Venables 说。“去年,我们向测试我们产品漏洞的安全研究人员支付了超过 1200 万美元的奖金。我们的人工智能系统在这些项目的范围内,我们一直在与这个社区合作,以确保我们能够找到漏洞。我们还有一个研究部门,Google DeepMind,致力于解决这些问题。”
虽然大多数安全专业人士认为像谷歌这样的主要参与者在推广 SAIF 方面采取如此有力的步骤是积极的,但一些人认为在大多数安全专业人士只是边走边学的领域中还有很多工作要做。
“我们才刚刚开始考虑这个问题,我们正在对现有的网络安全学科进行类比,”Netenrich 的首席猎手 John Bambenek 说。
Bambenek 指出,如果我们谈论的是软件应用程序,那么拥有漏洞赏金计划是有意义的,但在 AI 中,我们甚至不知道渗透测试到底是什么样子。
“事实是,我们正在临时弥补,我们只需要修改并解决问题,”Bambenek 说。“从这个意义上说,把一些东西放在那里是一个很好的第一步,因为至少它给了这个行业一个起点来弄清楚什么有效,什么无效。”
SAIF 提供了一个良好的开端,以 NIST 和 ISO 框架中的几项原则为基础,JupiterOne 的首席信息安全官 Sounil Yu 说。现在,该行业需要在其当前的安全控制与 AI 系统专门需要的安全控制之间架起一座桥梁。
“使 SAIF 特别引人注目和必要的 AI 系统的主要区别在于,有了 AI 系统,我们不会有太多犯错的机会,”Yu 说。“人工智能安全是在设计和开发人工智能系统的最早阶段要考虑的一项极其重要的原则,因为它可能会带来灾难性和不可逆转的后果。随着人工智能系统变得越来越有能力,它们可能会执行不符合人类价值观的行为。尽早纳入安全原则有助于确保人工智能系统更好地符合人类价值观,并防止潜在的滥用这些技术。”
Pathlock 首席执行官 Piyush Pandey 指出,正如萨班斯 - 奥克斯利法案 (SOX) 立法需要对财务流程进行职责分离 (SOD) 控制,很明显,类似类型的控制对于 AI 是必要的系统。
Pandey 表示,SOX 要求很快应用于执行这些流程的业务应用程序,因此,控制测试现在已经成为自己的行业,软件解决方案、审计和咨询公司帮助客户证明其控制的有效性和合规性。