了解不断变化的法规是应对人工智能风险的关键。这对网络安全领导者意味着什么。
译自 How evolving AI regulations impact cybersecurity,作者 Ram Movva; Aviral Verma。
虽然他们的商业和技术同事忙于尝试和开发新的应用程序,但网络安全领导者正在寻找方法来预测和应对新的、由人工智能驱动的威胁。
人工智能对网络安全的影响一直很明显,但这是一个双向的过程。人工智能越来越多地被用于预测和缓解攻击,但这些应用程序本身也容易受到攻击。每个人都兴奋的自动化、规模和速度也同样适用于网络犯罪分子和威胁行为者。虽然距离主流应用还很远,但人工智能的恶意使用一直在增长。从生成对抗网络到大型僵尸网络和自动化的 DDoS 攻击,人工智能有可能产生一种新型的网络攻击,这种攻击可以适应和学习以逃避检测和缓解。
在这种环境下,我们如何防御人工智能系统免受攻击?攻击性人工智能将采取什么形式?威胁行为者的 AI 模型将是什么样的?我们能对 AI 进行渗透测试吗?我们应该何时开始以及为什么?随着企业和政府扩展其 AI 管道,我们将如何保护他们依赖的大量数据?
正是这些问题促使美国政府和欧盟将网络安全置于首位,因为它们都在努力制定指导方针、规则和法规来识别和缓解新的风险环境。这并非第一次出现明显不同的方法,但这并不意味着没有重叠。
让我们简要了解一下其中涉及的内容,然后再继续考虑这对网络安全领导者和 CISO 的意义。
除了行政命令,美国对人工智能监管的分散式方法也体现在加州等州制定自己的法律指南。作为硅谷的所在地,加州的决定可能会极大地影响科技公司开发和实施人工智能的方式,一直到用于训练应用程序的数据集。虽然这绝对会影响所有参与开发新技术和应用程序的人,但从纯粹的 CISO 或网络安全领导者的角度来看,重要的是要注意,虽然美国的环境强调创新和自我监管,但总体方法是基于风险的。 美国的监管环境强调创新,同时解决与人工智能技术相关的潜在风险。法规侧重于促进负责任的人工智能开发和部署,重点是行业自我监管和自愿合规。
对于 CISO 和其他网络安全领导者来说,重要的是要注意,行政命令指示美国国家标准与技术研究院 (NIST) 制定标准 用于对 AI 系统进行红队测试。还呼吁“最强大的 AI 系统”必须进行渗透测试并将结果与政府共享。
欧盟更加谨慎的方法从一开始就将网络安全和数据隐私纳入其中,并制定了强制性标准和执行机制。与其他欧盟法律一样,人工智能法案是基于原则的:组织有责任通过支持其实践的文档来证明合规性。
对于 CISO 和其他网络安全领导者来说,第 9.1 条引起了很多关注。它指出
高风险人工智能系统应按照以下原则设计和开发安全设计和默认安全。鉴于其预期用途,它们应达到适当的准确性、稳健性、安全性、网络安全水平,并在其整个生命周期内始终如一地保持这些水平。遵守这些要求应包括根据特定市场细分或应用范围实施最先进的措施。
从最根本的层面上讲,第 9.1 条意味着关键基础设施和其他高风险组织的网络安全领导者将需要进行 AI 风险评估并遵守网络安全标准。该法案第 15 条涵盖了可以采取的网络安全措施来保护、缓解和控制攻击,包括试图操纵训练数据集(“数据中毒”)或模型的攻击。对于 CISO、网络安全领导者和 AI 开发人员来说,这意味着任何构建高风险系统的人都需要从一开始就考虑网络安全的影响。
特征 | 欧盟人工智能法案 | 美国方法 |
---|---|---|
监管方法 | 基于原则的,强制性标准和执行机制 | 基于风险的,强调创新和自我监管 |
重点 | 网络安全和数据隐私 | 创新和负责任的 AI 开发 |
合规性 | 组织有责任证明合规性 | 自愿合规 |
渗透测试 | 要求对高风险 AI 系统进行渗透测试 | 鼓励对“最强大的 AI 系统”进行渗透测试 |
数据隐私 | 严格的数据隐私规定 | 数据隐私保护较少 |
实施 | 已经实施 | 正在制定中 |
总体理念 | 预防性,基于风险 | 市场驱动,以创新为中心 |
--- | --- | --- |
法规 | 对“高风险”人工智能的具体规则,包括网络安全方面 | 广泛的原则,部门指南,重点关注自我监管 |
数据隐私 | 适用 GDPR,严格的用户权利和透明度 | 没有全面的联邦法律,各州法规拼凑而成 |
网络安全标准 | 对高风险人工智能的强制性技术标准 | 鼓励自愿最佳实践,行业标准 |
执行 | 对不遵守规定处以罚款、禁令和其他制裁 | 机构调查,潜在的贸易限制 |
透明度 | 对高风险人工智能的可解释性要求 | 要求有限,重点关注消费者保护 |
问责制 | 由人工智能造成的损害的明确责任框架 | 责任不明确,通常归咎于用户或开发人员 |
尽管方法不同,但欧盟和美国都主张采取基于风险的方法。而且,正如我们在 GDPR 中所见,随着我们朝着全球标准的合作和共识迈进,存在着大量协调的空间。
从网络安全领导者的角度来看,很明显,人工智能法规和标准处于成熟度的早期阶段,并且随着我们对技术和应用的了解不断加深,几乎肯定会发生变化。正如美国和欧盟的监管方法所强调的那样,网络安全和治理法规要成熟得多,这至少是因为网络安全社区已经投入了大量资源、专业知识和努力来提高意识和知识。
人工智能和网络安全之间的重叠和相互依赖意味着网络安全领导者更加敏锐地意识到新出现的后果。毕竟,许多人一直在使用人工智能和机器学习来进行恶意软件检测和缓解、恶意 IP 阻止和威胁分类。目前,CISO 将负责制定全面的 AI 战略,以确保整个业务的隐私、安全和合规性,包括以下步骤:
- 确定 AI 带来最大收益的用例。
- 确定成功实施 AI 所需的资源。
- 建立一个治理框架来管理和保护客户/敏感数据,并确保遵守您组织开展业务的每个国家/地区的法规。
- 清晰地评估和评估 AI 实施对整个业务(包括客户)的影响。
随着人工智能法规不断发展,目前唯一真正确定的是,美国和欧盟将在制定标准方面发挥关键作用。快速的变化意味着我们肯定会看到法规、原则和指南的变化。无论是自主武器还是自动驾驶汽车,网络安全都将在解决这些挑战的方式中发挥核心作用。
速度和复杂性都表明,我们很可能从特定国家/地区的规则演变为围绕关键挑战和威胁达成更广泛的全球共识。从迄今为止的美国-欧盟合作来看,已经存在明确的共同基础可以借鉴。GDPR(通用数据保护条例)表明,欧盟的方法最终对其他司法管辖区的法律产生了重大影响。某种程度的协调似乎不可避免,这至少是因为挑战的严重性。
与 GDPR 一样,这更多是一个时间和合作的问题。同样,GDPR 提供了一个有用的案例历史。在这种情况下,网络安全从技术规定提升到了要求。安全将成为人工智能应用中不可或缺的要求。在开发人员或企业可能对其产品承担责任的情况下,网络安全领导者必须及时了解其组织中使用的架构和技术至关重要。
在接下来的几个月里,我们将看到欧盟和美国法规如何影响正在构建人工智能应用程序和产品的组织,以及新兴的人工智能威胁形势如何演变。