
AI竞赛正在如火如荼地进行,但急于求成的企业可能会发现自己陷入了安全盲点。
创新与安全之间的紧张关系由来已久,创新者和CIO希望凭借新技术开辟道路,CISO和其他安全负责人则希望采取更为审慎的方法来降低风险。
近年来,随着AI的崛起,人们经常用“军备竞赛”来形容其发展态势,紧迫感切实存在,但那些有安全意识的人所担心的风险仍然存在。
数据泄露、影子AI、幻觉、偏见、模型投毒、直接和间接的提示注入等,这些都是与使用AI相关的已知风险,但这并不意味着企业领导者了解这些风险如何在他们的企业和特定用例中表现出来。现在,自主式AI又被纳入其中。
“企业正在非常快地朝着自主化的道路前进,”Pangea公司创始人兼首席执行官奥利弗·弗里德里希斯(Oliver Friedrichs)告诉记者。Pangea是一家为AI应用提供安全防护栏的公司。
那么,在企业急于掌握AI解决方案的力量时,可能会忽视哪些安全问题?
可见性
你的企业内部部署了多少个AI模型?回答这个问题可能不像你想的那么容易。
“我认为人们没有意识到AI在大型企业中已经如此普遍地部署了,”Protect AI公司首席执行官兼创始人伊恩·斯旺森(Ian Swanson)说。Protect AI是一家AI和机器学习安全公司。“AI不仅仅是过去两年才出现的新事物。GenAI以及我们所看到的大型语言模型的涌入产生了很多助力,但我们也需要盘点一下我们已经部署了什么。”
你不仅需要了解哪些模型正在使用,还需要了解这些模型是如何做出决策的。
“比如说,如果他们拒绝了一项人寿保险索赔,那么出于合规原因,需要有一些历史记录,以及诊断出错误发生原因的能力。”弗里德里希斯说。
如果企业领导者不知道哪些AI模型正在使用以及这些模型的表现如何,那么他们甚至无法开始分析和缓解相关的安全风险。
可追溯性
斯旺森曾在国会的一次关于AI安全的听证会上作证。他提出了一个简单的比喻:AI就像蛋糕。如果你不知道蛋糕的配方、成分和烘焙师,你会吃一块蛋糕吗?尽管诱人的甜点可能很吸引人,但大多数人都会说不。
“AI是你不能、也不应该只是消费的东西。你应该了解它是如何构建的。你应该了解并确保它不包含恶意成分。”斯旺森说。
AI模型在整个开发过程中是否已经得到保护?安全团队是否有能力进行持续监控?
“很明显,安全不是一次性的检查。这是一个持续的过程,这是很多企业目前正在打造的新能力。”斯旺森补充道。
第三方和数据使用
第三方风险一直是安全团队关注的焦点,这种风险随着AI的加入而加剧。AI模型通常有第三方组件,而每一个额外的第三方都是企业数据的另一个潜在暴露点。
“我们真正要做的是去理解这些第三方正在为我们的组织做什么,”Tanium公司AI副总裁哈尔曼·考尔(Harman Kaur)说。Tanium是一家网络安全和系统管理公司。
第三方是否可以访问你的企业数据?他们是否将这些数据传输到你不希望它们去的地区?他们是否使用这些数据来训练AI模型?企业团队需要深入了解他们使用AI模型的任何协议的条款,以回答这些问题,并根据风险承受能力来决定如何推进。
法律风险
AI的法律环境仍然非常不成熟。法规仍在酝酿之中,但这并不否定法律风险的存在。已经有很多针对AI使用的诉讼和集体诉讼的例子。
“当事情变糟时,每个人都会被告上法庭。他们会互相指责,”卡斯坦斯、艾伦与古利律师事务所(Carstens, Allen & Gourley)的顾问罗伯特·W·泰勒(Robert W. Taylor)说。AI模型的开发者及其客户可能会发现自己因造成损害的结果而承担责任。
许多企业都面临着这种风险。“当公司考虑构建或部署这些AI解决方案时,他们没有进行全面的法律风险评估。”泰勒观察到。
现在,预测AI合法性的最终走向,以及何时会发生这种情况,都不是一件容易的事。没有路线图,但这并不意味着企业团队应该举手投降,不考虑法律影响就一味向前冲。
“关键是要确保你深刻了解你所使用的技术存在的所有风险,然后尽你所能,通过遵循合理的最佳实践来减轻这些危害,并记录所有内容。”泰勒说。
负责任的AI
如今,许多关于负责任的AI使用的框架都可用,但魔鬼藏在细节中。
“我认为很多公司(包括我自己的客户)都在努力做的事情是,将这些负责任的AI原则应用到具体用例中。”泰勒分享道。
企业团队必须做基础工作,以确定其用例的具体风险,并了解他们如何将负责任的AI原则应用于缓解这些风险。
安全与创新的平衡
兼顾安全与创新就像在刀尖上保持平衡。滑向一边,你会感受到在AI竞赛中落后的刺痛。滑向另一边,你可能会面临忽视安全漏洞的后果,但什么都不做注定你会落后。
“我们看到它使一些企业陷入了瘫痪,他们不知道如何创建一个框架来判断这是否是我们愿意接受的风险。”考尔说。
以安全的心态采用AI,并不是说风险可以完全避免。当然,这不是真的。“现实是,这是一个发展如此迅速的领域,就像从消防水带中喝水一样。”弗里德里希斯说。
企业团队可以采取一些有意为之的步骤,以更好地了解其企业的AI的具体风险,同时朝着实现这项技术的价值迈进。
使用斯旺森的比喻来看,今天市场上所有的AI工具都像是蛋糕店里的蛋糕。每一个看起来都比上一个更美味,但企业可以通过从他们已经了解和信任的供应商开始来缩小决策过程。更容易知道蛋糕来自哪里,以及吃下去的风险。
“我已经信任并且在我的企业中已经存在的供应商是谁?我今天可以从这些供应商那里利用什么来提高生产力?”考尔说。“通常,我们看到的情况是,对于这些组织,我们的法律团队、安全团队已经进行了广泛的审查。所以,我们只需要做一部分增量工作。”
利用现有的风险框架,如美国国家标准与技术研究院(NIST)的AI风险管理框架。
“开始弄清楚哪些部分对你来说更重要,哪些对你来说是真正关键的,并开始通过这些过滤器来使用所有传入的工具。”考尔说。
采取这种方法需要跨学科的努力。AI正在整个企业中应用。不同的团队会以不同的方式定义和理解风险。
“拉入你的安全团队、开发团队、业务团队,并有一个想要改进的流程的视线,从这个角度逆向工作。”斯旺森建议。
AI为企业带来了惊人的机遇,而我们才刚刚开始探索这一学习曲线,但无论你是否看到,安全风险都将是这场对话中不可或缺的一部分。
“企业中不存在没有安全的AI。为了发挥AI的价值,它必须是安全、可靠和受信任的。”斯旺森说。