关键讯息,D1时间送达!
随着项目的失败和一系列安全挑战的出现,企业在确保稳健的AI创新和安全战略方面有一长串且不断增长的任务清单,CISO经常强调五个优先事项。AI治理模型必须始于业务和技术团队之间就AI如何以及在哪里用于支持企业使命达成的一致,为了实现这一点,CISO应与CIO合作,对业务领导者以及法律、财务等业务职能部门进行教育,以建立一个支持业务需求和技术能力的AI框架,该框架应遵循从构思到生产的生命周期,并包括伦理考虑、可接受的使用政策、透明度、监管合规性以及成功指标。
安全领导者必须成为AI的倡导者、风险专家、数据管理员、教育者和研究者,以下是如何引领你的企业走向更安全、更有效的AI使用之路。
当ChatGPT首次问世时,我询问了一个由CISO组成的小组,这对他们的网络安全计划意味着什么。他们认识到了即将到来的变化,但回顾了过去的颠覆性技术,如iPods、Wi-Fi接入点和SaaS应用程序进入企业界的情况。大家的共识是,安全AI将成为一个类似的颠覆者,因此他们认为80%(或更多)的AI安全要求已经到位。诸如强大的资产清单、数据安全、身份治理、漏洞管理等安全基础,将作为AI网络安全的基础。
快进到2025年,我的CISO朋友们说得对——但又不完全对。确实,一个健全且全面的企业安全计划可以作为AI安全的锚点,但剩下的20%比最初想象的要更具挑战性。AI应用正在迅速扩大攻击面,同时还将攻击面扩展到第三方合作伙伴,以及深入到软件供应链内部,这意味着有限的可见性和盲点。AI通常根植于开源和API连接性,因此可能到处都存在影子AI活动。最后,AI创新正在迅速推进,使得负担过重的安全团队难以跟上步伐。
除了AI的技术方面外,值得注意的是,许多AI项目最终都以失败告终。根据标准普尔全球市场情报(S&P Global Market Intelligence)的研究,2025年有42%的企业关闭了大部分AI倡议(相比之下,2024年这一比例为17%)。此外,近一半(46%)的企业在AI概念验证还未进入生产阶段就已叫停。
为什么这么多AI项目会失败?行业研究指出,成本、数据质量差、缺乏治理、人才缺口以及扩展问题等是主要原因。
随着项目的失败和一系列安全挑战的出现,企业在确保稳健的AI创新和安全战略方面有一长串且不断增长的任务清单。当我最近与我的CISO朋友们会面时,他们经常强调以下五个优先事项:
1. 以强大的治理模型为起点
需要明确的是,我所说的不仅仅是技术或安全。事实上,AI治理模型必须始于业务和技术团队之间就AI如何以及在哪里用于支持企业使命达成的一致。
为了实现这一点,CISO应与CIO合作,对业务领导者以及法律、财务等业务职能部门进行教育,以建立一个支持业务需求和技术能力的AI框架,该框架应遵循从构思到生产的生命周期,并包括伦理考虑、可接受的使用政策、透明度、监管合规性以及成功指标。
在此过程中,CISO应审查现有的框架,如NIST AI风险管理框架、ISO/IEC 42001:2023、联合国教科文企业关于人工智能伦理的建议,以及RockCyber的RISE(研究、实施、维持、评估)和CARE(创建、采用、运行、进化)框架。企业可能需要创建一个适合其特定需求的“最佳”框架。
2. 全面且持续地了解AI风险
要掌握企业的AI风险,首先要从基础做起,如AI资产清单、软件物料清单、漏洞和暴露管理最佳实践以及AI风险登记册。除了基础卫生外,CISO和安全专业人员必须了解AI特有的威胁,如模型中毒、数据推断、提示注入等。威胁分析师需要跟上新兴的战术、技术和程序(TTP),这些用于AI攻击。MITRE ATLAS是一个很好的资源。
随着AI应用扩展到第三方,CISO将需要对第三方数据、AI安全控制、供应链安全等进行定制审计。安全领导者还必须关注新兴且经常变化的AI法规。欧盟AI法案是目前最全面的,强调安全性、透明度、非歧视性和环境友好性。其他法规,如科罗拉多州人工智能法案(CAIA),可能会随着消费者反应、企业经验和法律判例法的演变而迅速变化。CISO应预期其他州、联邦、地区和行业法规的出现。
3. 关注不断发展的数据完整性定义
你可能会认为这是显而易见的,因为机密性、完整性和可用性构成了网络安全的CIA三要素,但在信息安全领域,数据完整性一直侧重于未经授权的数据修改和数据一致性等问题。这些保护措施仍然是必要的,但CISO应扩大其视野,以包括AI模型本身的数据完整性和真实性。
为了说明这一点,这里有一些著名的数据模型问题示例。亚马逊创建了一个AI招聘工具,以帮助其更好地筛选简历并选择最合格的候选人。不幸的是,该模型主要使用男性导向的数据进行训练,因此它歧视女性申请者。同样,当英国创建一个护照照片检查应用程序时,其模型是使用白皮肤的人进行训练的,因此它歧视深色皮肤的人。
AI模型的真实性不是CISSP认证的一部分,但CISO必须将其作为AI治理责任的一部分来掌握。
4. 在所有层面追求AI素养
每个员工、合作伙伴和客户都将在某种程度上与AI合作,因此AI素养是一个高度优先事项。CISO应从自己的部门开始,对整个安全团队进行AI基础知识培训。
已建立的软件安全开发生命周期(SDLC)应进行修订,以涵盖AI威胁建模、数据处理、API安全等内容。开发者还应接受AI开发最佳实践的培训,包括大型语言模型(LLM)的OWASP十大安全风险、谷歌的安全AI框架(SAIF)以及云安全联盟(CSA)的指导。
最终用户培训应包括可接受的使用、数据处理、错误信息和深度伪造培训。来自Mimecast等供应商的人类风险管理(HRM)解决方案可能是跟上AI威胁并为不同个体和角色定制培训所必需的。
5. 对用于网络安全的AI技术保持谨慎乐观的态度
我会将今天的AI安全技术归类为更像是“驾驶员辅助”,如巡航控制,而非自动驾驶。尽管如此,事情正在迅速推进。
CISO应要求其员工识别离散的任务,如警报分类、威胁狩猎、风险评分和创建报告,在这些任务中他们可能需要一些帮助,然后开始研究这些领域的新兴安全创新。
同时,安全领导者应与领先的安全技术合作伙伴安排路线图会议。参加这些会议时,要准备好讨论具体需求,而不是听那些不切实际的PowerPoint演示。CISO还应直接询问供应商AI将如何用于现有技术的调优和优化。创新正在不断涌现,因此我认为值得在现有合作伙伴、竞争对手和初创企业中广泛寻找。
然而,要小心谨慎,许多AI“产品”实际上只是产品功能,AI应用需要大量资源,且开发和运营成本高昂。一些初创企业将被收购,但许多可能会迅速衰落。买家要当心!
未来的机遇
我将以一个预测来结束这篇文章,目前,约70%的CISO向CIO汇报工作,我相信,随着AI的普及,CISO的汇报结构将迅速发生变化,更多地将直接向CEO汇报,那些在AI业务和技术治理中发挥领导作用的人很可能会成为首批被提拔的人。
版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1net,如果不注明出处,企业网D1net将保留追究其法律责任的权利。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...