找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 144|回复: 0

【AI安全策略】警惕“影子AI”:43%员工用私人设备工作,CIO的6大“化险为为夷”策略

[复制链接]
发表于 2025-11-30 10:45 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
——数据泄露风险激增!从“封堵”到“引导”,平衡创新与治理的风险管理手册

w1.jpg

各位CIO和技术领袖:

你正在面临一个熟悉的挑战,只是这次的主角是“影子AI”(Shadow AI)。

随着员工自行尝试生成式AI工具,风险正在急剧增加:《访问与信任差距》报告显示,43%的员工在个人设备上使用AI应用工作,25%使用未经批准的应用。虽然这通常是出于善意的创新,但也可能带来数据隐私、合规和安全方面的严重风险。

专家们认为,影子AI并非需要完全消除的。相反,它是需要理解、引导和管理的创新。

以下是领先的CIO和专家们提供的6个可操作策略,帮助你鼓励负责任的实验,同时保护敏感数据安全。
1. 🚨 策略一:分级管理——建立“批准、受限、禁止”的护栏



管理影子AI的第一步,是明确界限。West Shore Home的CTO Danny Fisher建议CIO将AI工具划分为三个简单类别:

    批准(Approved):经过审核和支持的工具。

    受限(Restricted):可在受控空间内使用(例如,只用虚拟数据),但有明确的限制。

    禁止(Forbidden):通常是公开或未加密的系统,应在网络或API层面被封锁。

【行动建议】将每种AI使用方式匹配到安全的测试空间(如内部OpenAI工作空间或安全的API代理),让团队能够自由实验,而不冒公司数据的风险。
2. 🛡️ 策略二:最小权限——强化数据保护与访问控制



专家们强调,抵御影子AI的基础是:数据丢失防护(DLP)、加密和最小权限

    外发DLP:使用DLP规则阻止个人信息、合同或源代码上传到未经批准的域名。外发DLP和内容检测是防止敏感数据外泄的关键。

    最小权限(Least Privilege):将第三方权限保持在最小权限。公司应将广泛的权限(如读写访问)视为高风险,需要明确批准,而狭义的只读权限则能更快推进。

    数据匿名化:Taylor补充说,安全性必须在不同环境中保持一致。加密所有静止、使用中和移动中的敏感数据。

3. 📊 策略三:持续可见性——将“影子”变为“地图”



CIO无法管理他们看不见的东西。保持准确、最新的AI工具库存是抵御影子AI最重要的防御措施之一。

    营造文化:最重要的是营造一种让员工愿意分享使用、而非隐瞒的文化。

    分层监控:将季度调查与自助登记册相结合,员工自己记录他们使用的AI工具。IT部门随后通过网络扫描、API监控和SIEM(安全信息与事件管理系统)等工具验证这些条目,创建一张清晰的“AI工具接触企业数据”地图。

    告别手动审计:Boome的Mani Gill认为,有效的库存管理需要超越定期审计,实现对整个数据生态系统的持续自动化可视化

4. 🤝 策略四:透明度优先——建立信任的AI文化



透明度是管理影子AI的关键。员工需要知道监控的内容和原因。

    信息公开:将治理方法发布在公司内联网上,并包含真实的AI善用和风险案例。

    无意外沟通:Taylor建议,明确交付尚未可用能力的路线图,并提供请求例外或新工具的流程。这种开放表明治理的存在是为了支持创新,而非阻碍创新

    治理小组:设立专门的治理小组(如人工智能治理委员会),不仅审视并处理风险,还解释其决策及其背后的原因,帮助创造透明度和共同责任。

    【注:组织应展示如何在未来逐步实现目前尚不可用的AI能力,这个路线图应该包括目标、里程碑、预期的时间表和所需资源。通过这种方式,员工可以了解组织在AI领域的发展方向和计划,以及他们可以期待的新工具和技术。】


5. 🚦 策略五:明确界限——界定并传达风险承受能力



定义风险承受能力不仅是控制,更是沟通。Fisher建议CIO将风险承受能力与数据分类挂钩,而非个人意见。

    颜色编码系统:采用简单的颜色编码系统:绿色代表低风险(如营销内容),黄色代表必须使用批准工具的内部文件,红色代表禁止与AI系统一起使用的客户或财务数据。

    治理委员会的作用:当潜在风险出现时,将其提交治理委员会讨论,协作制定减缓策略。这种平衡有助于管理风险,同时抑制创新

6. 🎣 策略六:持续培训——将“合规”与“生产力”结合



培训是防止AI工具意外滥用的最有效方法之一。关键是简洁、相关且反复出现

    角色驱动:将训练要简短、视觉化且针对特定角色

    嵌入工作流:Taylor建议将培训嵌入浏览器中,让员工能直接在所用工具中学习最佳实践。

    提升效益:Gill指出,培训应将负责任的使用与绩效成果相结合。“员工需要明白合规与生产力是协同工作的,”他说。


全文:CIO 有效管理影子人工智能的 6 种策略

领先的 CIO 和专家提供可作的指导,帮助在人工智能时代平衡创新与数据保护。



图源:Shutterstock

随着员工自行尝试生成式人工智能(Gen AI)工具,首席信息官(CIO)们正面临着与影子AI的熟悉挑战。虽然这通常是出于善意的创新,但也可能带来数据隐私、合规和安全方面的严重风险。

根据 1Password 2025 年年度报告《访问与信任差距》,影子人工智能增加了组织的风险,因为 43%的员工在个人设备上使用 AI 应用工作,而 25%的人在工作中使用未经批准的 AI 应用

尽管存在这些风险,专家表示,影子人工智能并非完全可以消除的。相反,它是需要理解、引导和管理的东西。以下是六个策略,可以帮助 CIO 鼓励负责任的实验,同时保护敏感数据安全。

1. 建立明确的界限,留有实验空间

管理影子人工智能首先要明确哪些内容是允许的,哪些是不允许的。West Shore Home 的首席技术官 Danny Fisher 建议 CIO 将 AI 工具分为三类:批准、受限和禁止

“批准的工具都会经过审核和支持,”他说。“受限工具可以在受控空间内使用,有明确的限制,比如只用虚拟数据。”“禁止工具通常是公开或未加密的人工智能系统,应在网络或 API 层面被封锁。”

他补充说,将每种 AI 使用方式匹配到安全的测试空间,比如内部 OpenAI 工作空间或安全的 API 代理,使团队能够自由实验,而不冒着公司数据的风险。

SAP 公司 LeanIX 的首席企业架构师 Jason Taylor 表示,在当今快速变化的人工智能世界中,明确的规则至关重要。

他说:“要明确哪些工具和平台是获批的,哪些不是。”“还要明确哪些场景和用例是获批的,哪些不被批准,以及员工在使用人工智能时如何处理公司数据和信息,比如一次性上传,而不是剪贴或深度集成。”

Taylor 补充说,公司还应制定一份清晰的清单,说明哪些类型的数据安全,哪些不适合使用,以及在何种情况下使用。现代数据丢失预防工具可以通过自动查找和标记数据,以及对谁可以访问内容实施最低权限或零信任规则来提供帮助。

巴布森学院首席信息官 Patty Patria 指出,CIO 们为无代码/低代码 AI 工具和氛围编码平台建立具体的保护措施也很重要。

她说:“这些工具使员工能够快速原型设计想法并尝试 AI 驱动的解决方案,但它们在连接专有或敏感数据时也带来了独特的风险。”

为应对这一问题,Patria 表示,公司应建立安全层,允许人们安全地自行实验,但每当有人想将 AI 工具连接到敏感系统时,仍需额外审查和批准。

“例如,我们最近为员工制定了明确的内部指导,明确何时应让安全团队参与应用审查,以及何时可以自主使用这些工具,确保创新和数据保护都被优先考虑,”她说。“我们还维护一份支持的 AI 工具清单,如果风险太大就不推荐使用。”

2. 保持持续的可见性和库存跟踪

CIO 无法管理他们看不见的东西。专家表示,保持准确、最新的 AI 工具库存是抵御影子 AI 最重要的防御措施之一。

“最重要的是营造一种让员工愿意分享使用而非隐瞒的文化,”Fisher 说。他的团队将季度调查与自助登记册相结合,员工记录他们使用的人工智能工具。IT 部门随后通过网络扫描和 API 监控验证这些条目。

品牌制造商 Bamko 的 IT 副总裁 Ari Harrison 表示,他的团队采取分层方法来保持可见性。

“我们通过从 Google Workspace 的连接应用视图中提取这些事件,并将这些事件传输到我们的 SIEM(安全信息与事件管理系统)中,来维护一个连接应用的活注册表,”他说。“Microsoft 365 提供了类似的遥测功能,云访问安全代理工具可以在需要时补充可见性。”

这种分层的方法为 Bamko 提供了清晰的地图,清楚知道哪些 AI 工具正在接触企业数据,谁授权它们,以及它们拥有哪些权限。

云端 iPaaS Boomi 产品高级副总裁 Mani Gill 认为,手工审计已不再足够。

“有效的库存管理需要超越定期审计,实现对整个数据生态系统的持续自动化可视化,”他说,并补充说,良好的治理政策确保所有 AI 代理,无论是获批还是内置于其他工具中,都通过一个中心平台发送数据。这让组织能够即时、实时地了解每个代理(智能体)的工作、使用了多少数据以及是否遵守规则。

Tanium 首席安全顾问 Tim Morris 同意,持续在每个设备和应用中进行发现是关键。“人工智能工具可能一夜之间出现。”“如果你的环境中出现新的 AI 应用或浏览器插件,你应该立刻知道。”

3. 加强数据保护和访问控制

在防止数据暴露于影子 AI 暴露方面,专家们都强调同一基础:数据丢失防护(DLP)、加密和最小权限(least privilege)

“使用 DLP 规则阻止个人信息、合同或源代码上传到未经批准的域名,”Fisher 说。他还建议在敏感数据离开组织前对其进行隐藏,并启用日志和审计追踪,以追踪经批准的 AI 工具中的每一个提示和响应。

Harrison 也呼应了这一做法,指出 Bamko 关注的是实际中最重要的安全控制:外发 DLP 和内容检测以防止敏感数据外泄;OAuth 治理,将第三方权限保持在最低权限;以及限制访问权限,限制机密数据只能上传其生产力套件中获批准的 AI 连接器。

此外,公司将广泛的权限(如对文档或电子邮件的读写访问)视为高风险且需要明确批准,而狭义的只读权限则能更快推进。

“目标是让日常创意安全,同时减少一次点击让 AI 工具获得超出预期能力的可能性,”他说。

Taylor 补充说,安全性必须在不同环境中保持一致。“加密所有静止、使用中和移动中的敏感数据,采用最小权限和零信任策略来管理数据访问权限,并确保 DLP 系统能够扫描、标记和保护敏感数据。”

他指出,企业应确保这些控制在桌面、移动和网页上保持一致,并持续检查和更新,以应对新情况。

【注:Bamko 关注的安全控制措施涵盖了数据保护和访问控制的关键方面,以确保敏感信息的安全。以下是对这些安全控制措施的解释:

1.外发数据丢失防护(DLP)和内容检测以防止敏感数据外泄:

      外发DLP:这是一种数据丢失防护技术,专注于监控和保护从组织内部流向外部的数据。它可以帮助防止敏感信息(如客户数据、知识产权等)通过电子邮件、即时消息、社交媒体等途径被不当共享或泄露。


    内容检测:这是一种技术,用于扫描和分析数据内容,以识别和分类敏感信息。通过内容检测,组织可以自动发现和标记包含敏感数据的文件或通信,从而采取相应的保护措施,如阻止传输、加密或标记警告。

OAuth治理,将第三方权限保持在最低权限:

      OAuth:是一种授权框架,允许第三方应用访问用户在另一个服务上的数据,而无需用户提供用户名和密码。例如,允许一个应用访问用户的社交媒体账户数据。


    OAuth治理:是指管理和监控第三方应用的OAuth权限,确保它们只能访问必要的数据,并且权限最小化。这有助于减少数据泄露的风险,因为即使第三方应用被攻击,攻击者也只能访问有限的数据。

2.限制访问权限,限制机密数据只能上传其生产力套件中获批准的AI连接器

      访问权限限制:这意味着对谁可以访问敏感数据进行严格控制。只有经过授权的用户才能访问特定的数据,从而减少数据泄露和滥用的风险。


    AI连接器:是指连接不同系统和应用程序的中间件,以便它们可以交换数据和功能。在这种情况下,AI连接器可能用于将生产力套件(如Microsoft Office 365或Google Workspace)与AI服务(如机器学习模型)连接起来。获批准的AI连接器组织应该只允许使用经过审查和批准的AI连接器,以确保它们符合安全标准和合规要求。这有助于防止敏感数据被未经授权的AI服务访问或处理。

总的来说,这些安全控制措施旨在保护敏感数据不被泄露或滥用,同时确保第三方应用和AI服务的安全和合规使用。通过实施这些措施,组织可以降低数据泄露和安全事件的风险,保护其业务和客户信息的安全。】

4. 明确界定并传达风险承受能力

定义风险承受能力不仅是控制,更是沟通。Fisher 建议 CIO 将风险承受能力与数据分类挂钩,而非意见。他的团队采用简单的颜色编码系统:绿色代表低风险活动(如营销内容),黄色表示必须使用批准工具的内部文件,红色表示客户或财务数据,这些数据无法与 AI 系统一起使用。

莫里斯说:“风险承受能力应建立在商业价值和监管义务之上。”和 Fisher 一样,莫里斯建议将人工智能的使用划分为明确的类别:哪些允许,哪些需要批准,哪些是禁止的,并通过领导层简报、入职培训和内部门户传达这一框架。

Patria 表示,巴布森的人工智能治理委员会在这一过程中发挥着关键作用。“当潜在风险出现时,我们会将其提交委员会讨论,并协作制定减缓策略,”她说。“在某些情况下,我们决定禁止教职员工使用工具,但允许它们在课堂内使用。”“这种平衡有助于管理风险,同时抑制创新。”

5. 促进透明度和信任文化

透明度是管理影子人工智能的关键。员工需要知道监控的内容及其原因。

“透明度意味着员工始终知道什么是允许的、哪些内容被监控以及原因,”Fisher 说。“在公司内联网发布你的治理方法,并包含真实的 AI 善用和风险案例。这不是抓人的问题。”“你正在建立对使用人工智能安全且公平的信心。”

Taylor 建议发布一份官方认可的 AI 产品列表并保持更新。“明确交付尚未可用能力的路线图,并提供请求例外或新工具的流程。” 他说。“这种开放表明治理的存在是为了支持创新,而非阻碍创新。”

Patria 说,除了技术控制和明确政策外,设立专门的治理小组,如人工智能治理委员会,可以大大提升组织管理影子人工智能风险的能力。

“当潜在风险出现,比如对 DeepSeek 和 Fireflies.AI 等工具的担忧时,我们会协作制定缓解策略,”她说。

Patria 补充说,该治理小组不仅审视并处理风险,还解释其决策及其背后原因,帮助创造透明度和共同责任。

Morris 同意了。“透明意味着没有意外。员工应了解哪些 AI 工具获批、决策过程,以及问题或新想法该去哪里,”他说。

6. 构建连续的基于角色的人工智能训练

培训是防止人工智能工具意外滥用的最有效方法之一。关键是简洁、相关且反复出现。

“训练要简短、视觉化且针对特定角色,”Fisher 说。“避免冗长的幻灯片,使用故事、快速演示和清晰的示例。”

Patria 说 Babson 将 AI 风险意识融入年度信息安全培训,并定期发送关于新工具和新兴风险的通讯。

“定期培训旨在确保员工了解获批的人工智能工具和新兴风险,同时鼓励部门 AI 倡导者促进对话并分享实践经验,强调人工智能采用的益处与潜在风险,”她补充道。

Taylor 建议将培训嵌入浏览器中,让员工能直接在所用工具中学习最佳实践。“剪切粘贴到网页浏览器或拖放演示文稿似乎无害,直到你的敏感数据离开了你的生态系统,”他说。

Gill 指出,培训应将负责任的使用与绩效成果相结合。

“员工需要明白合规与生产力是协同工作的,”他说。“获批的工具相比影子人工智能,能带来更快的结果、更高的数据准确性以及更少的安全事件。基于角色的持续培训可以展示护栏和治理如何保护数据和效率,确保 AI 加速工作流程而非制造风险。”

负责任地使用人工智能是好生意

归根结底,管理影子人工智能不仅仅是降低风险,更是支持负责任的创新。专注于信任、沟通和透明度的 CIO 能够将潜在问题转化为竞争优势。

“当系统给出他们想要的东西时,人们通常不会试图反抗系统,尤其是当用户在采用影子 AI 方法时会遇到更多阻力,”Taylor 说。

Morris 同意。“目标不是吓唬人们,而是让他们在行动前三思,”他说。“如果他们知道批准的路径既简单又安全,他们就会选择。”

这正是 CIO 们应努力的未来:一个人们可以安全创新、被信任去尝试并保护数据的地方,因为负责任的 AI 使用不仅仅是合规,更是良好的商业行为。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-12-8 16:28 , Processed in 0.085403 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表