扫一扫
关注微信公众号

到2027年,40%人工智能数据泄露将来自跨境GenAI滥用
2025-03-20   

  根据Gartner数据,到2027年超过40%的人工智能相关数据泄露将由跨境不当使用生成式人工智能(GenAI)引起。


  用户对GenAI技术的应用范围和速度超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力有限,引发了人们对数据本地化的担忧。

  Gartner副总裁分析师Joerg Fritsch表示:“由于监管不足,经常会发生意外的跨境数据传输,特别是当GenAI在没有明确描述或公告的情况下集成到现有产品中时。”“组织注意到员工使用GenAI工具生成的内容发生了变化。虽然这些工具可用于批准的业务应用程序,但如果向未知位置托管的AI工具和API发送敏感提示,则会带来安全风险。”

  全球人工智能标准化差距导致运营效率低下

  人工智能和数据治理缺乏一致的全球最佳实践和标准,导致市场碎片化,迫使企业制定针对特定地区的战略,从而加剧了挑战。这可能会限制他们在全球范围内扩展运营并从人工智能产品和服务中受益的能力。

  Fritsch说:“由于本地化的人工智能政策,管理数据流和保持质量的复杂性可能会导致运营效率低下。”“组织必须投资于先进的人工智能治理和安全,以保护敏感数据并确保合规性。这一需求可能会推动人工智能安全、治理和合规服务市场的增长,以及提高人工智能流程透明度和控制力的技术解决方案。”

  在人工智能治理成为全球任务之前,组织必须采取行动

  Gartner预测,到2027年,人工智能治理将成为全球所有主权人工智能法律法规的要求。

  Fritsch说:“无法整合所需治理模型和控制的组织可能会发现自己处于竞争劣势,尤其是那些缺乏快速扩展现有数据治理框架的资源的组织。”

  为了降低人工智能数据泄露的风险,特别是跨境滥用GenAI的风险,并确保合规性,Gartner建议企业采取以下几项战略行动:

  加强数据治理:组织必须确保遵守国际法规,并通过扩展数据治理框架来包括人工智能处理数据的指导方针,从而监控意外的跨境数据传输。这涉及将数据沿袭和数据传输影响评估纳入定期隐私影响评估。

  建立治理委员会:成立委员会以加强人工智能监督,并确保有关人工智能部署和数据处理的透明沟通。这些委员会需要负责技术监督、风险和合规管理以及沟通和决策报告。

  加强数据安全:使用先进技术、加密和匿名化来保护敏感数据。例如,验证特定地理区域的可信执行环境,并在数据必须离开这些区域时应用高级匿名技术,如差分隐私。

  投资TRiSM产品:规划和分配针对人工智能技术量身定制的信任、风险和安全管理(TRiSM)产品和功能的预算。这包括人工智能治理、数据安全治理、即时过滤和编辑以及非结构化数据的合成生成。Gartner预测,到2026年,应用人工智能TRiSM控制的企业将减少至少50%的不准确或非法信息,从而减少错误决策。

热词搜索:人工智能 数据泄露 GenAI

上一篇:金融机构如何最大程度地减少攻击面
下一篇:最后一页

分享到: 收藏