扫一扫
关注微信公众号

Gartner:预计到2026年,30%的企业将因为AI生成的深度伪造而认为身份认证与验证解决方案无法起到可靠的隔离作用
2024-02-22   网络安全和运维

  根据Gartner公司的预测,到2026 年,30%的企业将因为人工智能(AI)生成的人脸生物识别深度伪造攻击而认为此类身份认证和验证解决方案不再能够起到可靠的作用。

  Gartner研究副总裁Akif Khan表示:“过去十年在AI领域出现的几个拐点使创建合成图像成为了可能。这些人工生成的真实人脸图像被称为深度伪造,恶意行为者可利用这个手段骗过生物识别身份验证或令其失效。其后果是,企业可能会因为身份认证和验证解决方案无法分辨被验证者的脸是真人还是深度伪造,而开始质疑它们的可靠性。”

  目前,使用人脸生物识别技术的身份认证和验证流程依赖于呈现攻击检测(PAD)评估用户的真实性。Khan表示:“数字注入攻击已经开始利用目前能够通过AI生成的深度伪造,而当前定义和评估PAD机制的标准与测试流程并未涵盖此类攻击。”

  Gartner的研究表明,虽绕呈现攻击是最常见的攻击载体,但注入攻击(IAD)在2023年增长了200%。为防范此类攻击,需要结合使用PAD、IAD与图像检测。

  通过结合使用

  为帮助企业防范能够骗过人脸生物识别技术的AI生成深度伪造威胁,首席信息安全官(CISO)与风险管理领导人必须选择能够证明自己具备超越当前标准的能力和计划,并且正在对这些新型攻击进行监视、分类和量化的厂商。

  Khan表示:“企业应该与专门投资于使用IAD和图像检测技术减少这种新型深度伪造威胁的厂商合作,开始制定最低的控制标准。”

  在制定战略和最低标准后,CISO和风险管理领导人必须添加设备识别、行为分析等额外的风险和识别信号,以便提高检测到身份验证流程受到攻击的几率。

  最重要的是,负责身份和访问管理的安全与风险管理领导人应该行动起来,通过选择能够验证真人的技术和落实防止账户接管的措施来降低AI深度伪造攻击所带来的风险。

  Gartner客户可以在“2024年预测:人工智能和网络安全——化变革为机遇”中了解更多信息。

热词搜索:Gartner

上一篇:中国市场解耦全球应用的三种方案
下一篇:最后一页

分享到: 收藏