扫一扫
关注微信公众号

流行的AIGC项目构成了严重的安全威胁
2023-08-07   企业网D1Net

大型语言模型的进步

AIGC如今越来越受欢迎,它使人们能够以前所未有的方式创造、互动和消费内容。随着大型语言模型(例如GPT)的显著进步,AIGC系统现在拥有生成类似人类的文本、图像甚至代码的能力。集成了这些技术的开源项目的数量正在呈指数级增长。

例如,自从OpenAI公司七个月前首次推出ChatGPT以来,GitHub上现在有30000多个开源项目使用GPT-3.5系列的LLM。

尽管用户对这些技术的需求激增,但GPT和LLM项目给使用它们的用户带来了各种安全风险,其中包括信任边界风险、数据管理风险、固有模型风险以及一般安全问题。

AIGC安全风险

早期采用AIGC或任何新生技术(特别是LLM),需要在整个软件开发生命周期中进行全面的风险评估并遵守稳健的安全实践。通过对安全风险给予应有的关注,企业可以就是否以及如何采用AIGC解决方案做出明智的决定,同时坚持最高标准的审查和保护。

Rezilion公司漏洞研究总监Yotam Perkal表示:“AIGC的应用越来越普遍,但它还不成熟,而且极易存在风险。除了固有的安全问题之外,个人和企业在没有适当安全护栏的情况下为这些AI模型提供了过度的访问和授权。通过我们进行的研究,旨在传达使用不安全的AIGC和LLM的开源项目也具有较差的安全态势。这些因素导致企业面临重大风险。”

从安全教育到安全意识

Rezilion公司的研究团队调查了GitHub上50个最受欢迎的AIGC项目的安全状况。该研究利用开源安全基金会记分卡客观地评估了LLM开源生态系统,并强调了许多基于LLM的项目缺乏成熟度、基本安全最佳实践的差距以及潜在的安全风险。

这一调查结果突出了人们的担忧,揭示了得分较低的非常新的和受欢迎的项目:

  • 非常受欢迎,平均有15909颗星。
  • 极度不成熟,平均时间为3.77个月。
  • 安全状况非常差,平均得分为4.60分(满分为10分),以任何标准衡量都很低。例如,GitHub上最受欢迎的基于GPT的项目Auto-GPT,拥有超过13.8万颗星,不到三个月的时间,记分卡得分为3.7。

对于AIGC系统的安全部署和操作,Rezilion公司建议采用以下最佳实践和指南:教育团队了解采用任何新技术相关的风险;评估和监控与LLM和开源生态系统相关的安全风险;实施稳健的安全实践,进行彻底的风险评估,并培养安全意识的企业文化。

虽然在采用AIGC模型及其生态系统方面存在重大的安全挑战,但AI技术具有强大的功能和能力,并且将会继续发展下去。


热词搜索:AIGC 安全威胁

上一篇:保障容器应用安全的六个建议
下一篇:最后一页

分享到: 收藏