AI 日报

流行的AIGC项目构成了严重的安全威胁




大型语言模型的进步 


AIGC 如今越来越受欢迎,它使人们能够以前所未有的方式创造、互动和消费内容。随着大型语言模型 (例如 GPT) 的显著进步,AIGC 系统现在拥有生成类似人类的文本、图像甚至代码的能力。集成了这些技术的开源项目的数量正在呈指数级增长。


例如,自从 OpenAI 公司七个月前首次推出 ChatGPT 以来,GitHub 上现在有 30000 多个开源项目使用 GPT-3.5 系列的 LLM。


尽管用户对这些技术的需求激增,但 GPT 和 LLM 项目给使用它们的用户带来了各种安全风险,其中包括信任边界风险、数据管理风险、固有模型风险以及一般安全问题。


AIGC 安全风险


早期采用 AIGC 或任何新生技术 (特别是 LLM),需要在整个软件开发生命周期中进行全面的风险评估并遵守稳健的安全实践。通过对安全风险给予应有的关注,企业可以就是否以及如何采用 AIGC 解决方案做出明智的决定,同时坚持最高标准的审查和保护。


Rezilion 公司漏洞研究总监 Yotam Perkal 表示:“AIGC 的应用越来越普遍,但它还不成熟,而且极易存在风险。除了固有的安全问题之外,个人和企业在没有适当安全护栏的情况下为这些 AI 模型提供了过度的访问和授权。通过我们进行的研究,旨在传达使用不安全的 AIGC 和 LLM 的开源项目也具有较差的安全态势。这些因素导致企业面临重大风险。”


从安全教育到安全意识


Rezilion 公司的研究团队调查了 GitHub 上 50 个最受欢迎的 AIGC 项目的安全状况。该研究利用开源安全基金会记分卡客观地评估了 LLM 开源生态系统,并强调了许多基于 LLM 的项目缺乏成熟度、基本安全最佳实践的差距以及潜在的安全风险。


这一调查结果突出了人们的担忧,揭示了得分较低的非常新的和受欢迎的项目:


・非常受欢迎,平均有 15909 颗星。


・极度不成熟,平均时间为 3.77 个月。


・安全状况非常差,平均得分为 4.60 分 (满分为 10 分),以任何标准衡量都很低。例如,GitHub 上最受欢迎的基于 GPT 的项目 Auto-GPT,拥有超过 13.8 万颗星,不到三个月的时间,记分卡得分为 3.7。


对于 AIGC 系统的安全部署和操作,Rezilion 公司建议采用以下最佳实践和指南:教育团队了解采用任何新技术相关的风险;评估和监控与 LLM 和开源生态系统相关的安全风险;实施稳健的安全实践,进行彻底的风险评估,并培养安全意识的企业文化。


虽然在采用 AIGC 模型及其生态系统方面存在重大的安全挑战,但 AI 技术具有强大的功能和能力,并且将会继续发展下去。