OWASP Top 10 for LLM 公布,了解大模型语言风险


开放全球应用程序安全项目 (OWASP) 是一个致力于提高软件安全性的非营利基金会,以 OWASP Top 10 最为著名 —— 这是一份定期更新的 Web 应用程序中十大最关键安全风险的列表,目前已成为行业标准。

日前,OWASP 与近 500 名相关专家合作,最新发布了 Top 10 for LLM 的 1.0 版本,专门针对大语言模型(LLM)应用相关风险。旨在为开发人员、数据科学家和安全专家提供实用、可操作和简明的安全指南,帮助他们驾驭复杂多变的 LLM 安全领域。

“急于利用 LLM 潜力的企业正在迅速将 LLM 整合到其运营和面向客户的产品中。然而,LLM 被采用的速度之快已经超过了建立全面安全协议的速度,导致许多应用容易出现高风险问题。”

根据该列表,排名前 10 位的漏洞分别是:

  • 提示注入 (Prompt Injection)。狡猾的输入可以操纵大型语言模型,导致意想不到的操作。直接注入会覆盖系统提示,而间接注入则会操纵来自外部的输入。
  • 不安全的输出处理。当 LLM 输出未经审查即被接受,从而暴露后端系统时,就会出现此漏洞。滥用可能导致严重后果,如 XSS、CSRF、SSRF、权限升级或远程代码执行。
  • 训练数据投毒。当 LLM 训练数据被篡改,引入漏洞或偏差,危及安全性、有效性或道德行为时,就会发生这种情况。来源包括 Common Crawl、WebText、OpenWebText 和书籍。
  • 模型拒绝服务。攻击者在大语言模型上进行资源密集型操作,导致服务质量下降或高成本。由于型语言模型的资源密集性和用户输入的不可预测性,这种漏洞就会被放大。
  • 供应链漏洞。LLM 应用程序生命周期可能会受到易受攻击的组件或服务的影响,从而导致安全攻击。使用第三方数据集、预训练的模型和插件会增加漏洞。
  • 敏感信息泄露。LLM可能在其回应中透露机密数据,导致未经授权的数据访问、隐私侵犯和安全漏洞。为减少这种情况的发生,实施数据清理和严格的用户政策至关重要。
  • 不安全的插件设计。LLM 插件可能存在不安全的输入和访问控制不足。这种应用程序控制的缺失使它们更易于被利用,并可能导致远程代码执行等后果。
  • 过度代理。基于 LLM 的系统可能会采取导致意外后果的行动。问题源于授予基于 LLM 的系统过多的功能、权限或自主权。
  • 过度依赖。系统或人员过度依赖 LLM 而没有进行监督,可能会因为 LLM 生成的错误或不适当的内容,面临信息误导、沟通失误、法律问题和安全漏洞。
  • 模型盗窃 (Model Theft)。这涉及到未经授权的访问、复制或外泄专有的LLM模型。其影响包括经济损失,竞争优势受损,以及可能接触到敏感信息。

每个漏洞都附有示例、预防技巧、攻击场景和参考,更多详情可查看完整列表。


相關推薦

2024-09-30

Gitee最有价值开源项目)由Gitee的GVP评审小组定期评审并公布,评估维度包括开发活跃度、用户积极反馈、文档质量、项目创意与独创性等。 MaxKB是一款基于大语言模型和RAG的开源知识库问答系统。MaxKB的产品命名内涵为“Max Know

2023-10-13

LLM 产业角度汇聚信息,而是希望让从事相关工作或是想了解 LLM 的技术人有一个快速感知。 核心价值:帮助技术人快速了解 LLM 的核心技术和关键方向。 LLM 技术图谱(LLM Tech Map)从基础设施、大模型、Agent、AI 编程、工具和

2024-07-06

Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户聊 支持多渠道: 平台

2024-07-13

Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI 助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户聊 支持多渠道: 平

2023-10-26

InfoWorld 公布了 2023 年最佳开源软件榜单,旨在表彰年度领先的软件开发、数据管理、分析、人工智能和机器学习开源工具。 InfoWorld 是致力于引领 IT 决策者走在科技前沿的国际科技媒体品牌,每年 InfoWorld 都会根据软件对开源

2024-08-22

Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户聊 支持多渠道: 平台

2023-06-16

初创公司 WhyLabs 宣布推出 LangKi,一个大语言模型 (LLM) 的可观察性和安全标准。LangKit 能够检测开源和专有 LLM 中的风险和安全问题,包括有毒语言、越狱、敏感数据泄露和幻觉。 根据介绍,LangKit 的一个核心卖点是它能够检

2024-01-16

关于CSGHub 大模型百花齐放的时代,数据和模型已成为企业和个人用户最核心的数字资产。然而,当前面临的挑战是模型文件和数据集的管理工具分散、管理手段单机化碎片化等问题。这些问题不仅带来了安全运营的巨大风险,

2024-08-07

Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户聊 支持多渠道: 平台

2023-04-06

四个阶段: 任务规划:使用 ChatGPT 分析用户的请求,了解他们的意图,并将其拆解成可解决的任务。 模型选择:为了解决计划的任务,ChatGPT 根据描述选择托管在 Hugging Face 上的 AI 模型。 任务执行:调用并执行每个选定

2024-08-01

试。测试模型的输入量从 1,000 到 100,000 token 不等,以了解短语境(少于 5k token)、中等语境(5k 到 25k token)和长语境(40k 到 100k token)的性能。 综合表现最佳模型: Anthropic 的 Claude 3.5 Sonnet。该闭源模型在短、中、

2023-10-18

告称,OpenAI 的 GPT-4 在发布八个月后仍然是最强的大语言模型(LLM),“在经典基准测试和旨在评估人类的考试中都击败了所有其他大模型”。 下面是这份报告的要点。 1、研究进展 GPT-4 登场,展示了专有技术与次优开源

2023-10-19

>>> 英伟达发布了 Windows 版本的 TensorRT-LLM 库,称其将大模型在 RTX 上的运行速度提升 4 倍。 GeForce RTX 和 NVIDIA RTX GPU 配备了名为 Tensor Core 的专用 AI 处理器,正在为超过 1 亿台 Windows PC 和工作站带来原生生成式 AI 的强大功能。

2023-03-16

更可靠、更有创意,并且能够处理更细微的指令。 为了了解这两种模型之间的区别,OpenAI 通过各种 benchmark 进行了测试,包括最初为人类设计的模拟考试。从下图可以看出,GPT-4 的成绩大部分都比 GPT-3 好。 GPT-4 也在多项测