写点什么

第 50 期|GPTSecurity 周报

作者:云起无垠
  • 2024-05-07
    北京
  • 本文字数:1712 字

    阅读完需:约 6 分钟

第50期|GPTSecurity周报


GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。


Security Papers


1. 针对硬件安全的进化型大语言模型:一项比较性调查研究

简介:在芯片制造前自动化检测和缓解硬件安全漏洞至关重要,因为后期修复成本高昂且不现实。现代硬件的复杂性也增加了未知漏洞的风险。大语言模型(LLM)在半导体领域中,有潜力自动纠正设计中的安全漏洞。本研究聚焦于 LLM 在寄存器传输级设计中的应用,评估其独立解决安全漏洞的能力,并探讨了方法论、可扩展性、可解释性,以及未来的研究方向,旨在通过特定领域知识提升模型性能,实现硬件安全的自动化测量和风险缓解。

链接:

https://arxiv.org/pdf/2404.16651


2. 大语言模型中的机器遗忘

简介:大语言模型(LLMs)因能自动生成智能内容而备受瞩目,但也面临安全和隐私挑战。为应对这些问题,本文提出了一个机器遗忘框架,旨在防止 LLMs 生成有害、幻觉或侵犯隐私的响应,同时保留其标准输出功能。通过评估模型识别需遗忘的对话,并利用距离损失和簇均值正损失引导模型输出向更优结果,而不损害其推理和性能。实验证明,该方法能有效实现遗忘目标,且对模型性能影响不大。

链接:

https://arxiv.org/pdf/2404.16841


3. 用于大语言模型(LLMs)的快速自适应对抗性提示

简介:大语言模型(LLMs)虽取得显著进展,但易受越狱攻击影响,产生不当内容。传统手动寻找对抗性提示方法效率低下。自动生成对抗性提示易被检测,且扩展性差。本文提出 AdvPrompter,一种新型 LLM,能在几秒内生成易读的对抗性提示,速度提升约 800 倍。AdvPrompter 采用无需目标 LLM 梯度信息的新算法训练,通过优化预测和微调两个步骤生成后缀,使目标 LLM 在不改变输入指令含义的情况下生成有害响应。实验显示,AdvPrompter 在 AdvBench 数据集上达到最佳效果,并可迁移至闭源 LLM API。此外,通过在 AdvPrompter 生成的合成数据集上微调,LLMs 可增强对越狱攻击的鲁棒性,同时保持高性能。

链接:

https://arxiv.org/pdf/2404.16873


4. 针对大语言模型第三方 API 的攻击

简介:大语言模型(LLM)服务通过插件生态系统与第三方 API 服务交互,虽然增强了功能,但也带来了安全风险。本文提出了一个新框架,专门用于检测整合第三方服务的 LLM 平台的安全漏洞。研究团队在多个领域识别出真实世界的恶意攻击,这些攻击能够悄无声息地改变 LLM 的输出结果。文章讨论了第三方 API 集成所面临的挑战,并提出了加强 LLM 生态系统安全性和安全性的战略性建议。相关代码已在指定网址发布。

链接:

https://arxiv.org/pdf/2404.16891


5. 在由大语言模型(LLM)支持的应用程序中的人类不可感知的检索投毒攻击

简介:当前,借助先进的大语言模型(LLM)应用开发框架,应用程序能轻松利用检索增强生成(RAG)技术扩展 LLM 知识库。但这些框架未充分考虑外部内容风险,易受攻击者破坏。本文揭示了一种名为“检索投毒”的新威胁,攻击者可通过 RAG 过程诱导应用产生恶意回应。攻击者分析框架后,制作出看似无害却能误导 RAG 参考源的文档,导致应用生成错误响应。初步实验显示,攻击者能以 88.33%的成功率误导 LLM,现实应用中成功率达 66.67%,突显了检索投毒的严重性。

链接:

https://arxiv.org/pdf/2404.17196


6. FormAI-v2 数据集:标记由大语言模型生成的代码中的漏洞

简介:本研究对当前先进的大语言模型(LLMs)进行了比较分析,探讨了它们在无特定指令下编写简单 C 程序时产生安全漏洞的倾向。先前研究中对这些模型生成的代码安全性缺乏深入探讨,本研究填补了这一空白。基于 PROMISE '23 上介绍的 FormAI 数据集,本研究扩展出了 FormAI-v2,包含 265,000 个由不同 LLMs 生成的 C 程序,并通过高效 SMT 模型检查器(ESBMC)进行形式验证,标记了源代码中的漏洞。研究发现,至少 63.47%的程序存在安全漏洞,不同模型间的差异不大。研究结果表明,尽管 LLMs 在代码生成上展现出巨大潜力,但在生产环境中应用其生成的代码前,必须进行风险评估和验证。

链接:

https://arxiv.org/pdf/2404.18353


编辑:小椰风


用户头像

云起无垠

关注

定义开发安全新范式 2022-10-14 加入

云起无垠致力于为企业提供自动化安全检测能力,让企业更安全,让安全更智能。

评论

发布
暂无评论
第50期|GPTSecurity周报_云起无垠_InfoQ写作社区