第 27 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. 使用大型语言模型从隐私保护屏蔽中恢复
简介:在这项研究中,研究者提出了多种基于 LLM 的预训练和微调方法,并对各种数据集进行了实证研究。实验结果表明,在没有隐私保护的情况下,在模糊语料库上训练的模型能够获得与在原始数据上训练的算法相当的性能
链接:
https://arxiv.org/pdf/2309.08628.pdf
2. Hide and Seek (HaS):快速隐私保护的轻量级框架
简介:在本文中,研究者通过训练一个小的局部模型来匿名化 LLM 的返回结果,从而扩展了匿名化技术的应用场景。本文中以 HaS 框架为例,为了定量评估 HaS 的隐私保护性能,研究者提出了黑盒和白盒对抗性模型。通过实验结果表明,HaS 框架实现了隐私保护和效用之间的最佳平衡。
链接:
https://arxiv.org/pdf/2309.03057.pdf
3. 大语言模型驱动的智能合约漏洞检测:新视角
简介:本文系统分析了利用 GPT-4 等大型语言模型挖掘智能合约漏洞的机会、挑战和潜在解决方案。对于智能合约漏洞检测任务,实现实际可用性取决于识别尽可能多的真实漏洞,同时最大限度地减少误报数量。尽管如此,研究者仍有更矛盾的发现,为此他们提出了一种称为 GPTLENS 的对抗性框架,它将传统的一阶段检测分解为两个协同阶段——生成和区分,用于渐进检测和细化,其中 LLM 分别扮演两个角色,即 AUDITOR 和 CRITIC。实验结果和示例表明,AUDITOR 和 CRITIC 协同工作,比传统的一阶段检测有显著的改进。
链接:
https://arxiv.org/pdf/2310.01152.pdf
4. HuntGPT:将基于机器学习的异常检测和可解释的人工智能与大型语言模型(LLM)集成
简介:在这项研究中,研究者介绍了 HuntGPT 的开发,这是一个专门的入侵检测仪表板。该工具集成了 SHAP 和 Lime 等 XAI 框架,增强了模型的用户友好性和直观性。当与 GPT-3.5 Turbo 对话代理相结合时,HuntGPT 旨在以易于解释的格式提供检测到的威胁,强调用户理解并提供流畅的交互体验。研究结果表明,以 LLM 技术为基础并与 XAI 集成的会话代理可以实现生成可解释和可操作的人工智能解决方案的 arobust 机制,特别是在入侵检测系统领域。
链接:
https://arxiv.org/pdf/2309.16021.pdf
5. 红队游戏:红队语言模型的博弈论框架
简介:本文提出了一种无需人工注释的通用算法框架——红队博弈(RTG)。RTG 是为分析红队语言模型(RLM)和蓝队语言模型(BLM)之间的多回合攻防交互而设计的。在 RTG 中,研究者提出了具有语义空间多样性度量的游戏化红队求解器(GRTS)。GRTS 是一种自动化红队技术,通过元博弈分析将 RTG 求解到纳什均衡,这与 RLM 和 BLM 理论保证的优化方向相对应。基于 RLM 的多回合攻击实验结果表明,GRTS 能够自主发现多种攻击策略,有效提高了 LLM 的安全性。总的来说,RTG 已经为团队任务建立了一个基本框架,并构建了一种新的可伸缩的对齐监督技术。
链接:
评论