第 59 期|GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. 解释型恶意软件中的战术、技术和程序 (TTPs):基于大语言模型的零样本生成
简介:本文提出了将 MITRE ATT&CK 的战术、技术和程序(TTPs)引入解释型恶意软件分析,以表征攻击生命周期的不同阶段。研究者开发了 GENTTP,一种零样本生成方法,通过大语言模型(LLMs)从恶意软件包中自动提取 TTPs,输出欺骗性战术和攻击向量的执行战术。实验验证了 GENTTP 的高效性和准确性。基于 3,700 多个 PyPI 恶意软件的 TTPs,研究者构建了一个基于 LLM 的聊天机器人,并对大规模恶意软件 TTPs 进行了定量分析。主要发现包括:许多 OSS 恶意包共享相对稳定的 TTP,TTP 反映了攻击特征,且攻击者的意图与 TTP 相关。
链接:
https://arxiv.org/abs/2407.08532
2. eyeballvul:一个面向未来的野外漏洞检测基准
简介:最近的大语言模型(LLM)长上下文能力开启了一种新用例:要求模型在整个代码库中查找安全漏洞。为了评估模型在此任务中的表现,研究者引入了 eyeballvul:一个旨在大规模测试语言模型漏洞检测能力的基准,该基准每周从开源代码库中发布的漏洞流中获取并更新。基准包含不同代码库中的修订列表,每个修订都关联了已知漏洞列表。研究者使用基于 LLM 的评分器将模型返回的可能漏洞列表与每个修订的已知漏洞列表进行比较。截至 2024 年 7 月,eyeballvul 包含超过 24,000 个漏洞,跨越 6,000 多个修订和 5,000 多个代码库,总大小约为 55GB。
链接:
https://arxiv.org/abs/2407.08708
3. 使用大语言模型(LLM)反汇编混淆可执行文件
简介:反汇编混淆可执行文件是一项挑战,特别是当这些文件包含垃圾字节,旨在引发反汇编错误时。现有解决方案依赖启发式方法或机器学习技术,但效果有限。大语言模型(LLMs)的出现使得深入理解二进制可执行文件的语义成为可能。本文介绍了 DisasLLM,一种新型的基于 LLM 的反汇编器,专为分析混淆可执行文件设计。DisasLLM 包含两个主要组件:一个基于 LLM 的分类器,用于判断汇编代码片段中的指令是否正确解码,以及一种利用该模型的端到端反汇编策略。研究者在一组高度混淆的可执行文件上对 DisasLLM 进行了评估,结果显示其显著优于其他最先进的反汇编解决方案。
链接:
https://arxiv.org/abs/2407.08924
4. 关于 LLM 应用商店的(不)安全性
简介:LLM 应用商店的快速增长引发了安全问题。在本研究中,研究者提出了一个三层框架来识别 LLM 应用的潜在安全风险,包括具有滥用潜力、恶意意图和可利用漏洞的应用。研究者在五个月内从六大应用商店(GPT Store、FlowGPT、Poe、Coze、Cici 和一个 HTTP URL)收集了 786,036 个 LLM 应用。通过静态和动态分析,开发了包含 31,783 个条目的有害词典(ToxicDict),并使用自动监控工具识别和缓解威胁。研究发现,15,146 个应用存在误导性描述,1,366 个应用违规收集敏感信息,15,996 个应用生成仇恨言论、自残和极端主义等有害内容。此外,有 616 个应用可用于生成恶意软件和网络钓鱼。研究结果强调了制定强有力监管框架和增强执行机制的紧迫性。
链接:
https://arxiv.org/abs/2407.08422
5. TDML -- 一个值得信赖的分布式机器学习框架
简介:近年来,深度学习研究迅速发展,推出了如 OpenAI 的 SORA 和 GPT、Meta AI 的 LLAMA 系列以及 Google 的 FLAN、BART 和 Gemini 等大型模型。然而,这些模型的发展加剧了对计算资源,特别是 GPU 的需求,而供应链延误和大公司垄断进一步加剧了这一问题。分布式机器学习(DML)方法如联邦学习(FL)通过将数据和模型分布到多个服务器上来缓解这些挑战,但实现复杂的优化仍然困难。区块链技术作为有前景的解决方案,可以确保数据完整性、可扩展性和可信度,但缺乏实际指导。本文提出了一个值得信赖的分布式机器学习(TDML)框架,利用区块链协调远程训练者并验证工作负载,实现隐私、透明和高效的模型训练。实验结果显示,TDML 在性能提升和恶意节点检测方面表现优异,是可扩展、安全的分布式机器学习解决方案。
链接:
https://arxiv.org/abs/2407.07339
6. 安全代码生成的提示技术:一项系统性研究
简介:大语言模型(LLMs)在软件开发中越来越受欢迎,通过提示驱动编程使开发者能够从自然语言(NL)指令中生成代码。然而,研究质疑其生成安全代码的能力,影响了提示生成的软件质量。各种提示技术已经出现,以优化 LLMs 的响应,但这些策略与安全代码生成之间的关系仍未得到充分探索。本研究旨在探讨不同提示技术对 LLMs 生成代码安全性的影响。研究者首先进行系统文献综述,确定现有的提示技术,然后在 GPT-3、GPT-3.5 和 GPT-4 模型上评估部分技术的安全代码生成效果。使用包含 150 个与安全相关的代码生成提示的数据集,结果显示,特别是“递归批评和改进”(RCI)技术能显著减少安全弱点,为 LLM 生成代码的安全性提供了宝贵见解。
链接:
https://arxiv.org/abs/2407.07064
7. PEER:通过多智能体框架和调整方法实现领域特定任务的专家化
简介:在特定领域应用中,尽管 GPT-4 通过精确提示或检索增强生成(RAG)展现出潜力,但面临性能、成本和数据隐私的三难困境。高性能需要复杂处理技术,而管理多个智能体的复杂流程往往昂贵且具挑战性。研究者引入了 PEER(计划、执行、表达、评审)多智能体框架,通过精确问题分解、信息检索、综合总结和自我评估来系统化领域特定任务。企业为平衡成本、安全和性能,正在从 GPT-4 转向自定义模型。研究者开发了利用在线数据和用户反馈的高效模型调整方法。本研究为领域特定问题解决中的多智能体系统应用及有效调整策略提供了指南。实证研究表明,特别是在金融问答领域,研究者的方法在管理成本和确保数据隐私的同时,达到了 GPT-4 性能的 95.0%。
链接:
评论