写点什么

【论文速读】|用于安全代码评估的大语言模型:一项多语言实证研究

作者:云起无垠
  • 2024-10-10
    北京
  • 本文字数:2058 字

    阅读完需:约 7 分钟

【论文速读】|用于安全代码评估的大语言模型:一项多语言实证研究


基本信息


原文标题:Large Language Models for Secure Code Assessment: A Multi-Language Empirical Study


原文作者:Kohei Dozono, Tiago Espinha Gasiba, Andrea Stocco


作者单位:Technical University of Munich, Siemens AG, fortiss GmbH


关键词:大语言模型(LLMs),安全代码评估,漏洞检测,多语言实证研究


原文链接:https://arxiv.org/pdf/2408.06428v1


开源代码:暂无

论文要点


论文简介:

本文研究了大语言模型(LLMs)在多种编程语言中检测和分类软件漏洞的有效性。重点评估了 GPT-3.5 Turbo、GPT-4 Turbo、GPT-4o、CodeLlama-7B、CodeLlama-13B 和 Gemini 1.5 Pro 六种预训练 LLMs 在 Python、C、C++、Java 和 JavaScript 五种语言中的表现。


结果显示,GPT-4o 在漏洞检测和 CWE(Common Weakness Enumeration)分类中表现最佳,尤其在少样本学习下效果尤为显著。为进一步验证 LLMs 的实际应用价值,作者开发了名为 CODEGUARDIAN 的 VSCode 扩展,允许开发人员在代码编辑时实时扫描漏洞。实验表明,使用 CODEGUARDIAN 显著提高了检测准确性和效率。


研究目的:

本研究旨在评估 LLMs 在检测和分类多种编程语言漏洞中的有效性,弥补现有研究中主要集中于 C/C++代码的局限。通过实验,作者探讨了 LLMs 在不同语言和情境下的表现,并通过开发 CODEGUARDIAN 工具,验证其在工业应用中的潜力,以提升开发人员的安全意识和漏洞检测能力。


研究贡献:

1. 数据集贡献:构建了涵盖五种编程语言的多语言漏洞数据集,包含 370 多个手动验证的漏洞,支持自动化安全检测和分类技术的评估。

2. 评估贡献:进行了实证研究,评估了六种预训练 LLMs 在五种编程语言中的漏洞检测和分类能力。

3. 工具贡献:开发了名为 CODEGUARDIAN 的 VSCode 扩展,支持开发人员在代码编辑过程中实时使用 LLMs 进行漏洞扫描。

4. 用户研究:对 22 名工业开发人员进行了用户研究,分析了他们对 CODEGUARDIAN 的使用体验和反馈。

引言

软件漏洞允许攻击者控制系统、窃取数据或植入恶意软件。不同漏洞的性质和危害程度各异,但所有漏洞都对应用程序和其运行环境构成风险。多数研究集中在 C/C++代码的漏洞检测,其他语言的漏洞检测尚未得到充分探讨。为填补这一空白,本文评估了六种预训练大语言模型在五种编程语言中检测和分类常见弱点(CWE)的能力,并探讨其在工业中的应用潜力。

相关工作

传统的漏洞分析主要依赖静态(SAST)和动态(DAST)应用程序安全测试。SAST 检查源代码但不执行,侧重于语法和语义检查;DAST 则在运行时评估应用,模拟攻击者行为。然而,SAST 通常误报率高,而 DAST 容易漏报。深度学习技术近年来在漏洞检测中取得了进展,但其将代码视为线性序列,可能忽略复杂语义关系。相比之下,LLMs 无需显式训练,在漏洞检测中表现突出。本文探讨了 LLMs 在多语言环境下的应用,并特别关注数据集的质量和语言多样性。

实证研究

本研究设计了一系列实证研究,探讨了六种 LLMs 在多种编程语言中检测和分类漏洞的有效性。研究首先设计了代表性的数据集,涵盖五种常见编程语言中的 25 个最危险的 CWE 类别。数据集包括来自 CVEFixes、CWE-snippets 和 JavaScript Vulnerability DataSet(JVD)三个参考数据集的漏洞代码片段。为每种语言保留了相等数量的漏洞和非漏洞片段,确保了数据集的平衡性。


实验中的研究问题包括:


1. LLMs 在不同语言中检测 CWE 的效果如何?



2. LLMs 在分类 CWE 方面的准确性如何?不同语言之间的效果差异如何?



实验结果表明,在少样本学习设置下,LLMs 的表现显著优于零样本设置 。

实现结果

实验结果显示,GPT-4o 在漏洞检测和 CWE 分类任务中表现最佳,特别是在少样本学习设置下,其召回率和 F1 评分表现卓越。GPT-4 Turbo 在 Python 和 JavaScript 语言中表现突出,而 Gemini 1.5 Pro 在 Python 的 CWE 分类中表现优异。CodeLlama 模型在某些任务中的表现较弱,但在资源受限的环境中仍有潜力。总体而言,模型在不同语言中的表现差异显著,选择合适的模型需结合具体语言和任务需求。

用户研究

为评估 CODEGUARDIAN 的应用效果,研究进行了用户实验,涉及 22 名工业软件工程师。实验结果显示,使用 CODEGUARDIAN 的实验组在任务准确性上提高了 203%,完成时间缩短了 66%,显著提升了开发人员的漏洞检测效率,即使他们缺乏网络安全知识。

研究讨论

研究发现,不同 LLMs 在漏洞检测和 CWE 分类任务中的表现差异明显。GPT-4 系列在大多数语言中表现优异,尤其在召回率和 F1 评分上具有优势,但 GPT-4o 的高召回率伴随着精度损失,可能导致误报增加。因此,选择模型时需根据具体安全需求进行权衡。此外,少样本学习设置显著提升了模型的分类能力,特别是在复杂的 CWE 分类任务中。总体来看,本研究强调了在多语言环境下选择合适 LLM 模型对代码安全性的提升至关重要。

论文结论

本文全面研究了最新的大语言模型在跨多语言环境中的漏洞检测和分类能力。实验表明,GPT-4 Turbo 和 GPT-4o 在多个任务中表现优异,尤其在少样本学习设置下。此外,开发的 CODEGUARDIAN 工具显著提高了开发人员的漏洞检测效率。未来研究应扩展数据集范围,探索更先进的提示工程方法,并改进 CODEGUARDIAN 的用户界面,提升其在安全软件开发中的应用效果。


原作者:论文解读智能体

校对:小椰风


用户头像

云起无垠

关注

定义开发安全新范式 2022-10-14 加入

云起无垠致力于为企业提供自动化安全检测能力,让企业更安全,让安全更智能。

评论

发布
暂无评论
【论文速读】|用于安全代码评估的大语言模型:一项多语言实证研究_云起无垠_InfoQ写作社区