第 11 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
🔹Meta’s Q1 2023 Security Reports: Protecting People and Businesses
在季度诚信报告中,我们分享了第一季度对各种威胁的打击情况。我们已经检测到了针对在线用户的恶意软件活动,分享发现之后增强了安全功能。我们针对全球九个参与秘密影响和网络间谍的网络采取了行动,并与行业同行和政府分享了目前感知到的风险。
链接:https://about.fb.com/news/2023/05/metas-q1-2023-security-reports/
🔹Tenable report shows how generative AI is changing security research
本研究侧重于四种新工具,旨在帮助人类研究人员简化逆向工程、漏洞分析、代码调试和 Web 应用程序安全,并识别基于云的错误配置。
🔹Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM Future
本研究通过引入区块链支持的 SBOM 共享方法,利用可验证的凭证来允许选择性披露,从而为这些挑战提出了一种新颖的解决方案。
链接:https://arxiv.org/pdf/2307.02088.pdf
🔹SecureFalcon: The Next Cyber Reasoning System for Cyber Security
我们构建了一个新的训练集 FormAI,它得益于生成人工智能(AI)和形式验证来评估其性能。
链接:https://arxiv.org/pdf/2307.06616.pdf
🔹Detecting software vulnerabilities using Language Models
在本文中,FalconLLM 首次针对网络安全应用进行了微调,从而引入了 SecureFalcon,这是一种基于 FalconLLM 构建的创新模型架构。SecureFalcon 经过训练,可以区分易受攻击和非易受攻击的 C 代码样本。我们构建了一个新的训练集 FormAI,该训练集得益于生成人工智能(AI)和形式验证来评估其性能。
链接:https://arxiv.org/ftp/arxiv/papers/2302/2302.11773.pdf
Security Tools
🔹openai-cti-summarizer
简介:openai-cti-summarizer 是一款基于 OpenAI's GPT-3.5 和 GPT-4 API 生成威胁情报总结报告的工具
链接:https://github.com/EC-DIGIT-CSIRC/openai-cti-summarizer
🔹Codamosa
简介:CodaMOSA 是 CODAMOSA: Escaping Coverage Plateaus in Test Generation with Pre-trained Large Language Models 的论文代码,实现了一款结合了 OpenAI API 的 fuzzer,旨在缓解传统 fuzz 中陷入覆盖率停滞不前的问题
链接:https://github.com/microsoft/codamosa
🔹ChatGPT Security Code Analyzer
简介:Go based low code Honeypot Framework with Enhanced Security, leveraging GPT-3 for System Virtualization
评论