第 14 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
🔹ChatGPT Al in Security Testing: Opportunities and Challenges
简介:本报告中将深入探讨在安全测试中使用 ChatGPTAI 的机遇和挑战。我们将探讨如何使用 ChatGPTAI 来自动化各种安全测试任务,例如漏洞扫描和渗透测试。此外,我们将研究 ChatGPTAI 在提高安全测试准确性和效率方面的潜力。然而,重要的是要考虑在安全测试中使用 AI 带来的挑战,例如数据隐私和道德问题。
链接:https://www.cyfirma.com/outofband/chatgpt-ai-in-security-testing-opportunities-and-challenges/
🔹Chatbots to ChatGPT in a Cybersecurity Space:Evolution, Vulnerabilities, Attacks, Challenges, andFuture Recommendations
简介:随着普及程度的提高,聊天机器人遇到了网络安全威胁和漏洞。本文讨论了相关文献、报告,以及针对聊天机器人产生的解释性事件攻击。
链接:https://arxiv.org/pdf/2306.09255.pdf
🔹BadPrompt: Backdoor Attacks on ContinuousPrompts
简介:本文主要研究小样本场景下通过连续 prompt 对大模型后门攻击。
链接:https://arxiv.org/pdf/2211.14719.pdf
🔹ChatGPT 羊驼家族全沦陷!CMU 博士击破 LLM 护栏,人类毁灭计划脱口而出
简介:CMU 和人工智能安全中心的研究人员发现,只要通过附加一系列特定的无意义 token,就能生成一个神秘的 prompt 后缀。由此,任何人都可以轻松破解 LLM 的安全措施,生成无限量的有害内容。
链接:https://mp.weixin.qq.com/s/298nwP98UdRNybV2Fuo6Wg
Security Tools
🔹Universal and Transferable Adversarial Attacks on Aligned Language Models
简介:在本文中,我们提出了一种简单有效的攻击方法,该方法可使对齐的语言模型生成令人反感的行为。具体来说,我们的方法找到了一个后缀,当附加到 LLM 的广泛查询以产生令人反感的内容时,该后缀旨在最大化模型产生肯定响应(而不是拒绝回答)的概率。
论文链接:https://arxiv.org/abs/2307.15043
代码链接:https://github.com/llm-attacks/llm-attacks
🔹利用 Codex 的 API 来构建与网络安全相关的自动化工具
简介:虽然 OpenAI Codex 本身并非专门针对网络安全设计的工具,但它基于 GPT-3.5-turbo 模型,可用于编写、审查和分析代码,包括网络安全相关的代码。我们可以利用 Codex 的 API 来构建与网络安全相关的自动化工具,例如自动生成漏洞扫描脚本或辅助渗透测试。
链接:https://openai.com/blog/openai-codex
🔹Ret2GPT
简介:主要面向 CTF 类二进制安全设计的工具:Ret2GPT,通过使用 ChatGPT API + Retdec + Langchain,用户可以通过问答+构造好的 Prompt 或者 直接使用以及构造好的 Prompt 对 特定二进制文件进行漏洞挖掘 起到一个很好的漏洞挖掘助手的功能。
评论