第 13 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
ChatGPT for Digital Forensic Investigation: The Good, The Bad, and The Unknown
https://arxiv.org/pdf/2307.10195.pdf
Can We Generate Shellcodes via Natural Language? An Empirical Study
https://link.springer.com/article/10.1007/s10515-022-00331-3
Chatbots to ChatGPT in a Cybersecurity Space: Evolution, Vulnerabilities, Attacks, Challenges, and Future Recommendations
https://arxiv.org/pdf/2306.09255.pdf
Security Tools
LLMFuzzer
简介:LLMFuzzer 是用于寻找和利用 AI 系统漏洞的框架,未来的开发路线是适配各种 LLM API、集成不同的模糊测试策略。
链接:https://github.com/mnns/LLMFuzzer
SecGPT
简介:致力于成为面向网络安全领域的 AutoGPT
链接:https://github.com/ZacharyZcR/SecGPT
AI-goat
简介: 面向带缺陷的 LLM 的 CTF 挑战
链接:https://github.com/dhammon/ai-goat
PsychoEvals
简介: 以 MBTI 人格评估、提示词注入检测为基础的 LLM 安全评估轻量框架
链接:https://github.com/NextWordDev/psychoevals
rebuff
简介: 提示词注入检测工具
链接:https://github.com/protectai/rebuff
评论