第 25 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. 如何写好提示符,让 GPT 适用于静态分析
简介:基于 LLM 与静态分析理解,结合利用 LLM 进行代码总结、注释,总结了此篇内容。
链接:
https://mp.weixin.qq.com/s/9aHMBzftMEmi31YUYMPjbg
2. Chat GPT 发现安全漏洞,人工智能潜在隐患该如何防范?
简介:布朗大学的计算机科学研究人员发现了 Open AI 的 GPT-4 安全设置中的新漏洞。他们利用一些不太常见的语言,如祖鲁语和盖尔语,即可绕过 GPT-4 的限制。研究人员使用这些语言来写通常受限的提示词,发现得到回答的成功率为 79%,而仅使用英语的成功率不到 1%。这一测试结果表明,Chat GPT 在非常用语言限制功能上存在安全漏洞,这可能会给犯罪分子可乘之机。人工智能存在哪些潜在的安全隐患?我们应该如何防范?
链接:
https://mp.weixin.qq.com/s/EmAL1UUgIqetig65f-wujw
3. 为何 GPT-4P 容易受到多模态提示注入图像攻击?
简介:OpenAI 新的 GPT-4V 版本支持图像上传后,带来了一条全新的攻击途径,使大型语言模型(LLM)容易受到多模态注入图像攻击。攻击者可以在图像中嵌入命令、恶意脚本和代码,随后模型会遵从行事。
链接:
https://mp.weixin.qq.com/s/hg3fI21LoiuceLMF_iwO9Q
4. ChatGPT 企业版上线,无限制使用,更快更高效更安全!
OpenAI 的新动作让人眼前一亮,他们不仅刚刚发布了 GPT-3.5 微调 API,而且还悄悄地推出了最强大的 ChatGPT 版本——ChatGPT 企业版!
链接:
https://mp.weixin.qq.com/s/Gz9BpwWZya5FIEhfrKXglQ
5. 网络攻击者将 AIGC 和恶意软件集成,使威胁级别上升
根据研究数据,与前几个季度相比,北美有组织的身份欺诈增加了 44%。这种激增被认为是由持续的经济复苏和通胀压力推动的,特别是在美国市场,这助长了专业身份证诈骗集团的胆量。
链接:
评论