第 28 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. 模型窃取:针对法学硕士的提取攻击
简介:模型 Leeching 是一种针对大型语言模型(LLM)的新型提取攻击,能够将目标 LLM 中的任务特定知识提取到简化参数模型中。研究者通过从 ChatGPT-3.5-Turbo 中提取任务能力来证明攻击的有效性,实现了 73%的精确匹配(EM)相似性,SQuAD EM 和 F1 的准确率分别为 75%和 87%。研究者进一步证明了从通过模型 Leeching 提取的提取模型中进行对抗性平台转移以执行针对目标 LLM 的 ML 攻击分期的可行性,当应用于 ChatGPT-3.5-Turbo 时,攻击成功率提高了 11%。
链接:
https://arxiv.org/pdf/2309.10544.pdf
2. 大型语言模型的知识清理
简介:研究者探索了一种知识清理方法,以减轻与大型语言模型(llm)相关的隐私问题。实验结果表明,研究者的方法不仅最大限度地减少了特定知识的泄漏,而且保持了 LLM 的整体性能。
链接:
https://arxiv.org/pdf/2309.11852.pdf
3. 安全、安保、隐私与提示:人工智能时代的网络弹性
简介:本白皮书旨在介绍人工智能重塑网络安全的主题,为商业决策者和政策制定者设定一些关键的人工智能概念、威胁和机遇的理解基线,以支持他们在这个快节奏、令人兴奋的新技术时代的思考和战略。
链接:
https://www.nccgroup.com/media/reybxvtp/ncc-group-cyber-resilience-ai-whitepaper_updated.pdf
4. 保障未来:人工智能驱动世界的网络安全
简介:这份白皮书涉及人工智能和网络安全的前沿关键问题。通过探索其中包含的最佳实践和建议,研究者表示大家可以充满信心地在数字优先的世界中开辟新的篇章。让大家共同踏上这段旅程,利用人工智能的变革力量,同时保护我们的数字未来。
链接:
5. SIGMA:安全的 GPT 推理与功能秘密共享
简介:SIGMA,第一个基于 FSS 的安全变压器推断端到端系统。通过为复杂的机器学习功能(如 Softmax 和 GeLU)构建新的基于 fss 的协议,并加速其在 gpu 上的计算,SIGMA 将变压器的安全参考延迟提高了 11 - 19 倍,比使用预处理和 gpu 的最先进状态。研究者提出了生成式预训练变压器(GPT)模型的第一个安全推理。特别是 SIGMA 在 74 秒内执行了 13 亿个参数的 GPT-Neo,在 1.6 秒内执行了 HuggingFace 的 GPT2。
链接:
评论