第 54 期|GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. GPT 商店挖掘与分析
简介:本文深入研究了 GPT 商店,探讨了 GPT 模型的分类、受欢迎度影响因素和安全风险。研究首先评估了 GPT 模型的分类系统,随后分析了用户偏好、算法和市场趋势对 GPT 受欢迎度的影响。最后,研究识别了 GPT 商店的安全威胁并评估了安全措施的强度。研究结果旨在增进对 GPT 生态系统的理解,为生成性 AI 的未来研究和政策制定提供参考。
链接:
https://arxiv.org/pdf/2405.10210
2. 利用大语言模型进行自动化网页表单测试生成:一项实证研究
简介:本研究探讨了大语言模型(LLMs)在自动化网页表单测试生成中的应用。研究团队对 11 种 LLMs 在 30 个开源 Java Web 应用程序中的 146 个网页表单上进行了实证研究,发现不同 LLMs 在测试效果上存在差异。GPT-4、GLM-4 和百川 2 在生成网页表单测试方面表现更佳,而其他模型在成功提交率上低于 GPT-4,但高于 GPT-3.5。研究还指出,当设计的提示包含完整且清晰的上下文信息时,可以生成更有效的测试。最后,研究提供了使用 LLMs 指导自动化网页表单测试的一些见解。
链接:
https://arxiv.org/pdf/2405.09965
3. 模拟政策影响:开发一种生成性情景写作方法以评估监管的感知效果
简介:本研究开发了一种利用大语言模型(LLMs)评估政策有效性的方法,通过 GPT-4 生成政策实施前后的情景,并将故事转化为基于人类感知的指标。研究以欧盟 AI 法案第 50 条透明度立法为例,生成了缓解和未缓解情景对,并进行了用户研究评估风险。结果显示,该立法在减轻劳动和福祉方面的危害上有效,但在社会凝聚力和安全方面效果有限。此方法有助于政策制定者和研究人员评估和迭代政策,以减轻 AI 带来的负面影响。
链接:
https://arxiv.org/pdf/2405.09679
4. Air Gap:保护注重隐私的对话智能体
简介:本文提出了一种新的隐私保护对话智能体 AirGapAgent,以解决基于大语言模型(LLM)的智能体可能被第三方应用程序操纵上下文,泄露敏感信息的问题。AirGapAgent 通过限制智能体仅访问特定任务所需的数据,有效防止了数据泄露。实验表明,该方法在保持智能体核心功能的同时,显著提高了用户数据保护能力,如对抗 Gemini Ultra 智能体的上下文劫持攻击时,保护成功率从 45%提升至 97%。
链接:
https://arxiv.org/pdf/2405.05175
5. 提高结构化金融中底层资产审查的效率和准确性:多智能体框架的应用
简介:本研究探讨了在结构化金融中应用人工智能(AI)来提高底层资产审查的效率和准确性。通过结合开源和闭源的大语言模型(LLMs),AI 能够高效自动化贷款申请与银行对账单间的信息核对。闭源模型如 GPT-4 性能更优,而开源模型如 LLAMA3 则提供了成本效益高的替代方案。双智能体系统能进一步提升准确性,尽管成本较高。研究显示 AI 有助于减少人工错误,简化尽职调查流程,并在金融文件分析和风险管理中具有广泛的应用潜力。
链接:
https://arxiv.org/pdf/2405.04294
6. GPT 赋能的网络安全培训:一种有效的定制意识提升方法
简介:本研究针对传统网络安全意识与培训(CSAT)计划的不足,提出了一种集成生成预训练变换器(GPT)的创新解决方案。该方案通过自然语言处理技术,根据个人学习档案定制培训内容,以提升参与度和培训效果。实验表明,GPT 模型能够提供实时、自适应的 CSAT 体验,与传统方法相比,在提升参与度、动态性和内容相关性方面取得了显著进步。GPT 驱动的 CSAT 计划是一种可扩展且有效的工具,能够为不同角色的个体提供个性化培训,帮助他们更好地应对网络安全风险。
链接:
评论