第 15 期 | GPTSecurity 周报
GPTSecurity 是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于 GPT/AIGC/LLM 最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
1. Security Papers
🔹OpenAI 新产品 GPTBot:可爬取网络数据,为 GPT-5 做准备
简介:OpenAI 在官网介绍了新产品 GPTBot,这是一种网络爬虫,可大规模爬取网络数据用于训练 AI 模型。OpenAI 表示,将通过 GPTBot 抓取海量数据,用于训练、优化未来模型。
链接:
https://platform.openai.com/docs/gptbot
🔹全球最大开源地理大模型来啦!IBM、美国航天局权威出品
简介:IBM、NASA(美国国家航空航天局)同时在官网宣布,在 Hugging Face 上开源全球最大的地理空间大模型——Prithvi。据悉,Prithvi 由 NASA 提供大量地理、气候、灾害等卫星遥感数据,在 IBM 的 watsonx.ai 模型上预训练、微调而成。Prithvi 主要用于预测气候变化、洪水映射、跟踪森林砍伐、预测作物产量等。
链接:
https://huggingface.co/ibm-nasa-geospatial/Prithvi-100M
🔹黑客类人工智能工具“FraudGPT”出现,专为复杂的攻击而设计
简介:追随 WormGPT 的脚步,攻击者组织正在各种暗网市场和 Telegram 频道上宣传另一种名为 FraudGPT 的网络犯罪生成人工智能 (AI) 工具。Netenrich 安全研究员 Rakesh Krishnan 在周二发布的一份报告中表示:“FraudGPT 是一个人工智能机器人,专门用于攻击目的,例如制作鱼叉式网络钓鱼电子邮件、创建破解工具等。”
链接:
https://thehackernews.com/2023/07/new-ai-tool-fraudgpt-emerges-tailored.html
2. Security Tools
🔹GPTreport
简介:该工具用于通过 openai api 自动生成 makedown 漏洞报告。
链接:
https://github.com/shiyeshu/GPTreport
🔹Large Language Models are Zero-Shot Fuzzers: Fuzzing Deep-Learning Libraries via Large Language Models
简介:本文证明了现代 titanic LLMs 可以直接执行几十年来研究的基于世代和基于突变的模糊测试,同时完全自动化、可遗传化,并适用于挑战传统方法的领域(如 DL 系统)。我们希望 TrTANFuzz 能够激发 LLM 在模糊测试这一有希望的方向上的工作。
链接:
https://arxiv.org/pdf/2212.14834.pdf
🔹当 GPT 遇到程序分析:迈向智能检测 GPTScan 中的智能合约逻辑漏洞
简介:在本文中,我们提出了 GPTScan,这是第一个将 GPTScan 与静态分析相结合的智能合约逻辑漏洞检测工具。GPTScan 不是仅仅依靠 GPT 来识别漏洞,而是利用 GPT 作为一种通用的代码理解工具。
链接:
评论