写点什么

GPTs 数据泄露大语言模型安全刻不容缓,如何用 AI Agent 提升 LLM 应用安全系数?

作者:王吉伟频道
  • 2023-11-13
    山东
  • 本文字数:3869 字

    阅读完需:约 13 分钟

GPTs数据泄露大语言模型安全刻不容缓,如何用AI Agent提升LLM应用安全系数?
  • 大语言模型数据泄露堪忧,超自动化 Agent 成解决之道

  • 数据泄露成 LLM 应用最大障碍,如何用 RPA Agent 智能体破解谜题?

  • 从 RPA Agent 智能体安全机制,看 AI Agent 如何破解 LLM 应用安全谜题

  • GPTs 数据泄露大语言模型安全刻不容缓,如何用 AI Agent 提升 LLM 应用安全系数?


文/王吉伟

 

阻碍广大企业应用大语言模型(LLM,Large Langeuage Models)的诸多因素中,无疑数据安全是最重要的。

近日 OpenAI 推出了 GPTs,但很快就有用户发现,通过简单几句提示词,就可以轻松下载到某个 GPTs 背后的知识库文件。这些文件中包含了各种科技大厂的职级薪资数据,一旦被泄露,将对个人隐私和企业安全造成极大威胁。

新的泄露事件,又让人们开始思考 ChatGPT 等大语言模型的数据安全性。

早在 3 月份,ChatGPT 就发生了用户隐私数据泄露事件,OpenAI 声明由于开源代码库中存在一个漏洞,使得部分用户能够看到另一个用户的聊天标题记录,并把 ChatGPT 短暂下线紧急修补了此漏洞。

此事件,让大家认识到大模型并不是“大安全”。



更要命的,是用户使用 LLM 时会不经意输入敏感数据。仅在三月份,三星内部就发生了三起误用及滥用 ChatGPT 案例,其中两起关于三星半导体设备,一起关于三星内部会议内容。

以致有网友调侃,三星再多几次敏感数据泄露,ChatGPT 就能教大家制造先进芯片了。

在三星等多家企业出现事故后,很多企业都意识到了 LLM 使用可能造成的数据泄露问题。就在 5 月份,苹果公司也限制员工使用 ChatGPT 和其他外部 AI 工具。当然,苹果公司也在开发自己的 LLM 产品。

不只是苹果公司,摩根大通、美国电信运营商 Verizon 等公司都已经宣布禁止使用 ChatGPT 等应用,亚马逊也希望工程师们使用内部 AI 工具。

6 月份,ChatGPT 出现了“奶奶漏洞”问题,用户可以通过请求 ChatGPT 扮演奶奶并念出 Windows 11 专业版的序列号。并且这个漏洞还是多面能手,不管是 GPT 还是 bard 都禁受不住它的诱惑。并且“奶奶漏洞”一路演进,还会时不时以更花俏的套路哄骗用户。

这一漏洞的发现引发了一股序列号狂潮,进一步影响与警示了广大组织对于数据安全的思考。

就在 11 月 10 日,投资了 OpenAI 并为广大企业提供 OpenAI 云服务的微软,因为担心公司机密数据泄露,竟然也开始禁止员工使用 ChatGPT,建议员工使用自家的 Bing Chat 工具。



出于数据安全忧虑,美国银行、花旗集团、德意志银行、高盛集团等多家金融机构已经禁止员工使用 ChatGPT 聊天机器人处理工作任务,日本的软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等企业,同样限制了 ChatGPT 和类似聊天机器人的商业用途。

现在,这些企业有的与 OpenAI 合作进行了私有化部署,有的已经研发了自有大语言模型。

数据泄露对企业的危害

多家机构如此重视,人为数据泄露到底能为企业造成多大伤害?

数据安全公司 Cyberhaven 曾在一个报告中,调查了不同行业客户 160 万员工的 ChatGPT 使用情况。

报告数据显示,自 ChatGPT 推出以来至 3 月 21 日,8.2%的员工曾在工作场所使用过 ChatGPT, 6.5%的员工曾将公司数据粘贴其中;仅 3 月 14 日一天,每 10 万名员工就平均给 ChatGPT 发送了 5267 次企业数据。尤其是敏感数据,占到员工粘贴到 ChatGPT 的数据的 11%。

这意味着,ChatGPT 的使用率越高,敏感数据泄露的也就越多。



试想如果不加限制地使用 LLM,随着更多敏感数据被传输 LLM 服务器,并被用作模型训练数据集,也就意味着竞争对手通过随意的聊天对话就能获悉了你的核心数据。如果竞对用这些数据建模对你进行降维打击,会对企业会造成多大损失?

数据泄露会造成严重的企业的信任度降低,让业务连续性受到影响,并可能会带来一定的法律责任。

看到这里,你就应该明白为何大型企业都在构建自有大语言模型了。

当然,凡事皆有利弊。虽然对话式交互的生成式 AI 会造成敏感数据泄露,但 AI 和自动化的使用,整体上正在降低数据泄露的成本。

IBM 的《2023 年数据泄露成本》全球调查数据显示,广泛使用人工智能(AI)和自动化的组织受益,平均节省了近 1 万美元的数据泄露成本,并将数据泄露识别和遏制速度加快了 8 天。



也就是说,只要恰当使用 LLM,注意安全防控,它会对企业的增效降本起到明显的作用。

LLM 泄露数据的几个原因

想要实现 LLM 的安全使用,需要分析数据泄露的相关因素。



从已经发生的实践案例来看,造成 ChatGPT 等 LLM 数据泄露的主要原因,大概有以下几点:

1、用户隐私泄露:在使用 ChatGPT 进行客户服务时,企业通常需要获取用户的个人信息,如姓名、地址、电话等。这些信息一旦被未经授权的第三方获取,便可能导致用户隐私泄露。

2、内部安全风险:ChatGPT 作为一款人工智能语言模型,其生成和处理的敏感信息可能包括企业内部的商业机密、计划、策略等。如果这些信息被恶意利用,可能会对企业造成严重损失。

3、系统漏洞:尽管 ChatGPT 具有强大的技术实力,但其系统仍可能存在漏洞。如果黑客利用这些漏洞入侵企业服务器,便可能导致数据泄露。

理论上,只要我们针对性的解决这几个问题,LLM 的安全使用也就不在话下。



现在,很多引入 LLM 的企业基本都建立了风控机制,按照 LLM 使用流程的先后顺序,这些机制包括加强安全培训、定期审查系统、加密处理敏感信息、使用可靠的人工智能服务提供商、建立应急预案等。

在这些安全措施中,大家会发现“使用可靠的人工智能服务提供商”这一点最为重要,毕竟引入一个具备高度安全机制的 LLM 会事半功倍。其他几点也能起到一定的作用,但多是为了防患于未然以及事后补救,并且其中的很多人为因素难以避免。

与此同时,随着技术的不断发展,LLM 的应用也进入到了 AI Agent 阶段。

AI Agent 有效避免 LLM 数据泄露

AI Agent 是由 AI 驱动的程序,当给定目标时,能够自己创建任务、完成任务、创建新任务、重新确定任务列表的优先级、完成新的顶级任务,并循环直到达到目标。

使用 AI Agent,只需输入一句话或者更简单的指令,就能通过理解与分析获悉用户的意图,进而规划并执行一系列任务,最终输出详尽而具体的答案。

AI Agent 不仅让输入更加简单,也在一定程度上提高了安全系数,有效避免了数据泄露的可能,还能最大限度发挥 LLM 的能力。



AI Agent 正在快速影响更多领域,超自动化领域也是如此。目前厂商们都在积极引入或自研大模型,并基于这些大模型打造 Agent,以从安全、易用性等各方面提升超自动化的应用效率。

当然,超自动化 Agent 在数据安全方面远不是减少提示词输入那么简单。

超自动化 Agent 破解 LLM 安全谜题

超自动化领域如何通过 AI Agent 提升安全系数呢?

这里王吉伟频道以实在智能业界首发的实在 RPA Agent 智能体为例,介绍超自动化 Agents 如何保障用户数据安全。

 

实在 RPA Agent 智能体是基于实在智能自研垂直领域大模型 TARS 构建的 RPA\超自动化智能体,是一种能够自主拆解任务、感知当前环境、执行并且反馈、记忆历史经验的 RPA 全新模式。

为了让用户更安全的使用 AI 智能体,实在 RPA Agent 智能体在 TARS 大语言模型和 RPA 工具包都设置的多重安全机制。

TARS 大语言模型的安全机制侧重于敏感数据、内部政策和提示检查。在预训练或 SFT 阶段通过数据处理和文本分类算法删除敏感数据,在大模型的输出结果之上叠加一个辅助安全模型,RLHF(人类反馈强化学习)阶段使用内部策略,检查用户查询并添加安全提示等。

这样就能保证用户输入内容的多层过滤,防止敏感数据的外露。



TARS 大型语言模型上基于充分细致的语料收集和清洗、数据处理及标注,超千亿 Tokens 的预训练语料和超百万条指令微调数据,实在智能独立完整复现大模型构建的预训练、指令微调和 RLHF 三阶段,使大模型具备完整能力。

同时实在智能自主研发用于中文不当言论判别和生成终止的 Detoxify 系统,也提升了 TARS 的安全性和无害性,让大模型“既懂事,又懂法”。

在 RPA 工具包上,TARS-RPA-Agent 安全机制侧重于机器人授权继承和指挥官分配或分发授权:



首先,RPA 机器人的授权均继承自创建机器人的用户,同时其权限范围也和所在账号的权限是一致的,不会获取超出其权限范围的信息;

其次,RPA 指挥官可以分配和控制 TARS-RPA-Agent 的授权;

第三,在开发过程中,实在智能设计了一个易于处理敏感数据的模块,使得敏感数据更易于通过配置、删除、导入等方式进行设置。

除了 LLM 和 RPA,TARS-RPA-Agent 还包含其他辅助模块,其中的安全机制侧重于内部知识库认证、内部文档访问以及用户确认。



有了面向 LLM、RPA 和辅助模块的多重安全机制,在十几层防护墙的共同作用下,想要泄露隐私数据都很难,彻底杜绝了前文所讲的人为泄露数据的情况。再加上应对系统漏洞的相关安全机制,足以把 LLM 应用安全打造得固若金汤。

当然,这还是直接使用 TARS 大模型或者调用 API 的情况。如果你是现金流充沛的企业,采用本地部署大语言模型的方式,安全情况会更上一层楼。

需要说明的是,这种整体安全解决方案非常适用于一些大型企业的 LLM 应用安全过滤。



出于安全考虑,企业都希望在应用 LLM 时过滤内部敏感信息。

目前市面上的数据安全管理软件,功能丰富但应用复杂且价格不菲。为了 LLM 数据过滤这种单一应用场景而斥巨资购买全数据监控软件,显然过于浪费,并不是 LLM 数据过滤的最优选。

事实上,这类需求更适合 LLM 技术供应商基于大语言模型技术路径去做。只需在其 LLM 产品体系中添加隐私数据过滤功能,为企业用户开放不断更新或增删敏感数据库内容的权限。

这种模式,不仅能为本身大语言模型提供过滤安全功能,还能用于企业所使用的 OpenAI、文心一言等第三方大语言模型,能够在最大限度保护员工创造力的同时做好公司敏感数据的防护。

这样,企业就能实现花一份钱去保障更多 LLM 的安全。

如果你的企业正在为 LLM 的应用安全及预算而发愁,不妨试试实在智能的这种安全解决方案,或许会让你眼前一亮。

 

全文完

 

【王吉伟频道,关注 AIGC 与 IoT,专注数字化转型、业务流程自动化与 RPA,欢迎关注与交流。】

发布于: 刚刚阅读数: 4
用户头像

还未添加个人签名 2020-11-11 加入

王吉伟频道,关注数字化转型,专注业务流程管理与RPA。

评论

发布
暂无评论
GPTs数据泄露大语言模型安全刻不容缓,如何用AI Agent提升LLM应用安全系数?_数据安全_王吉伟频道_InfoQ写作社区