写点什么

生成式 AI:引领我们进入零信任世界

  • 2023-08-15
    北京
  • 本文字数:1042 字

    阅读完需:约 3 分钟

在最近的一次报告中,全球领先的信息技术研究和分析公司 Gartner,做出了一个引人注目的预测:deepfake 和生成式AI将会把我们带入一个“零信任”的世界。这个预测不仅突出了人工智能(AI)发展的前沿方向,也为我们揭示了一个新的安全挑战。


首先,让我们理解 deepfake 是什么。Deepfake 是一种深度学习模型,它能将一个人脸图像的表情或动作应用到另一个人的脸上。这种技术已经在电影制作、游戏设计等领域得到了广泛应用,然而,其也可能被用于制造误导性或不真实的信息。


生成式 AI,另一方面,是指一类可以通过学习数据并生成全新的、真实的、有用的数据的人工智能系统。这包括大家熟知的 GAN(生成对抗网络)和变分自编码器等。然而,同样的技术也可以被用于生成虚假的新闻报道、伪造的音频和视频证据,甚至可能引发严重的社会信任危机。


Gartner 的报告指出,随着 deepfake 和生成式 AI 技术的进步和普及,我们将需要一种全新的信任模型,也就是“零信任”模型。这种模型假设任何信息,无论其来源如何,都可能是不真实、误导性或完全错误的。这不仅需要我们在接收任何信息之前都要进行彻底的验证和审查,也要求我们在处理信息时始终保持警惕。


然而,这并不是一种新的观点。实际上,早在 2000 年,理查德·克拉克(Richard Clark)就提出了“我们不需要信任计算机系统”的论断。这句话在今天看来,比任何时候都更为贴切。在面对 deepfake 和生成式 AI 所生成的虚假信息时,我们确实不需要,也不能够信任任何未经验证的信息。


这样的预测对于我们来说具有深远的影响。首先,我们需要重新思考信息真实性的问题。在传统媒体时代,信息的真实性主要依赖于发布者的信誉和职业操守。然而,在 deepfake 和生成式 AI 的时代,这种保障可能已经不再可靠。任何一段视频、任何一篇新闻报道,都可能是一个精心设计的骗局。


其次,这需要我们在技术设计层面做出更多的努力。例如,开发出更有效的方法来检测和识别 deepfake 和生成式 AI 生成的信息,对于我们来说至关重要。同时,我们也需要通过教育和公众宣传,提高公众对于这类技术的理解和警惕性。


此外,政策制定者也需要迅速行动起来。一方面,他们需要通过立法来禁止和惩罚使用 deepfake 和生成式 AI 技术来制造虚假信息的行为。另一方面,他们也需要推动相关技术的发展和研究,以应对可能的挑战。


总的来说,Gartner 的预测为我们揭示了一个新的安全挑战。Deepfake 和生成式 AI 技术的发展,可能会引发一场信息真实性的危机。然而,这也是我们发展和进步的机会。只有通过持续的研究和创新,我们才能在这个新的“零信任”世界中找到出路。

用户头像

关注百度开发者中心,收获一手技术干货。 2018-11-12 加入

汇聚百度所有对外开放技术、平台和服务资源,提供全方位支持,助力开发者加速成功,实现开发者、消费者和百度三方共赢。https://developer.baidu.com/

评论

发布
暂无评论
生成式AI:引领我们进入零信任世界_文心一言_百度开发者中心_InfoQ写作社区