英特尔研究院探索负责任的生成式 AI,让 AI 应用真正惠及大众
ChatGPT 的爆火让 AI 再次成为大众热议的焦点,作为英特尔所提出的搭建起从模拟时代到数字时代桥梁的五大“超级技术力量”之一,伴随着无处不在的智能化,AI 可将无穷的数据转化为切实可行的洞察。
作为半导体行业的领先企业,在这一前沿技术领域,英特尔一方面不断拓展创新技术,提供全方位的产品组合,构建可靠可信的新一代信息技术的智能基础设施,另一方面,也致力于以负责任的方式来构建和使用 AI,把它塑造成一股向善的力量,让 AI 能创造繁荣并丰富人们的生活。正如英特尔 CEO 帕特·基辛格所言:“只有当 AI 的应用显著且重复优于任何非 AI 体验时,它才能成为新的标准。”
负责任的生成式 AI
具体而言,ChatGPT 是一种生成式 AI(generative AI)。生成式 AI 指的是一类算法,其生成的新数据类似于人类创造的内容,包括音频、代码、图像、文本、模拟和视频。这项技术使用现有内容和数据进行训练,为自然语言处理、计算机视觉、元宇宙和语音合成等应用领域带来了全新前景。
在过去几年里,生成式 AI 的发展十分迅猛,因此,这项技术现在能以更令人信服和更明智的方式,帮助人们解决现实中的各种挑战。虽然有些人担心生成式 AI 可能会威胁到就业,但负责任地使用生成式 AI,从而提高人的效率和创造力,无疑意味着更大的机遇。
然而,如果不了解相关系统的运行流程,就不能信任生成式 AI 的结果。正如英特尔很早就认识到的那样,与技术进步密切相关的伦理和社会影响极为重要。对于 AI 而言,这一点尤其如此。因此,英特尔提出了负责任 AI 框架( Responsible AI framework ),并始终致力于不断完善方法、原则和工具,确保在产品周期的每一步都采取负责任的做法。至关重要的是,确保生成式 AI 在其发展过程中始终以人为中心。负责任的 AI 应始于系统的设计和开发之时,而非在部署后再对其进行完善。
英特尔负责任 AI 框架的重要性在于,通过对 AI 系统的训练让其不会生成负面内容。为了增强安全性,英特尔在整个开发生命周期中执行严格的多学科评审,包括建立多元化的开发团队以减少偏见,开发遵循伦理原则的 AI 模型,同时从技术和人文的角度广泛评估结果,并与行业伙伴合作减少 AI 潜在的负面影响。
英特尔的负责任 AI 框架,有助于确保人类找到正向运用这项技术的方法,并学会如何尽可能地提升 AI 效益。
英特尔的探索
基于负责任 AI 框架,英特尔的相关团队致力于构建造福人类的生成式 AI 应用,以改善人们的生活,减少他们受到的负面影响,并打造使其它技术变得更加自然的工具。在工作过程中的每一步,英特尔都会秉承负责任的态度,而非仅仅关注结果。
为实现这一愿景,英特尔团队的语音合成项目致力于帮助失去声音的人们再次说话。该技术被用于英特尔与戴尔、劳斯莱斯和运动神经元疾病(MND)协会合作的“我将永远是我”数字故事书项目。任何被诊断患有运动神经元疾病或其它可能影响说话能力的疾病的患者,都能够使用这个交互式网站录制自己的声音,以便在语音辅助设备上使用。
英特尔也致力于利用生成式 AI 使 3D 体验更加逼真。例如, CARLA 是开源的英特尔城市驾驶模拟器,其开发旨在支持自动驾驶系统的开发、训练和验证。通过生成式 AI,驾驶员周围的场景会看起来更加逼真和自然。英特尔还使用生成式 AI 简化了 3D 建模和渲染的工作流程,为 3D 艺术家节省了时间,并使游戏运行速度更快。
此外,用于深度伪造(deepfakes)的生成式模型,其目的在于假冒人类。对此,英特尔通过两种方式进行抵御。首先,英特尔将深度伪造检测算法集成到实时平台中。作为系统的核心,FakeCatcher 可以检测伪造视频,准确率高达 96%,使用户能够实时区分真假内容。其次,英特尔使用负责任的图像生成器,其中之一可以拼接不同的人脸图像。与使用真人面部照片训练图像生成模型的方法相反,它混合、匹配不同人的不同面部区域(如甲的鼻子、乙的嘴、丙的眼睛,以此类推),以生成数据集内尚不存在的全新人脸图像。
让 AI 真正惠及大众
谈到英特尔在生成式 AI 领域的愿景,英特尔研究院高级研究专家 Ilke Demir 表示:“英特尔的目标是秉承负责任的态度和原则,与整个行业密切协作,支持包括生成式 AI 在内的各种 AI 模型。”
总而言之,在探索 AI 应用的过程中,应该不断强调“人本视角”,确保其体现在 AI 开发的各个阶段中,因为只有这样,才能让 AI 技术适用性更强、更具协作性、负面影响更小,才能让越来越多的人类受益于未来的技术进步。
评论