GPU 应用:从计算机图形学到人工智能
过去的十年中,深度学习(DeepLearning,DL)在各种人工智能研究领域取得了显着的成功。深度学习的最新成功是由于大量数据的可用性增加以及 GPU 的出现,显着增加了用于训练计算机的数据的广度和深度,并减少了所需的时间用于训练深度学习算法。
“大数据”一词最早出现在 1997 年 10 月由 Michael Cox 和 David Ellsworth 撰写的计算机科学文献中,该文章发表在 IEEE 第八届可视化会议论文集中,“ 针对核心外可视化的应用程序控制的需求分页 ” 。
该论文写道:“可视化给计算机系统带来了一个有趣的挑战:数据集通常很大,这给主内存,本地磁盘甚至远程磁盘的容量增加了负担。我们称此为大数据问题 。当数据集不能容纳在主存储器(核心)中,或者甚至不能容纳在本地磁盘中时,最常见的解决方案是获取更多资源。”该术语在学术界之外也曾使用过。
虽然深度学习算法的开发及其实际应用在 1980 年代和 1990 年代稳步发展,但它们受到计算机能力不足的限制。信息爆炸(根据牛津英语词典的说法,该术语在 1941 年首次使用)已经变成了大型数字数据爆炸。但是,可用数据的数量只是使深度学习成功的两个催化剂之一。另一个是 GPU。
到 2000 年代末,许多研究人员已经证明了 GPU 在深度学习(特别是对于人工神经网络训练)中的实用性。由新的编程语言(如 NVIDIA 的 CUDA)支持的通用 GPU 已应用于各种深度学习任务。此类应用程序中最明显的是上述 2012 年 ImageNet 挑战赛的冠军。
大数据同时也促进了计算机图形学的发展。到 1990 年代,实时 3D 图形在街机,计算机和游戏机游戏中变得越来越普遍,导致对硬件加速 3D 图形的需求增加。Sony 在 1994 年推出家用视频游戏机 PS1 时,首先将 GPU 一词称为 “几何处理单元”。
视频游戏渲染需要快速并行执行许多操作。图形卡具有较高的并行度和较高的内存带宽,但相对于传统 CPU 而言,其时钟速度较低且分支能力较低。碰巧,在人工神经网络上运行的深度学习算法需要类似的特性-并行性,高内存带宽,无分支。
在人工智能领域,搭建一套适合深度学习的环境需要高昂的成本,如何避免 AI 成为企业或者开发者成本的中心?运用青椒云 GPU 云电脑可以轻松获取强大的 GPU 计算能力。青椒云云电脑搭载多款高性能 GPU, 支持根据自身需求灵活搭配选择, 减少空间占用和机器运维费用,大幅度缩短训练环境部署时间。
评论