写点什么

深度学习|AI 芯片:上游产业率先爆发

作者:Finovy Cloud
  • 2022 年 5 月 12 日
  • 本文字数:3237 字

    阅读完需:约 11 分钟

深度学习|AI芯片:上游产业率先爆发

深度学习要求极高的并行计算能力,大数据、算力、训练方法等领域的突破使 AI 芯片作为上游产业率先爆发。


人工神经网络通过训练与预测的过程实现应用,对并行计算能力要求高,训练偏好高性能,预测对简单指令重复计算和及时性要求高。随着大数据存取、算力以及深度学习训练方法等方面的瓶颈被突破,芯片作为 AI 领域的上游成为了率先爆发的产业。


CPU 难以满足并行计算要求,AI 芯片站上舞台。


CPU 的串行结构难以应对 AI 计算在简单指令下的并行算力要求,AI 芯片应运而生。其中,GPU 因其易编程性和良好的并行计算能力最早最广泛被应用于 AI 计算。


AI 芯片各有千秋,非冯架构下的非类脑芯片占据上风,GPU 仍是主流,FPGA 和 ASIC 增速较快。


按照是否为冯诺依曼架构及是否为类脑芯片可对市场中用于 AI 计算的芯片进行分类:冯诺依曼架构下均是非类脑芯片,主要包括传统的 CPU 和 GPU;


非冯架构下包括类脑与非类脑芯片,其中非类脑芯片包含 ASIC(寒武纪、谷歌 TPU 等)、FPGA 和部分新 GPU(Nvidia 的 Tesla 系列等)。类脑芯片包括 IBM 的 TrueNorth 等。在主要的 AI 芯片中:


  • GPU 峰值性能高、通用性好,但功耗大,适用于数据中心和训练过程;

  • FPGA 效率高、灵活性好,但峰值性能弱、成本高,适用虚拟化云平台和预测过程;

  • ASIC 效率高、功耗比佳,但量产前成本高,适用智能终端和 AI 平台;类脑芯片能耗低、感知力强,但缺乏训练、精度低。


英伟达新推 Volta 架构,GPU 有望保持领导地位,Intel 加码 CPU+FPGA,而以寒武纪为代表的 ASIC 厂商在终端的落地前景更为广阔。


英伟达 Volta 架构提升了 GPU 预测效率,Intel 不断推进 CPU+FPGA 架构,未来或呈现 GPU 发展高端复杂算法、高性能计算和数据中心;ASIC 发展智能终端、AI 平台与算法 IP 化;FPGA 应用于变化较快的行业应用和虚拟化云平台这样的格局,其中注重终端寒武纪等 ASIC 的落地前景更为广阔。


发达国家的 ICT 产业建立在强势的芯片基础之上。芯片产业是一国工业的支柱之一,其下游的 ICT 产业在美、日、韩等发达国家中的地位尤为重要。我们耳熟能详的诸多公司,如美国的谷歌、IBM、Intel、微软、Apple、AT&T、英伟达,韩国的三星,日本的 Sony、东芝等都属于 ICT 领域,每年能贡献超百亿美元的利润。这些公司或是自身的产品或是上游均是芯片行业,本国芯片产业的强势不仅让这些公司站稳了脚跟,对其国内人工智能、信息安全、网络建设等诸多领域的推动作用更是不言而喻。


海思等企业逐渐崛起,中国“芯”也在不断追赶。


近几年,尽管全球芯片产业仍由 Intel、高通、英伟达等巨头把持,我国芯片产业仍呈现出蓬勃的发展力,近三年行业销售额复合增长率超 20%。2009 年全球纯芯片设计公司 50 强中,中国第一家闯入世界 50 强的是华为旗下的海思公司,而 2014 年这个数目达到了 9 家,2016 年增长到了 11 家,分别是海思、紫光展讯,紫光锐迪科、中兴、大唐、南瑞、华大、ISSI、瑞芯微、全志和澜起科技。


此外,虽然 2016 年全球前 20 大半导体公司中没有中国企业的身影,但是其门槛 44.55 亿美元与海思 2016 年的收入基本相当,而表中的不少公司营收增速非常缓慢,尤其是排名居后的 4 家增速基本在 0%附近,明年海思有望进入全球前 20 强。



ASIC 摆脱传统包袱突破桎梏。


2016 年 6 月,中星微发布国内首款嵌入式 NPU(神经网络处理器)芯片,并应用于全球首款嵌入式视频处理芯片“星光智能一号”。同样在 2016 年,今年成为全球人工智能芯片领域唯一独角兽公司的“寒武纪”发布了“DIANNAO”系列的首个型号,至今已有三代,其背后的机理和指令集更是被同行广泛引用。


公司也成为全球第一个成功流片并拥有成熟产品的 AI 芯片公司,而随着华为麒麟 970 装配上了其 1A 型号的芯片,寒武纪芯片在智能终端的商用已在迅速推进。这样的突破在国内传统的集成电路行业是难以想象的。

ASIC 芯片存在竞争空间,国内应用市场较大,有望以点及面助力 AI 芯片弯道超车。


如果说在芯片产业上 ARM 对 X86 架构的反击制衡成就于移动终端的兴起,那么 AI 浪潮之下,AI 芯片尤其是专用于深度学弟的 ASIC,用以点及面的方式实现跨越式发展,未尝不是一个弯道超车的好机会。我们可以看到,竞争空间上,传统的 CPU 领域有 Intel、高通,GPU 领域有英伟达,FPGA 中有 Xilinx 和 Altera,唯有与人工智能计算最为定制化结合的 ASIC 领域尚未有绝对的垄断性龙头;应用场景上,ASIC 适用于终端设备,而中国国内安防空间巨大,国产智能手机出货量也占据了全球近半壁江山,新零售产业的发展也位居全球前列,潜在的市场十分巨大。


豪强纷纷出手,智能手机、可穿戴设备、安防前端等均可能成为 ASIC 芯片落地放量的先行地。AI 芯片尤其是 ASIC 芯片由于其低功耗高效率的特点特别适用于功耗较低,空间较小的智能手机、智能安防摄像头、智能家居、无人机等智能终端,这些领域可能成为 ASIC 芯片率先放量之处。


手机端对于及时性的高要求让移动端 AI 芯片成为必需品,近期华为发布了搭载寒武纪芯片的麒麟 970,苹果发布内置神经网络引擎的 A11 Bionic,对移动端 AI 芯片产业起到推波助澜的作用。智能技术在安防行业的应用也非常广泛,目前安防行业倾向于使用前端智能摄像头与后端处理平台结合的方式提高分析效率,如海康的摄像机就配备了 Movidius 开发的视觉处理器和英伟达 Jetson 芯片。


国产化趋势或带来发展良机。国产化趋势下,安防、智慧城市等由政府推动的敏感性行业的采购清单倾向于国产商品,智能芯片作为底层核心硬件将会受到特别关注。国内芯片产业已有多个企业跻身全球前 50 强,寒武纪、地平线机器人等企业的 AI 芯片研发能力全球领先,华为、紫光等企业在芯片行业的体量也十分巨大。随着国内优势企业的发展,以及国家对芯片自给率政策要求的推动下,芯片逐步国产化将为国内企业带来发展良机。AI 芯片作为实现人工智能领域的重中之重,其国内的市场前景十分广阔。



在此 AI 芯片站上风口之际,我们试图从算法和需求层面,由浅入深为各位梳理神经网络与深度学习的算法和应用发展对芯片的各方位要求,并从 AI 芯片的优缺点对比、应用场景和未来路线角度,与各位一同探寻行业的业态和未来的发展。


大数据获取能力、算力和对多层次神经网络的训练方法的不足,使得深度学习应用的繁荣延迟至今。其实人工智能以及深度学习的很多基础算法在 20 世纪 60 年代就已经比较成熟了,包括现在被广泛应用的反向传播算法(BP)在 80 年代就已经达到了算法的繁荣期,之所以在当初没有像现在这样站上风口,一方面源于当时算力不足、用于训练的数据量不够以及训练方法的缺失,另一方面也因为 AI 在当时有一定的应用,但迫切性和现在还无法比拟。



算力方面,即使是 2000 年 Intel 推出的第一款 Pentium 4 CPU 芯片,也只是主频 1.3-1.4GHZ 的单核处理器,集成了 4200 万个晶体管,而现在很多 CPU 主频已经超过了 4GHz,普遍为四核、八核,晶体管数量达到几十亿的水平,更不用说 Nvidia 最新发布的 GPU 系列,集成的晶体管数量已经超过 200 亿个。


训练方法方面,2006 年,机器学习领域泰斗 Geoffrey Hinton 在《科学》上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。这篇文章提出,通过无监督学习实现“逐层初始化”来训练多层次的神经网络,可以克服深度神经网络在训练上的困难。


数据方面,深度学习往往一项训练任务就需要数亿级别的样本,以往数据收集终端和场景缺失,缺少易于处理的结构化数据,使得数据样本非常稀缺,达不到有效的训练目的,而现在智能手机、可穿戴设备、智能汽车等智能终端的快速发展使得数据易于存储和提取。


场景方面,人工智能早期应用和生活场景的结合比较少,比较成功的应用包括搜索广告系统(比如 Google 的 AdWords)、网页搜索排序(例如 Yahoo!和微软的搜索引擎)、垃圾邮件过滤系统、部分语音机器人等。而在如今,智能无处不在,场景的纵深相比之前有了很大扩充,一方面源于产品和场景的丰富、人类需求的升级提供了智能应用的场景,另一方面也源于生产效率已经走向一个瓶颈,依靠人力成本投入等方式增加产出的方式越来越不效率,倒逼生产力向智能化改造。


从场景引发需求,智能终端的普及构建了大数据的环境,技术的进步提供了算力的可能,而算法难点的攻克打通了理论到应用的通道,四者相互增强,引导 AI 产业的上游——芯片产业快速发展。

用户头像

Finovy Cloud

关注

一家云基础设备服务供应商。 2022.03.31 加入

云服务器、GPU 服务器、物理主机、IDC 机房租赁等产品及服务。

评论

发布
暂无评论
深度学习|AI芯片:上游产业率先爆发_深度学习_Finovy Cloud_InfoQ写作社区