到底什么是CPU/GPU/TPU,芯片卡脖子还有机会翻身吗?
发布于 2021-09-08 07:07
在7月8日【科技特训营】的直播课程中,王煜全老师分析了芯片产业的未来趋势以及产业控制点上的关键科技公司。
一提到芯片产业,很多特训营会员就表示很头疼,如果不是从事半导体相关行业,可能很多人都会对这些芯片术语感到陌生,所以咱们就讲讲到底什么是CPU、GPU、TPU、ASIC、FPGA,以及这些东东有什么用。
首先看看芯片的种类,一般来说芯片可以分为:计算芯片、存储芯片、感知芯片、通信芯片、能源芯片等。
我们今天的内容,主要是关于人工智能时代很重要的CPU、GPU、TPU等计算芯片。
不知道你有没有同样的经历,以前买电脑,必须要问卖家的就是电脑CPU性能怎么样。后来随着人工智能的发展,又出现了很多新名词,GPU、TPU、NPU,这些词都是什么意思呢?
CPU(Central Processing Unit)中央处理器,就像我们的大脑,是负责计算和整体协调的。
GPU(Graphics Processing Unit)图形处理器,是专门为处理图形任务而产生的芯片。
但是GPU不仅可以用在计算机的显卡上,还可以用在手机、游戏机、电动车等各种有多媒体处理需求的设备上。
那么,CPU和GPU有什么区别?
CPU功能模块很多,它擅长复杂的运算和控制,而GPU的结构相对简单,它擅长计算量大,但复杂度不高,重复很多次的工作。
也就是说,CPU擅长做控制和任务分配,GPU擅长做具体的任务。
上图就是CPU和GPU的结构图,其中的一个重要部分就是图中绿色的叫ALU算术逻辑单元,主要执行加减乘除和逻辑运算。
一般在CPU中,ALU算术逻辑单元占整个芯片面积不到5%,CPU里还包含控制单元、存储单元等,所以它的算力不高,但什么都能做。
和CPU相比,GPU拥有数以千计的ALU组成的大规模并行计算架构,在计算速度方面有了突破性的提升,算力通常是CPU的几十上百倍。
由于深度学习需要大量的训练,虽然算法不复杂,但数据量很大,所以在人工智能时代,很多应用都需要GPU强大的并行计算能力。
通常是一个任务来了之后,CPU先分析下任务的性质,然后决定分配给谁,遇到大量的重复性工作时,就调用GPU并行计算。
以往在一般人的印象中,GPU主要是显卡,做图像处理器的,实际上它在科学计算、密码破解、数值分析、海量数据处理等领域都有很大的用处,也是一种比较通用的芯片。
随着5G、物联网、边缘计算的发展,有一种趋势越来越明显,就是未来会需要更多的专项性能更高的专用计算,解决各种行业的特定问题,这时候通用芯片可能就不是最好的解决方案了,专用的定制化芯片会更加适合。
提到专用芯片,首先就要介绍ASIC。
ASIC(Application Specific Integrated Circuit)翻译过来就是专用集成电路,是一种定制化的芯片。
与CPU、GPU 的通用性相比,ASIC只做一件事情,针对具体的某个任务来说,它的处理速度更快,能耗更低,但是成本相对比较高。
例如,谷歌的TPU(Tensor Processing Unit 张量处理器),就是专门为深度神经网络运算而研发的芯片,是一款ASIC定制化芯片。
谷歌TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率提升,可以大规模运用于神经网络,还能把成本控制在可接受的程度上。
TPU性能强劲的秘诀,就是因为它专注于神经网络计算:
与CPU和GPU相比,单用途的TPU就是一个单线程芯片,不需要考虑缓存、分支预测、多道处理等问题,TPU的控制单元更小,更容易设计,给片上存储器和运算单元留下了更大的空间,TPU的大小只有其他芯片的一半。硅片越小,成本越低,良品率也越高。
除了TPU,大家可能还听过NPU神经网络处理器,你可能猜到了,NPU也是一款ASIC定制化芯片,专门用于神经网络算法与加速。
除了ASIC,另一类重要的专用芯片就是半定制芯片FPGA。
FPGA(Field Programmable Gate Array) 翻译过来就是现场可编程门阵列。
那么ASIC和FPGA有什么不同?
在设计方面,ASIC是专门根据特定需求设计电路后,就交给芯片厂家流片,芯片功能就固定了,不能再随便更改。而FPGA是根据需求设计好电路后,下载到芯片里,随时还可以修改。
在性能方面,ASIC是最优化的固定设计,最优化的布局走线,比FPGA延迟低,面积小,功耗低。
在成本方面,单个芯片ASIC比FPGA贵,但是批量化以后ASIC成本可以大大降低。
所以当你的需求是要快速迭代,灵活多变,而且小批量的时候,用FPGA就比较好,如果是大批量且复杂度较高的成熟产品,ASIC就更适合。
现在你了解了通用芯片和专用芯片的特点,就容易理解为什么现在大家都用异构计算了吧?
异构计算,就是多种计算单元(例如CPU、GPU、ASIC、FPGA等)的集成和融合。
一般来说,异构计算的芯片中既有通用计算单元,也有高性能的专用计算单元,与传统的通用计算芯片相比,异构架构具有高性能、低功耗等优点。
还有个热词SoC(System on Chip系统级芯片),就是一种异构计算芯片。
SoC芯片里的典型案例,是2020年1月苹果发布的首款自研电脑芯片M1。
苹果M1是一款 SoC异构计算芯片,集成了8个CPU内核、8个GPU核心和16个神经网络加速引擎。
异构计算技术能让多种不同类型的计算核心高效协同,从而达到整个系统芯片的性能突破。
例如M1 芯片最高可以将中央处理器速度提升到3.5 倍,将图形处理器速度提升到6 倍,将机器学习的速度提升到15 倍,同时,将电池续航时间最高提升到2 倍。
特斯拉的全自动驾驶FSD芯片,是一款SoC异构计算芯片。芯片内部集成了我们前面介绍过的CPU、GPU和NPU。能更高速且低能耗地处理摄像头信号,系统算力大幅提升。
另外,还有世界上最大的云服务商亚马逊,也在开发自己的专用芯片。
最开始的时候云计算都使用传统的CPU,后来带有GPU的云服务器进入了主流视野。GPU让算力提升了数百倍,再后来人们发现GPU的性能还不够好,尤其是在大量的人工智能推理任务上,亚马逊自研了几款芯片,其中包括高性能机器学习加速芯片Inferentia等。
2020年,亚马逊Alexa语音助手已经在自研芯片上运行,测试数据显示,自研芯片Inferentia集群的处理结果,将延迟降低了25%,成本降低了30%。
这还不是终点,随着人工智能时代对算力不断提升的要求,很多平台实现差异化竞争的关键,可能就在于为特定应用设计的专用芯片,相信未来会有越来越多的互联网巨头加入自研芯片的行列。
|芯片产业的弯道超车机会在哪里?
王煜全老师在科技特训营里分享过,在过去的二十年里,芯片产业都是个直道,以英特尔和AMD为代表的X86架构的CPU,已经健全了整个产业生态,当时中国没有办法插进去,直道很难超车。
但是现在不同,有个重要的机会来了!
目前,整个芯片产业面临转型,技术正处在变革之中,从过去的单芯片功能为王的CPU架构,到现在多芯片整合,异构计算的整合芯片SOC。
这个时候CPU不重要了,异构部分的专用芯片GPU、NPU、TPU等,将是系统性能提升的关键。
也就是说从通用计算芯片解决所有问题,发展为通用芯片和专用芯片组成异构计算单元,让专用芯片去专门处理像图像、音频这样难度更大的任务,使得处理单元整体的计算效能大幅提升。
即使中国在CPU通用计算领域的产业水平有所欠缺,也有机会用更强大的专用计算芯片,使自己设备的整体处理水平更高。
这是咱们中国企业可以把握,而且必须把握的关键机会。
国家也在大力支持芯片产业发展,要推动70%的芯片到2025年内自给自足,这给中国芯片产业提供了绝佳的弯道超车机遇。
行业统计数据显示,2020年国内半导体行业股权投资已经超过1400亿人民币,比2019年已经增长近4倍了。
同时我们也看到,全球的人工智能芯片领域都处于加速发展之中。
英伟达扩张的速度越来越快,AMD在利用自己CPU+GPU的整合优势急起直追,谷歌的TPU也已经大量部署在自己的云计算平台上,我们中国的人工智能芯片更需要奋起直追。
最后,如果你也希望前瞻性地理解技术发展趋势和未来的关键控制点,看清科技企业的未来,欢迎加入科技特训营!
2021年,前哨科技特训营推出了一系列趋势投资课程,帮助学员们站在时代前沿,领先别人五年看到未来。最重要的是,在充满不确定性和各种挑战的未来,做出最正确的选择,成为时代的赢家。
本文来自网络或网友投稿,如有侵犯您的权益,请发邮件至:aisoutu@outlook.com 我们将第一时间删除。
相关素材