首页 理论教育 AI计算能力的支撑

AI计算能力的支撑

时间:2023-06-27 理论教育 版权反馈
【摘要】:大规模的数据之所以能够进行处理,就是因为有了很强的计算能力,这主要是因为人工智能的运用。GPU集群是当今AI计算能力的重要支撑,它在高性能计算领域的使用越来越普遍,使得CPU不再是计算芯片的唯一选择。目前比较成熟的ASIC芯片和FPGA,是中国做人工智能芯片企业的主战场,应在这方面发力。现在的计算机能力都很强,如计算能力,它的主频都是多少多少千兆赫兹。

AI计算能力的支撑

大规模的数据之所以能够进行处理,就是因为有了很强的计算能力,这主要是因为人工智能的运用。这个计算能力,一个是用GPU集群来做离线训练的,另一个就是用在线云服务来做。

1.超级GPU集群服务器。GPU就是图形处理器,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑工作站游戏机和一些移动设备如平板电脑、智能手机上进行图像运算工作的微处理器。其用途是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要元件,也是“人机对话”的重要设备之一。GPU集群是当今AI计算能力的重要支撑,它在高性能计算领域的使用越来越普遍,使得CPU不再是计算芯片的唯一选择。与CPU相比,GPU具有更强大的计算能力,以NVIDIA(英伟达,一家人工智能计算公司)最新的产品K80为例,它具有4992个核心,双精度浮点计算能力高达2.9 TFlops(TFlops,即每秒万亿次的浮点运算),内部存储带宽480 GB/s,具有非常强大的计算能力,非常适合应用于高性能计算的各领域。同时GPU还具有成本低、性能高、功耗小等优势,降低用户的整体成本,使更多中小企业、初创公司有能力搭建自己的GPU集群。

人们看到的集群这一块,有很多像NVIDIA这样做显卡的,它推出很多人工智能芯片或者服务器,现在最新的特斯拉V100,还有它的DGX2深度学习计算机。在几个芯片巨头里面我们都发现,NVIDIA、英特尔、高通这三个芯片巨头,都在全球范围内竞争人工智能芯片,而且尤其是发力在自动驾驶的芯片上面。因为自动驾驶对人工智能来说是一个非常好的垂直应用领域,也是商业空间巨大的场景。

2.ASIC和FPGA。除了集群计算以外,人们还看到,为了降低功耗,降低成本,就采用所谓的专用集成电路,就是ASIC芯片(Application Specific Integrated Circuit),还有的采用FPGA(Field-Programmable Gate Array)——现场可编程门阵列——来做深度学习的推断,把它用到云平台的在线应用,或者用在终端上面。今后我们用的手机、可穿戴设备,包括家电都会大量应用人工智能芯片,包括大家看到的人工智能摄像机、摄像头。现在的摄像头里面,都是采用视频流来进行传输的,以后会在摄像头里面加上芯片,所以这是一个巨大的产业。

目前比较成熟的ASIC芯片和FPGA,是中国做人工智能芯片企业的主战场,应在这方面发力。如现在的AlphaGo,实际上就是靠谷歌的高性能处理器(Tensor Processing Unit,简称“TPU”)来支撑的,它是第一代的TPU,叫TPU1。在乌镇比赛的时候,采用的是TPU2,即第二代的TPU,而且是个单机版的,就相当于一个单机,插四块显卡,在乌镇比赛就可以战胜柯洁。可见TPU的发展能力是非常强的,它的浮点能力已经做到180 TFlops的水平。

中国人做芯片,主要是在ASIC芯片或者FPGA上面做,现在国内市场上已经有很多的创意公司出现了,解决了领导力的问题。在PC时代,芯片一直是制约中国计算机发展的一个痛点,我们一直没有解决。在人工智能新的时代,做芯片就要解决0到1问题,就是要有所作为。现在中国是在做1到N的快速迭代,比较典型的有中科院计算所的寒武纪深度学习处理器;北京一家公司的地平线机器人,现在已经发布了征程;还有旭日的两款嵌入式人工智能处理器;具有清华电子系背景的深鉴科技,也是做了FPGA,FPGA做了一个超低功耗的一个分散处理单元(Distributed Processing Unit,简称“DPU”)。此外,我国人工智能芯片还有一种类型,就是更超前的类脑芯片。(www.xing528.com)

3.类脑芯片。目前国家正在大力布局发展基于传统CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)工艺的类脑芯片,其典型代表就是IBM做的TrueNorth(仿人脑芯片),它的最大特点是采用所谓的发放神经元,其好处是功耗只有63毫瓦,能大大地降低功耗,而且它还有力地推动了非冯·诺依曼体制计算机的发展。

人们现在使用的计算机采用冯·诺依曼体系结构,就是集中内存的,还有中央处理器(Central Processing Unit,简称“CPU”)。CPU和内存之间有大量的交换数据,需要带宽。现在的带宽已经做得很高了,基本上做到了物理极限,但因为数据量越来越大,模型越来越大,感觉带宽还是不够宽。我们知道人脑是分布式的,每个神经元既可以做计算,还可以做存储,是分布式计算、分布式存储的,非冯·诺依曼体制计算机的芯片就实现了这种理念。

另外一个特点,就是看起来100万神经元好像是挺大的,其实一点都不大。我们知道大脑皮层一个小的功能柱,里面的神经元就是百万到千万。大脑皮层中有这么多的功能柱,把它加起来其功耗差不多只有20瓦到25瓦。人们大脑皮层的生物能是可以转化的,所以在人脑的能力上,现在的机器还远远比不上。现在的计算机能力都很强,如计算能力,它的主频都是多少多少千兆赫兹人类大脑里神经元的主频是多少?1k,就是一千个,采用脉冲的形式,因此人类大脑神经元的电信号就是脉冲,一个一个脉冲,一个一个地刺激,就产生一串脉冲,刺激越大,频率越快,根据频率编码,一秒钟只允许一千个脉冲。我们现在的计算机都是千兆赫兹的,它的主频就比人脑要快很多,是一个纳秒的水平,而人还是毫秒的水平。

除了传统的CMOS工艺外,现在还出现了一种叫作新型忆阻器的头脑风暴器件,其实就是一个记忆电阻。记忆电阻的概念最早是在1971年,由加州大学伯克利分校的一个华人教授蔡少棠提出来的,他设想这个世界上除了电阻、电容、电感之外,应该还有第四种称之为忆阻器的器件。2008年,惠普公司首先把忆阻器制出来了,惠普公司基于这个忆阻器研制了人工智能芯片,这个芯片与人的神经元很类似,通过电阻的电流突然断了之后,它能够把刚刚断了电流那一时刻的电阻值记忆下来并保持不变,这个记忆电阻就是忆阻器。由于它的集成度更高,读取的速度更快,而且功耗也更低,所以它的商业价值是非常巨大的。还有一个就是算法,它是最核心的,是个关键技术。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈