AI时代,增强局限认知:CPU、GPU、TPU的区别

近年来,人工智能的兴起主要依赖于大数据的发展、理论算法的完善和硬件计算能力的提升。其中硬件的发展则归功于GPU的出现。

本文来自微信公众号“奔跑的路灯”。

360截图16251112669372.png

CPU

CPU应该是大家最常见的。主要包括运算器(ALU,Arithmetic and Logic Unit)和控制单元(CU,Control Unit),除此之外还包括若干寄存器、高速缓存器和它们之间通讯的数据、控制及状态的总线。CPU遵循的是冯诺依曼架构,即存储程序、顺序执行。

一条指令在CPU中执行的过程是:读取到指令后,通过指令总线送到控制器中进行译码,并发出相应的操作控制信号。然后运算器按照操作指令对数据进行计算,并通过数据总线将得到的数据存入数据缓存器。因此,CPU需要大量的空间去放置存储单元和控制逻辑,相比之下计算能力只占据了很小的一部分,在大规模并行计算能力上极受限制,而更擅长于逻辑控制。

GPU

为了解决CPU在大规模并行运算中遇到的困难,GPU应运而生,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。

近年来,人工智能的兴起主要依赖于大数据的发展、理论算法的完善和硬件计算能力的提升。其中硬件的发展则归功于GPU的出现。

TPU

人工智能旨在为机器赋予人的智能,机器学习是实现人工智能的强有力方法。所谓机器学习,即研究如何让计算机自动学习的学科。TPU就是这样一款专用于机器学习的芯片,它是Google于2016年5月提出的一个针对Tensorflow平台的可编程AI加速器,其内部的指令集在Tensorflow程序变化或者更新算法时也可以运行。

TPU可以提供高吞吐量的低精度计算,用于模型的前向运算而不是模型训练,且能效(TOPS/w)更高。在Google内部,CPU,GPU,TPU均获得了一定的应用,相比GPU,TPU更加类似于DSP,尽管计算能力略有逊色,其功耗大大降低。然而,TPU,GPU的应用都要受到CPU的控制。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论