牙膏、马甲不争气 谷歌自研芯片超CPU/GPU15-30倍

牙膏、马甲不争气 谷歌自研芯片超CPU/GPU15-30倍

肖逸文 / 2017-04-06 11:17129298

谷歌正在自研芯片以加速其机器学习算法,这已经不是什么秘密。早在2016年5月的I/O开发者大会上,谷歌就透露过这些芯片,称之为TPU(Tensor Processing Units),但当时除了表明它是围绕其TensorFlow机器学习框架而设计优化的产品外,并未公布有关于这一芯片的更多细节。如今,谷歌终于发布了一些TPU研究的成果。

其实,如果对这方面感兴趣,在谷歌论文(Google's paper)中是可以找到关于TPU的一些运作细节的。尽管如此,谷歌自身的基准测试结果,依然聚集了整个行业的目光。这一结果为谷歌评估自己的芯片,以此为前提,谷歌的公布的情况为:TPU在执行谷歌常规的机器学习工作负载方面,相较于一个标准的CPU/GPU组合,Intel Haswell CPU搭配Nvidia K80 GPU,平均要高出15倍至30倍之多。更重要的是,TPU的每瓦特性能(TeraOps/瓦特)达到了一般CPU/GPU组合的30倍至80倍,如果采用了新的内存,这一数值还将更高。

值得注意的是,这些数字都是关于生产使用中的机器学习模型,而非新创模型。谷歌还指出,虽然很多构架师针对卷积神经网络(例如,用于图像识别的特定类型神经网络)优化了这一芯片,但这些网络只占其数据中心工作负载的5%左右,而大部分应用程序使用的是多层感知器(multi-layer perceptrons)。这也就意味着,TPU的应用场景并不单一,未来的前景十分广阔。

谷歌表示,早在2006年,他们就已经开始研究如何在数据中心使用GPU、FPGA和自定义ASIC,这实际上也是TPU的本质。然而,当时并没有那么多的应用程序真的能受益于这种特殊的硬件,因为当时的硬件足够处理数据中心的负载。谷歌的文章中提到:“在2013年,我们预计深度神经网络(DNN)将会大有所为,以至于我们数据中心的计算需求将增加一倍,这个需求如果采用传统CPU来解决,将会异常昂贵。因此,我们开始了一个高度优先的项目,以快速生成用于推演的自定义ASIC(并购买了现成的GPU来进行训练)。”谷歌的研究人员说,“这样做的目的是将GPU的性能提高10倍以上。”

不过,谷歌很有可能并不会对外提供TPU。可尽管如此,还是会有很多人从谷歌的一些设计中学到些东西,得到些灵感,“设计出更出色的接班人”也并非不可能。或者至少,能给牙膏厂英特尔、马甲厂英伟达带来些压力也是好的。


发表评论注册|


0.175379s