数字报 济南日报 济南时报 都市女报 当代健康报 人口导报
外文版
繁体中文

谷歌定制机器学习芯片强悍:比GPU加CPU至少快15倍

http://www.e23.cn2017-04-06搜狐

    摘  要:谷歌开发定制芯片,它可以提高机器学习算法的运算速度,这不是什么秘密。谷歌管这些处理器叫作Tensor Processing Units(简称TPU),2016年5月,谷歌在I/O开发者大会上首次展示了TPU,之后再也没有提供更多细节,谷歌只是说它正在用TPU优化TensorFlow机器学习框架。今天,谷歌公布了更多内容。

谷歌定制机器学习芯片强悍:比GPU加CPU至少快15倍

  北京时间4月6日消息,谷歌开发定制芯片,它可以提高机器学习算法的运算速度,这不是什么秘密。谷歌管这些处理器叫作Tensor Processing Units(简称TPU),2016年5月,谷歌在I/O开发者大会上首次展示了TPU,之后再也没有提供更多细节,谷歌只是说它正在用TPU优化TensorFlow机器学习框架。今天,谷歌公布了更多内容。

  根据谷歌自己制定的基准,TPU执行谷歌常规机器学习任务时,速度比标准GPU/CPU组合产品平均快了15倍至30倍。标准GPU/CPU组合产品将英特尔Haswell处理器与Nvidia K80 GPU安装在一起。数据中心极为重视能耗,使用TPU后每瓦特性能(也就是TeraOps/Watt,每万亿次/瓦特)提高了30-80倍。请注意,谷歌提供的数据是在生产过程中使用机器学习模型时获得的,并不是最初创建模型时的数据。

  谷歌还表示,大多数架构师优化芯片是为了提高卷积神经网络的性能,不过卷积神经网络只占了数据中心负载的5%,大部分应用使用的是多层感知器神经网络。

  2006年,谷歌开始研究如何将GPU、FPGA、定制ASICS应用于数据中心。不过当时并没有太多应用因为特殊硬件获益,许多繁重的任务可以用数据中心多余的硬件完成。

  到了2013年情况开始改变,当时谷歌认为DNN将会变得流行起来,数据中心的计算需求将会翻倍,如果用传统CPU计算成本相当高。正因如此,谷歌启动一个项目,用定制ASIC完成推算,采购现在GPU用于训练。谷歌报告称,与GPU相比,将成本效益提高10倍就是它的目标。

网络编辑:杨甜梦子

浮世绘

免责声明:凡本网注明“来源:XXX(非舜网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。本网转载其他媒体之稿件,意在为公众提供免费服务。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。