时间:2017-9-18来源:本站原创作者:佚名

机器之心报道

参与:机器之心编辑部

在刚刚结束的年国际高性能微处理器研讨会(HotChips)上,微软、百度、英特尔等公司都发布了一系列硬件方面的新信息,比如微软的ProjctBrainwav、百度的XPU、英特尔的14nmFPGA解决方案等。谷歌也不例外,在大会kynot中JffDan介绍了人工智能近期的发展及其对计算机系统设计的影响,同时他也对TPU、TnsorFlow进行了详细介绍。文末提供了该演讲资料的下载地址。

在演讲中,JffDan首先介绍了深度学习的崛起(及其原因),谷歌在自动驾驶、医疗健康等领域取得的最新进展。

JffDan表示,随着深度学习的发展,我们需要更多的计算能力,而深度学习也正在改变我们设计计算机的能力。

我们知道,谷歌设计了TPU专门进行神经网络推断。JffDan表示,TPU在谷歌产品中的应用已经超过了30个月,用于搜索、神经机器翻译、DpMind的AlphaGo系统等。

但部署人工智能不只是推断,还有训练阶段。TPU能够助力推断,我们又该如何加速训练?训练的加速非常的重要:无论是对产品化还是对解决大量的难题。

为了同时加速神经网络的推断与训练,谷歌设计了TPU二代。TPU二代芯片的性能如下图所示:

除了上图所述意外,TPU二代的特点还有:

每秒的浮点运算是traflops,64GB的HBM存储,GB/S的存储带宽

设计上,TPU二代可以组合连接成大型配置

下图是TPU组成的大型配置:由64块TPU二代组成,每秒11.5千万亿次浮点运算,4太字节的HBM存储。

在拥有强大的硬件之后,我们需要更强大的深度学习框架来支持这些硬件和编程语言,因为快速增长的机器学习和深度学习需要硬件和软件都能具备强大的扩展能力。因此,JffDan还详细介绍了最开始由谷歌开发的深度学习框架TnsorFlow。

深度学习框架TnsorFlow

TnsorFlow是一种采用数据流图(dataflowgraphs),用于数值计算的开源软件库。其中Tnsor代表传递的数据为张量(多维数组),Flow代表使用计算图进行运算。数据流图用「节点」(nods)和「边」(dgs)组成的有向图来描述数学运算。

TnsorFlow的目标是建立一个可以表达和分享机器学习观点与系统的公共平台。该平台是开源的,所以它不仅是谷歌的平台,同时是所有机器学习开发者和研究人员的平台,谷歌和所有机器学习开源社区的研究者都在努力使TnsorFlow成为研究和产品上最好的机器学习平台。

下面是TnsorFlow项目近年来在Github上的







































骞夸笢鍝簺鍖婚櫌鐧界櫆椋庣枟鏁堟瘮杈冨ソ
鍖椾含鐧界櫆椋庡摢瀹跺尰闄㈢湅鐨勫ソ

转载请注明原文网址:http://www.helimiaopu.com/cxys/5497.html

------分隔线----------------------------