主页 > tp钱包苹果端 > 办公打印评测试用

办公打印评测试用

tp钱包官网 tp钱包苹果端 2024年04月20日

谷歌最早的Google Brain搞机器识图的时候,就是大规模的GPU集群。据说曾经用力上万张GPU来进行学习训练。因为GPU并没有针对性的对谷歌的TensorFlow框架进行优化。而到了和李世石下围棋的版本,则已经开始使用自己的TPU,但是多达50个。


谷歌完整经历了从CPU到GPU再到TPU的流程

到了与柯洁下棋的时候,可以看到机器已经变成了只要一个4U左右的4TPU服务器就可以,这就是专用芯片的威力,对于AI和神经网络,专用芯片的效率提升是指数式的,而不是线性的几个机架缩小到1个。


TPU2.0:四个一张PCB,算力可以达到180TFlops

谷歌的TPU全称叫做Tensor Processing Unit,张量处理单元,它针对谷歌的深度学习框架TensorFlow定制开发,TPU推出只有8位的低精度计算,并且有不小的板载内存以减少对内存的访问,但是优化后可以极大的提高机器学习的效率。


TPU3.0的高功耗不得不用上水冷散热


图片下面8个互联机架有每秒1000万亿次的能力

与柯洁下棋的是TPU二代,四个TPU有180TFlops的计算能力。而这两天的谷歌I/O上则推出了TPU3.0版本,功耗进一步加大,使用了水冷。根据谷歌CEO Pichai的话说,要比过去快十倍以上:这其实说的是一整个集群模块,可以达到100PFlops,也就是所说的每秒1000万亿次。

TPU只是对TensorFlow优化

当然TPU不是万能的,它针对的是谷歌的学习框架,而Facebook的学习PyTorch框架基本就没法用,所以目前来说还只是针对性的硬件。

本文属于原创文章,如若转载,请注明来源:谷歌已经All in:AI浪潮下的硬件风暴//oa.zol.com.cn/688/6882881.html

//oa.zol.com.cn/688/6888719.html oa.zol.com.cn true 中关村在线 //oa.zol.com.cn/688/6882881.html report 1248    谷歌最早的Google Brain搞机器识图的时候,就是大规模的GPU集群。据说曾经用力上万张GPU来进行学习训练。因为GPU并没有针对性的对谷歌的TensorFlow框架进行优化。而到了和李世石下围棋的版本,则已经开始使用自己的TPU,但是多达50个。谷歌完整经...

标签: 人工智能   AI