TPU要比GPU和C快15-30倍这是谷歌定制芯片一年后给出的答案
原标题:TPU要比GPU和CPU快15-30倍,这是谷歌定制芯片一年后给出的答案
2016年的I/O 开发者大会上,谷歌公布了自己研发的定制化芯片——Tensor Processing Units (TPU) ,并且透露已经在公司内部的数据中心使用了将近一年。该定制化芯片主要用来加速公司的机器学习算法,而且会优化公司的TensorFlow机器学习架构,但其并未透露更多的内容。
日前,谷歌在中介绍了更多关于该芯片的详细内容和一些使用标准。如果你是一个芯片设计者,你可以在该份文件中找到TPU工作的原理所在。谷歌方面表示TPU的运转速度很快,但这都是基于公司的数据进行的评估。
在运行谷歌常规的机器学习工作量的时候,TPU的平均运转速度要比标准的GPU/CPU组合(比如Intel的Haswell处理器和Nvidia 的 K80 GPU)快15-30倍。在数据中心计算功耗时,TPU还提供30-80倍的TeraOps/瓦特(如果未来使用更快的存储,这一数字可能还会提高)。
值得注意的是,这些数字是关于在生产中使用机器学习模型的,而不是首先创建模型。
Google还表示,大多数架构师为卷积神经网络(比如一种可以很好的识别图像的神经网络)优化了其芯片,但这些网络负责的工作量只占到公司数据中心总工作量的5%。事实上,大部分应用使用的是多层感知器。
另外,谷歌还表示公司从2006年就开始研究如何在数据中心中使用GPU、FPGA和定制的ASICS(这对定义TPU很重要)。然而,当时并没有很多的应用程序真的可以从这种特殊硬件中受益,因为他们所需的大量工作量可以在数据中心已经有的硬件中进行处理。
这种改变发生在2013年,公司当时预测DNN可能会变得越来越流行,这可能会使公司数据中心的计算需求增加一倍。如果用传统的CPU来满足这一计算量将变得很昂贵。因此,公司开始了一个优先项目,可以快速生成用于推理的定制ASIC(同时公司买了用于培训的现成GPU)。这样做的目的是,把芯片的性能提高10倍(比起GPU)。
对于谷歌来说,公司不太可能在自己的云端之外提供TPU。但公司表示,其他公司可以通过所掌握的技术进一步的提高进入这一领域的门槛。
随着人工智能、深度学习等技术的加入,行业里对芯片的要求也越来越高。像ARM、高通、英伟达这样的芯片公司在不断研发新的芯片。比如ARM此前推出了DynamlQ芯片,公司表示未来3年-5年,使用DynamlQ技术的Cortex-A系列处理器,其人工智能运算性能将提升50倍。而且可将CPU和SoC上特定硬件加速器的反应速度提升10倍。
另外一些科技巨头也在研发自己的芯片,除了谷歌外还有苹果。苹果已经打算在Mac、iPhone中多采用自己的芯片,下一代iPhone可能使用苹果自己设计的A11芯片。除了国外,国内的华为、小米也在斥巨资研发自己的芯片。
在硬件生产领域,芯片算是整个生产链条中较为核心的技术。这些大公司都想在这一技术上有所突破似乎也不难理解。返回搜狐,查看更多
热点阅读
- 构建公平合理、合作共赢的全球气候治
- 淮南传送带输送机
- 2021年TPU股票概念有哪些?看看有你
- 《吉林省空气质量巩固提升行动方案》
- 湖南北云科技高精度定位定向接收机市
- 趣步赞丽生活有十几人被湖南怀化警方
- 家长们注意这样的事故要尽量避免发生
- 湖南在大湾区签署科技创新合作协议
- 人民日报评论员观察:创造不负时代的
- 更智慧的空气质量解决方案 评AIRBURG
- 黑龙江智慧消防实时监测安全
- 浅谈大数据中智慧消防的分析
- 传送带故障 山航重庆及时保障行李运
- 江苏省镇江市地税局推行“一次性告知
- 最新304不锈钢价格走势分析采购的你
- 限时限量;智慧消防工程师证如何报考
- 引领行业发展强动力技诺新风致力于解
- 湖南省新田县第一中学高二生物必修3
- 科技赋能 智慧消防助力江西安义县消
- 青岛2025年全面铺开“智慧消防”建设