4000多个芯片串联而成,谷歌称其超级计算机比英伟达的更快、更节能
,Alphabet Inc.旗下谷歌公司周二公布了其用于训练人工智能模型的超级计算机的新细节,称这些系统比英伟达的同类系统更快更省电。
谷歌自主设计了一种名为张量处理单元的芯片,用于训练人工智能模型,该公司 90% 以上的人工智能训练工作都使用这些芯片,这些模型可以用于诸如用人类语言回答问题或生成图像等任务。
据IT之家了解,谷歌的 TPU 现在已经是第四代了。谷歌周二发表了一篇科学论文,详细介绍了他们如何使用自己定制开发的光学开关将 4000 多个芯片串联成一台超级计算机。
改善这些连接已经成为建造人工智能超级计算机的公司之间竞争的关键点,因为为谷歌的 Bard 或 OpenAI 的 ChatGPT 等技术提供动力的所谓大型语言模型的规模已经爆炸性增长,这意味着它们太大,无法存储在单个芯片上。
这些模型必须被分割到数以千计的芯片中,然后这些芯片必须协同工作数周或更长时间来训练模型。谷歌的 PaLM 模型 —— 迄今为止其公开披露的最大的语言模型 —— 是通过将其分散到 4,000 个芯片的两台超级计算机上,历时 50 天进行训练的。
谷歌表示,其超级计算机可以轻松地实时重新配置芯片之间的连接,有助于避免问题并提高性能。
谷歌研究员 Norm Jouppi 和谷歌杰出工程师 David Patterson 在一篇关于该系统的博文中写道:“电路切换使我们很容易绕过故障部件。这种灵活性甚至允许我们改变超级计算机互连的拓扑结构,以加速 ML模型的性能。”
虽然谷歌现在才公布其超级计算机的细节,但它已经于 2020 年在内部上线,在美国俄克拉荷马州梅斯县的一个数据中心运行。谷歌表示,初创公司 Midjourney 使用了该系统来训练其模型,该模型可以在输入文字后生成图像。
谷歌在论文中说,对于同等规模的系统,其超级计算机比基于 Nvidia A100 芯片的系统快 1.7 倍,节能 1.9 倍。谷歌表示,之所以没有将其第四代产品与 Nvidia 目前的旗舰产品 H100 芯片进行比较,因为 H100 是在谷歌的芯片之后上市的,而且是用更新的技术制造的。谷歌暗示他们可能正在开发一种新的 TPU,与 Nvidia H100 竞争。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
责任编辑:余梓阳
最新阅读
-
-
-
-
-
-
特斯拉CEO埃隆・马斯克弟弟:我们兄弟俩都不迷恋财
,据外媒报道,特斯拉与SpaceX首席执行官埃隆?马斯克已经是世界首富,但他的弟弟金巴尔?马斯克(KimbalMusk)表示,他们两人都不痴迷于财富。最近接受媒体采访时,金巴尔强调,他和哥哥都没有过度...
2022-03-04 10:49 -
昔日最强机皇宣告终结:鼎盛期苹果也不是对手!
编辑:Wallace小雷搜了一下之前写过的文章,发现原来早在2018年市场上就有消息存传出,三星可能会将旗下的顶级产线GalaxyNote系列“砍掉”,由其他产品取而代之。时间来到2020年前后,眼看...
2022-03-04 10:43 -
智能自动化在能源和公用事业行业的作用
随着世界对清洁、安全、可承受和可持续的电力的迫切需求,各国对于绿色能源的需求和新应用不断增长,从而希望采用可再生能源替代化石能源。能源行业正从监管转向创新,而其客户也从被动消费者转向需求旺盛的买家。以...
2022-03-04 10:42 -
小鹏汽车投资碳化硅半导体领域公司瞻芯电子
企查查APP显示,近日,上海瞻芯电子科技有限公司发生工商变更,新增股东广州小鹏汽车投资咨询合伙企业(有限合伙),同时公司注册资本由4921.88万元人民币增加至5111.46万元人民币。企查查信息显示...
2022-03-04 10:41 -
微软智能云Azure在华的第五个数据中心区域正式启
,微软联合世纪互联正式宣布,自2022年3月1日起,全新的Azure在华数据中心区域将正式启用,客户可以不受限制地对其进行访问。这是微软智能云在中国市场的第五个Azure数据中心区域,由其合作伙伴世纪...
2022-03-04 10:39