作者:佚名       来源于:趣味地理

原标题:台积电7nm,英伟达安培架构祭出!算力霸主迄今最“疯狂”GPU,正受中国新基建数据中心主力军青睐

千呼万唤始出来。在这个疫情冲击全球的特殊时间,我们终于看到了“AI算力霸主”英伟达的首款安培架构GPU——NVIDIAA100,也是全球最大的7nm处理器。

尽管新冠疫情让很多人无法感受英伟达CEO黄仁勋本人“GPU越买越省”沉浸式演讲的魅力,在GTC之前,他仍不失幽默地上传了一段预热视频。视频中,鉴于此前英伟达的显卡造型多被吐槽为煤气灶,所以黄仁勋干脆直接在厨房中从烤箱里端出来了“预热”好的产品。

图丨被网友调侃准备展示“刀法”的黄仁勋(来源:英伟达)

实际上,英伟达的AmpereGPU其实一直是该公司的最佳机密之一,因此也在过去一年引发诸多猜测。从黄仁勋的首次(厨房)线上直播带货来看,以Ampere(电流之父安培)为名,英伟达的新一代GPU架构可谓火力全开。

(来源:英伟达)

7nm工艺加持,全新的数据中心GPU

A100GPU的核心是英伟达全新的面向AI的AmpereGPU架构。从2008年最初的仅面向计算处理单元使用的Tesla架构,到面向深度学习的Volta架构(英伟达此前最为先进的人工智能GPUTeslaV100基于该架构),再到这一次的Ampere架构,在AI计算成为主流之后,能效比的提升已经成为主导英伟达每一代架构更新的主题。

图丨A100的几大核心“卖点”(来源:英伟达)

基于安培架构,A100GPU包含超过540亿个晶体管,使其成为世界上最大的7纳米处理器,并搭配HBM2显存,面积826平方毫米,60GB/sNVLINK,现已全面投入生产并交付全球客户。

与AMD于2019年转向7nm不同,英伟达在GPU工艺上其实并无太大必要,因为英伟达12nm工艺的产品已经显现了颇具市场竞争力的性能、能效优势,这次采用台积电7nm工艺,再加上Ampere架构本身的设计突破,英伟达任务自己实现了第八代GPU迄今为止最大的性能飞跃——不但一统AI训练和推理,而且整体性能相较于前一代产品提高了20倍。

以自然语言处理领域的殿堂级算法BERT算法为例,A100比T100在训练上提升了6倍,在推理上提升7倍表现。

A100集成了英伟达的几项最新的计算技术:包括第三代的TensorCore,可更快更灵活地执行专门的矩阵数学运算,尤其适用于深度学习和某些特定的HPC任务;可将单个A100GPU划分成为多达七个独立的GPU,从而为不同任务提供不同程度的计算的Multi-instanceGPU技术;以及能够将多个A100GPU合并成一个巨大的GPU来执行更大规模的训练任务的第三代NVIDIANVLink互联技术。

英伟达认为,这些新技术组合在一起,让NVIDIAA100成为各种苛刻计算负载的理想选择,包括科学仿真、对话式AI、推荐系统、基因组学、高性能数据分析、地震建模和财务预测等应用场景。

据了解,美国、德国的多个实验室及超算中心已经开始使用A100作为超算解决方案。

(来源:英伟达)

而且Ampere架构也正被用于提升英伟达自动驾驶平台DRIVE的计算性能,赋力下一代DRIVEPegasusRobotaxi自动驾驶平台,将DRIVE系统的性能提高了6倍。现在,该平台凭借两个OrinSoC和两块NVIDIAAmpereGPU,可实现2000TOPS的性能,因此能够处理全自动驾驶出租车运行所需的更高分辨率传感器输入和更先进的自动驾驶深度神经网络。OrinSoC系列将于明年开始提供样品,在2022年下半年投入生产并向汽车制造商供应,为下一代可编程软件定义NVIDIADRIVEAGX系列奠定基础。

得益于A100和Ampere架构作为本次GTC的最大亮点得到宣布(仅次于黄仁勋家厨房曝光),今年的GTC终于有了明显的硬件“C位”,但软件更新也不缺席。

软件更新上,这次发布会延续了近年来GTC越来越明显“软件硬件两手抓不分家”的风格(甚至去年的GTC有记者称没看到英伟达发硬件,让黄仁勋无奈中又有些气愤)。

英伟达发布了多个软件堆栈更新,包括了50多个新版本CUDA相关库,可用于加速图形、模拟和Al;多模态对话式AI服务框架NVIDIAJarvis;深度推荐应用框架NVIDIAMerlin;以及NVIDIAHPCSDK,其中包括能够帮助HPC开发者调试和优化A100代码的编译器、库和工具。

英伟达相信,这一系列软件更新,会帮助开发者们更加充分发挥A100GPU性能,让A100更香。

“TheMoreUBuy,TheMoreUSave”.

“英伟达将是中国算力基建中重要部分”

眼下这场如火如荼的数据中心智能化革命,是促成英伟达在A100下如此大工夫的最大动力。

正如黄仁勋称:“云计算和AI的强大趋势正在推动数据中心设计的结构性转变,过去的纯CPU服务器正在被高效的加速计算基础架构所取代。A100GPU作为一个端到端的机器学习加速器,其实现了从数据分析到训练再到推理20倍的AI性能飞跃。这是有史以来首次可以在一个平台上实现对横向扩展以及纵向扩展的负载的加速。NVIDIAA100将在提高吞吐量的同时,降低数据中心的成本。”

图丨英伟达称A100实现了“GreatestGenerationLeap”,即迄今最大的性能飞跃(来源:英伟达)

在GTC媒体采访环节中,黄仁勋尤其强调了亚洲数据中心市场的重要性。



 1/2    1 2 下一页 尾页

上一篇厨房用什么集成灶好?帅丰集成灶油烟克星

下一篇上海出租车龙头企业转变思路,做网约车企生意!网友:烧钱吗?



 【相关文章





版权声明:文章观点仅代表作者观点,作为参考,不代表本站观点。部分文章来源于网络,如果网站中图片和文字侵犯了您的版权,请联系我们及时删除处理!转载本站内容,请注明转载网址、作者和出处,避免无谓的侵权纠纷。