(文章来源:EEWORLD)
大规模部署、管理和编排计算加速芯片并不容易。相反,云提供商的经济权衡更倾向于加速器产品提供的非性能方面,比如操作系统驱动程序。LiftrInsights在过去一年中一直在跟踪四大基础设施即服务(IaaS)云提供商提供的实例类型和大小:阿里云、亚马逊云服务(AWS)、谷歌云平台(GCP)和微软Azure。
在最近的Linley会议上,KevinKrewell在他的演讲中提到了编译器专业知识的重要性。然而,应用程序对加速器硬件的高效使用只是跨云地理管理和编排加速器芯片所需的整个软件解决方案的一部分。
数据中心日益膨胀,运营商正在寻找新方法来加速大量数据驱动的工作负载,从深度学习到自然语言处理。在我们即将到来的数据中心特别项目中,我们将深入研究加速AI模型训练和推断、数据分析和其他分布式应用的敏捷和超聚合数据中心架构。
在排名前四的云服务商中,所有的加速器芯片(无论类型或制造商)在过去的一年里都只连接到英特尔的Xeon处理器上,除了最近在微软Azure上安装了AMD的EPYC。Azure在今年2月率先打破了这一格局,首次生产部署了带有AMD EPYC v2 Rome处理器的AMD Radeon Instinct MI25GPU。
超大规模的挑战是对对不同处理器模型的软件驱动程序支持,所述不同处理器模型运行不同的操作系统发行版本,且版本是针对每个加速器芯片的多个版本。阿里云平台的ecs服务器大多使用intel 至强处理器,而且大多是定制版,包括Platinum(铂金) 8163、Gold(金牌) 6150、Gold(金牌) 6149、E5-2682v4、E5-2680v3、E5-2667v4以及E3-1240v6等CPU。
阿里云正式发布云服务器ECS企业级产品家族,目前已推出面向173种企业应用场景的19款实例。该系列适合在复杂的企业计算环境下,满足对于高性能、高可靠的计算需求。同时阿里云也新发布了该系列产品中采用25G网络与Skylake处理器的全新一代实例,性能持续领先。这是阿里云首次将云服务器产品线细分出企业级产品家族,与入门级产品家族相比,这一新家族实例具备更强的计算性能与可靠性,适合于核心生产业务需求的计算。
目前ECS企业级产品家族包含19款实例族,分为通用型(General Purpose Type)、计算性(Compute Type)、内存型(Memory Type)、高主频(High Frequency Compute Type)、本地SSD型(Local SSD Type)、大数据型(Big Data Network Enhancement Type)、GPU计算(GPU Compute Type)、FPGA计算(FPGA Compute Type)等类型,分别适用于包括AI、医疗、视频直播、金融、电商、IoT在内的173个应用场景。
虽然编译器和加速api必须是高性能,但是加速驱动程序必须是稳定可靠才行。超大规模的客户希望看到bug修复、防弹质量保证以及最重要的过程控制方面的快速转变。在处理器市场中,可靠性、可用性和可服务性(RAS)一直是采用Arm处理器的最大障碍之一。加速器也不例外。确保驱动程序RAS处于超大规模是一个与设计性能编译器截然不同的技能集。它需要时间来发展技能和过程控制来展示一个稳定的行为的历史。
英伟达的86%的实例类型由前四个云服务商提供。这一份额与FPGA(英特尔和Xilinx)、GPU(AMD部分产品和最近的Radeon Instinct)以及云自身的内部设计(谷歌云张量处理单元[TPU]和AWSInferentia)等高度分散的竞争领域形成了鲜明对比。在这里,仅仅在加速器的开发工具后面使用性能编译器是不够的。我们假设每个加速器芯片开发团队都有机会接触到相当优秀的编译器开发人员和普通的开发人员工具设计人员。
开发工具必须能够被大量的潜在客户使用,并且必须按照开发人员所期望的那样工作。Nvidia的CUDA为工具开发者提供了一个灵活的基础,使他们能够跨Nvidia的GPU产品线支持各种各样的开发工具。英伟达在加速器市场的份额在过去一年中略有增长,在前四大云计算中,基于加速器的整体部署增加了近70%。
Azure支持AMD的Radeon Instinct MI25在一个类型家族(NVasv4)中,但只在Windows上,类型家族的每个实例的部分GPU配置是典型的虚拟桌面环境。AMD已经展示了对实际企业桌面环境的强大支持,其先进的GPU虚拟化特性使其GPU在虚拟桌面方面具有竞争力。
只有通过深度学习框架,才能使用内部设计的深度学习加速器。谷歌允许开发人员通过TensorFlow和PyTorch访问其云TPU。AWS允许开发人员通过自己的AWS神经元软件开发工具包(SDK)访问它的“下一层”芯片,AWS已经集成了TensorFlow、PyTorch和MXNet。
Azure提供了一个基于IntelArria10FPGA实例类型(PB)。但是Azure只允许通过一组预先开发的深度学习推断模型来访问这一类型:ResNet50、ResNet152、DenseNet-121、VGG-16和SSD-VGG。Azure在2019年11月将其FPGA实例类型部署到生产中。
阿里云和AWS提供通用FPGA实例类型,并与第三方合作,在应用市场上提供FPGA开发工具和预先开发的应用程序。有两个挑战。首先,FPGA开发技能很少,不像GPU开发工具和深度学习建模框架。其次,FPGA市场应用程序必须比基于GPU的应用程序显示出明显的优势。
芯片产业的摩尔定律想必大家都不陌生,通俗版的解释是每18个月同等价格的芯片计算能力会翻倍。最近几年在PC和移动等个人芯片已满足大多数计算需求时,关于摩尔定律不再生效的论调也遍地都是。
实际上,传统计算硬件还在发展,只是速率慢了。随着大数据、人工智能的崛起,需要AI运算处理的数据,差不多每24个月就至少增长一倍,建构模型的复杂度是原来的五倍,与之相关,就需要计算能力强大十倍芯片能及时跟上,这一计算能力的提升,需要算法、软件和硬件工艺相互配合共同来完成。
为了应对量级增长的算力需求,百度发布了昆仑AI芯片,参数如下:14nm工艺;260Tops性能;512GB/s内存带宽;100+瓦特功耗。昆仑AI芯片具有高效、低成本和易用三大特征,其针对语音、NLP、图像等专门优化,同等性能下成本降低10倍,支持paddle等多个深度学习框架、编程灵活度高、灵活支持训练和预测。
在IaaS方面,在软件即服务的云中,Facebook正在与开放计算平台(OCP)加速器模块工作组(OAM)合作,开发标准化的培训和推理平台。OAM培训平台被设计用来容纳大范围的高瓦数、商业深度学习加速器,使用一个可互换的模块,集成了加速器芯片和散热器,包括AMD、Intel/HabanaGraphcore和Nvidia加速器。同样地,OAM推断平台被设计成在一个标准的M.2物理载体中容纳各种各样的小的低功率推断加速器。
Facebook已经设计了自己的Glow编译器,以优化在标准框架(如PyTorch)中开发的推断模型,使之适用于每个特定的基于m2的推断加速器。开放式基础设施,如OCP的OAM,将使低层云能够更好地与AWS、Azure、GCP和阿里云等巨头正在激烈竞争。
(责任编辑:fqj)
-
云服务
+关注
关注
0文章
823浏览量
38933 -
云威廉希尔官方网站
+关注
关注
1文章
189浏览量
18840
发布评论请先 登录
相关推荐
评论