完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
亚马逊宣布推出Inferentia,这是由AWS设计的芯片,专门用于部署带有GPU的大型AI模型,该芯片将于明年推出。
Inferentia将与TensorFlow和PyTorch等主要框架协同工作,并与EC2实例类型和亚马逊的机器学习服务SageMaker兼容。 “你将能够在每个芯片上获得数百个TOPS; 如果你愿意的话,你可以将它们捆绑在一起以获得数千个TOPS,“AWS首席执行官Andy Jassy今天在年度re:Invent会议上表示。 Inferentia还将与Elastic Inference合作,这是一种加速使用GPU芯片部署AI的方法,这也是今天宣布的。 弹性推理适用于1到32 teraflops的数据范围。Inferentia检测主要框架何时与EC2实例一起使用,然后查看神经网络的哪些部分将从加速中受益最多; 然后将这些部分移动到弹性推理以提高效率。 Jassy说,今天推出AI模型所需的两个主要流程是培训和推理,推理占了近90%的成本。 “我们认为运营成本可以通过Elastic Inference节省75%的成本,如果你将Inferentia放在其上,这是成本的另一个10倍的提升,所以这是一个重大的改变游戏规则,这两个推出推断我们的客户,“他说。 Inferentia的发布是在周一首次亮相的一款芯片之后由AWS专门用于执行通用工作流程。 Inferentia和Elastic Inference的首次亮相是今天发布的几个AI相关公告之一。今天还宣布:推出AWS市场,供开发人员销售他们的AI模型,以及DeepRacer League和AWS DeepRacer汽车的推出,该 汽车在模拟环境中使用强化学习训练的AI模型上运行。 今天预览中还提供了许多不需要预先知道如何构建或训练AI模型的服务,包括Textract用于从文档中提取文本,Personalize用于客户建议,以及Amazon Forecast,这是一种生成私有预测模型的服务。 |
|
|
|
只有小组成员才能发言,加入小组>>
21904个成员聚集在这个小组
加入小组12278 浏览 0 评论
5744 浏览 3 评论
17548 浏览 6 评论
2602 浏览 1 评论
3229 浏览 1 评论
1970浏览 2评论
889浏览 1评论
844浏览 1评论
1722浏览 1评论
1238浏览 0评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-9-11 20:09 , Processed in 0.979024 second(s), Total 78, Slave 60 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号