(文章来源:镁客网)
英伟达发布了用于自动驾驶和机器人的软件定义平台——NVIDIA DRIVE AGX Orin。该平台内置全新Orin系统级芯片,Orin由170亿个晶体管组成,集成了NVIDIA新一代GPU架构和Arm Hercules CPU内核以及全新深度学习和计算机视觉加速器,每秒可运行200万亿次计算,是上一代Xavier系统级芯片性能的7倍。
Orin可处理在自动驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D等系统安全标准。值得注意的是,Orin支持可编程,并且有丰富的工具和软件库支持,与之前的Xavier处理器兼容,支持从L2到L5级别的自动驾驶。而且由于Orin和Xavier均可通过开放的CUDA、TensorRT API及各类库进行编程,因此开发者能够在一次性投资后使用跨多代的产品。
英伟达创始人兼首席执行官黄仁勋表示:“打造安全的自动驾驶汽车,也许是当今社会所面临的最大计算挑战。实现自动驾驶汽车所需的投入呈指数级增长,面对复杂的开发任务,像Orin这样的可扩展、可编程、软件定义的AI平台不可或缺。”
硬件之外,英伟达还发布了一套使用主动学习、联邦学习和迁移学习来训练深度神经网络的工具。以联邦学习为例,可以让多个组织和公司在不移动或共享数据的情况下进行合作,英伟达将训练模型发送给各个合作伙伴,每个合作伙伴在自己的数据上训练模型。
Isaac SDK包括Isaac Robotics Engine(提供应用程序框架),Isaac GEM(预先构建的深度神经网络模型、算法、库、驱动程序和API),用于室内物流的参考应用程序以及训练机器人Isaac Sim的第一个版本(提供导航功能)。
对象检测——识别用于导航、交互或操控的对象;自由空间分割——检测和分割外部世界,例如确定人行道在哪里,以及机器人可以在哪里行驶;3D姿态估计——了解目标的位置和方向,从而实现诸如机械臂拾取物体的任务;2D人体姿态估计——将姿态估计应用于人,这对于与人互动的机器人(例如配送机器人)和协作机器人(专门设计用于与人合作)非常重要。
以新推出Isaac Sim机器人为例,它可以将所生成的软件部署到在现实世界中运行的真实机器人中。通过仿真,开发人员可以在极端情况下(即困难或异常情况下)对机器人进行测试,以进一步加强对它的训练。这有望大大加快机器人的开发速度,从而实现综合数据的训练。另外,Isaac SDK还支持多机器人仿真。这使开发人员可以将多个机器人放入仿真环境中进行测试,以便它们学会彼此相关的工作。
英伟达在去年的GTC China上发布了支持自动低精度推理的TensorRT 5,今天英伟达发布了TensorRT 7,内置新型深度学习编译器,支持各种类型的RNN、CNN和Transformer,相较于TRT 5只支持30种变换,TRT 7可以支持1000多种不同的计算变换和优化。TRT 7可为开发者设计的大量RNN配置自动生成代码,逐点融合LSTM单元,甚至可跨多个时间步长进行融合,并且尽可能做自动低精度推理。
借助TRT 7,全球各地的开发者都可以实现会话式AI应用,大幅减少推理延迟。举个例子,通常情况下,一套端到端的自然语言理解流程可能由几十种模型构成,比如RNN、CNN、自编码器等等,TRT 7可对所有模型进行编译,使其在英伟达GPU上运行。基于英伟达T4的推理会话AI只需要0.3秒,而CPU的推理延迟却高达3秒。
如今,英伟达已经售出了15亿块GPU,在使用的每块GPU都兼容CUDA。英伟达的CUDA平台具有丰富的库、工具和应用程序。仅在去年,英伟达发布了500多个SDK和库,通过优化软件栈,英伟达提高了GPU的性能,让深度学习训练在三年内提高了4倍,深度学习推理在一年内提高了2倍。
HPC应用方面,NASA在英伟达GPU上通过FUN3D软件运行火星着陆情景interwetten与威廉的赔率体系 ,产生高达150TB的数据,英伟达借助DGX-2上运行的Magnum IO GPU Direct Storage威廉希尔官方网站 ,可“实时”对这些数据进行可视化处理。另外,由于GPU的训练成本只有传统CPU的十分之一,并且可支持更大规模的模型训练,英伟达发布了深度推荐系统,百度以及阿里均有采用。
CUDA方面,英伟达发布了由CUDA加速的Parabricks基因组分析工具包,可实现30到50倍的加速,目前华大基因已经采用Parabricks来进行基因变异检测,除此之外,CUDA新增加了对5G vRAN应用的支持。
(责任编辑:fqj)
-
英伟达
+关注
关注
22文章
3766浏览量
90965 -
自动驾驶
+关注
关注
784文章
13769浏览量
166338
发布评论请先 登录
相关推荐
评论