0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于NIVIDA RTX的GPU加速边缘AI服务器——AIR-500D

jf_01711660 来源:jf_01711660 作者:jf_01711660 2023-08-17 13:31 次阅读

随着边缘计算和人工智能对制造业、智慧城市、医疗和其他行业的不断深入,应用中对海量图像数据处理的需求持续激增。作为NVIDIA的精英合作伙伴,研华可提供基于英伟达最新的Jetson AGX Orin和RTX系列平台的边缘AI解决方案。这些性能出色的解决方案非常适合于包括机器人视频分析在内的各种AI应用。研华的解决方案包括一个紧凑的人工智能系统和一个服务器级系统,可满足边缘推理和再训练的要求。

基于NIVIDA RTX的GPU加速边缘AI系统

双GPU用于计算密集型AI推理及再训练

产品特点:

Intel Xeon-1700系列处理器

• 支持4 x DDR4 SO-DIMM插槽,最大可达128GB

• 支持双PCIe x16 350W高性能GPU卡

• 海量存储,支持4 × 2.5 " SATAIII SSD RAID 0/1

• 支持扩展PCIe x1/x4/x16, M.2 B Key和E Key

• 内置1200W电源

• 支持IPMI 2.0管理,可靠性和安全性增强

案例分享——机器人AOI缺陷检测

传统的机器视觉系统有时无法区分缺陷,因为视觉上相似的部件之间也可能存在差异和偏差。通过利用AI威廉希尔官方网站 ,可以解决这个问题,并提高整体检测的精准度。

本案例中的客户是一家机器人视觉设备制造商,他们将自己的机械臂与AI威廉希尔官方网站 相结合,进行检测缺陷。AIR-500D利用2 x RTX GPU处理不同生产线上捕获到的大量图像数据,然后,对这些图片进行分类、检测和重新整理,训练AI模型,提高分析结论的准确性。
研华嵌入式边缘智能系统AIR-500D,是基于英伟达最新的Jetson AGX Orin和RTX系列平台的边缘AI解决方案。更多关于AIR-500D或研华工控机信息,可关注苏州研讯电子科技有限公司~

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 工控机
    +关注

    关注

    10

    文章

    1735

    浏览量

    50556
  • 服务器
    +关注

    关注

    12

    文章

    9165

    浏览量

    85438
  • 人工智能
    +关注

    关注

    1791

    文章

    47282

    浏览量

    238537
  • AOI
    AOI
    +关注

    关注

    6

    文章

    143

    浏览量

    24387
收藏 人收藏

    评论

    相关推荐

    GPU加速服务器怎么用的

    GPU加速服务器是将GPU硬件与云计算服务相结合,通过云服务提供商的平台,用户可以根据需求灵活
    的头像 发表于 12-26 11:58 53次阅读

    GPU服务器租用费用贵吗

    在云计算领域,GPU服务器因其强大的计算能力和图形处理能力,被广泛应用于多个领域。然而,对于许多企业和个人开发者来说,GPU服务器的租用费用仍然是一个重要的考虑因素。那么,
    的头像 发表于 12-19 17:55 146次阅读

    GPU服务器租用多少钱

    GPU服务器的租用价格受多种因素影响,包括服务提供商、GPU型号和性能、实例规格、计费模式、促销活动以及地域差异等。下面,AI部落小编为您
    的头像 发表于 12-09 10:50 139次阅读

    租用GPU服务器一般多少钱

    租用GPU服务器的费用受到多种因素的影响,包括服务器配置、租用时长、服务提供商以及市场供需状况等。下面,AI部落小编带您了解租用
    的头像 发表于 11-25 10:28 193次阅读

    GPU服务器和传统的服务器有什么区别

    GPU服务器与传统的服务器在多个方面存在显著差异,主机推荐小编为您整理发布GPU服务器和传统的服务器
    的头像 发表于 11-07 11:05 211次阅读

    GPU服务器AI网络架构设计

    众所周知,在大型模型训练中,通常采用每台服务器配备多个GPU的集群架构。在上一篇文章《高性能GPU服务器AI网络架构(上篇)》中,我们对
    的头像 发表于 11-05 16:20 356次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>服务器</b><b class='flag-5'>AI</b>网络架构设计

    GPU高性能服务器配置

    GPU高性能服务器作为提升计算速度和效率的关键设备,在各大应用场景中发挥着越来越重要的作用。在此,petacloud.ai小编为你介绍GPU高性能
    的头像 发表于 10-21 10:42 211次阅读

    什么是AI服务器AI服务器的优势是什么?

    AI服务器是一种专门为人工智能应用设计的服务器,它采用异构形式的硬件架构,通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与
    的头像 发表于 09-21 11:43 871次阅读

    GPU服务器AI训练中的优势具体体现在哪些方面?

    GPU服务器AI训练中的优势主要体现在以下几个方面: 1、并行处理能力:GPU服务器拥有大量的并行处理核心,这使得它们能够同时处理成千上万
    的头像 发表于 09-11 13:24 419次阅读

    ai服务器是什么架构类型

    架构的AI服务器通常具有较高的通用性,可以运行各种人工智能算法。但是,CPU架构的AI服务器在处理大规模并行计算时,性能可能不如GPU架构的
    的头像 发表于 07-02 09:51 1080次阅读

    耐能推出最新的边缘AI服务器及内置耐能AI芯片的PC设备

    加速棒和边缘服务器,与领先的 GPU 配合使用时,可将其能耗降低 30%。 2024年6月5日,耐能今天于2024年台北国际电脑展(COMPUTEX 2024)上宣布推出最新的
    的头像 发表于 06-05 10:21 631次阅读

    台积电:AI服务器处理预计翻番,拉动收入增长 

    台积电将 AI 服务器处理严格限定为用于 AI 训练与推理的 GPU、CPU 及 AI
    的头像 发表于 04-19 15:04 360次阅读

    使用NVIDIA Triton推理服务器加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器加速 AI 预测。
    的头像 发表于 02-29 14:04 585次阅读

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别有哪些

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别 GPU
    的头像 发表于 01-30 15:31 872次阅读

    超微gpu服务器评测

    随着科技的不断发展和进步,GPU服务器在大数据分析、深度学习、人工智能等领域正变得越来越重要。而超微GPU服务器因其出色的性能和高度定制化的优势,成为了众多企业和研究机构的首选。本文将
    的头像 发表于 01-10 10:37 1393次阅读