0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

FPGA取代AI加速器中的GPU

eeDesigner 2020-07-21 15:14 次阅读

AI软件初创公司Mipsology正在与Xilinx合作,以使FPGA能够仅使用一个附加命令即可替换AI加速器应用程序中的GPUMipsology的“零努力”软件Zebra将GPU代码转换为可在FPGA上的Mipsology的AI计算引擎上运行,而无需进行任何代码更改或重新培训。

赛灵思今天宣布,将为数据中心向Zebra交付最新版本的Alveo U50卡。Zebra已经在其他Xilinx板上支持推理加速,包括Alveo U200和Alveo U250。

Xilinx Alveo U50卡,旨在取代AI Acceleration中的GPU
赛灵思最新版本的Alveo U50数据中心加速卡现在带有Mipsology的Zebra软件,用于转换GPU AI代码以在FPGA上运行(图片:Xilinx)

Xilinx营销副总裁Ramine Roane表示:“ Zebra带给我们的Alveo卡的加速水平使CPU和GPU加速器感到羞愧。”“与Zebra结合使用,Alveo U50满足了AI工作负载的灵活性和性能需求,并为任何部署提供了高吞吐量和低延迟性能优势。”


过去,即插即用的FPGA对于非专业人士来说很难编程,但是Mipsology希望将FPGA变成即插即用的解决方案,就像CPU或GPU一样容易使用。这样做的想法是使从其他类型的加速切换到FPGA尽可能容易。

Mipsology首席执行官Ludovic Larzul说:“最好的方式是[Mipsology],我们使用FPGA之上的软件来使它们透明化,就像Nvidia用Cuda CuDNN来使GPU对AI用户完全透明一样。“在接受EE Times采访时

至关重要的是,这可以由非专家完成,而无需具备深厚的AI专业知识或FPGA技能,因为无需进行模型再培训即可过渡。

“易用性非常重要,因为当您查看人们的AI项目时,他们通常无法访问设计神经网络的AI团队,” Larzul说。“通常,如果有人安装了一个机器人系统或一个视频监视系统……他们会让其他团队或其他团体开发神经网络并对其进行培训。一旦获得了[训练有素的模型],他们就不会更改它,因为他们没有专业知识。”

Mipsology Zebra软件堆栈。 Zebra使FPGA能够取代GPU
斑马的堆栈。该威廉希尔官方网站 适用于数据中心,边缘和嵌入式应用程序(图片:Mipsology)

与Xilinx对比当Xilinx
已经拥有自己的神经网络加速器引擎(XDNN)时,为什么会支持第三方软件?

“一句话的重点是:我们做得更好,”拉尔祖尔说。“另一句话是:我们的作品。”

Mipsology在Zebra中拥有自己的计算引擎,该引擎支持客户现有的卷积神经网络(CNN)模型,与XDNN不同,Larzul表示XDNN支持大量演示,但不太适合定制神经网络。他说,这使使用XDNN建立和运行自定义网络“痛苦”。尽管XDNN可以在不受GPU威胁的应用程序中竞争,但Zebra旨在使FPGA根据性能,成本和易用性直接采用GPU。

Mipsology Zebra堆栈详细-帮助FPGA取代GPU
斑马的堆栈详细。目的是通过尽可能多地隐藏硬件来使FPGA成为从GPU或CPU到AI加速的更简单的切换(图片:Mipsology)

Larzul说,大多数客户改变GPU解决方案的动机是成本。

他说:“他们想降低硬件成本,但又不想重新设计神经网络。”“(避免了)一笔非经常性的费用,因为我们能够透明地替换GPU,并且无需重新训练或修改神经网络。”

FPGA还具有可靠性,部分原因是因为它们在芯片领域不那么积极,并且通常比包括GPU在内的其他加速器类型运行温度更低。这在需要长期维护成本的数据中心中尤其重要。

拉尔祖尔说:“总拥有成本不仅仅是董事会的价格。”“确保系统正常运行还需要付出代价。”

Zebra还旨在使FPGA在性能上竞争。Larzul说,尽管FPGA通常提供比其他加速器更少的TOPS(每秒Tera操作),但由于Zebra精心设计的计算引擎,它们能够更有效地使用TOPS。

Ludovic Larzul(图片:Mipsology)
Ludovic Larzul(图片:Mipsology)

“这是大多数加速AI的ASIC初创企业都忘记了的-他们在做很大的一块硅片,试图包装更多的TOPS,但是他们没有考虑如何在网络上映射它以提高效率”,他说,并指出Zebra的基于FPGA的引擎比TOPS量为6倍的GPU每秒能够处理更多图像。

如何实现的?尽管Larzul没有提供确切的细节,但他确实表示它们不依赖修剪,因为精度降低太大,以至于不进行重新培训就无法接受。由于相同的原因,它们不使用极限量化(低于8位)。

Zebra的引擎加快了CNN的速度,而CNN如今已广泛用于图像和视频处理应用程序,但Zebra也可以应用于使用类似数学概念的BERT(Google的自然语言处理模型)。Zebra的未来迭代可能会覆盖其他类型的神经网络,包括LSTM(长期短期记忆)和RNN(递归神经网络),但这很难实现,因为RNN在数学上更加多样化。

EVE
Mipsology的团队成立于2015年,在法国约有30人从事研发工作,在加利福尼亚有一个小团队,主要负责业务发展。公司已获得总计700万美元的资金,其中200万美元是2019年法国政府创新竞赛的奖金。

Mipsology的核心团队来自EVE,这一家ASIC仿真器公司,于2012年被Synopsys收购,用于其ZeBu(零错误)硬件辅助验证产品,当时是Cadence钯金验证平台的竞争对手。Larzul认为,几乎所有主要的ASIC公司都使用EVE威廉希尔官方网站 在设计周期内验证ASIC。该威廉希尔官方网站 依赖于连接在一起的数千个FPGA来重现ASIC行为。

Mipsology拥有12项正在申请的专利,并且与Xilinx密切合作,并且与第三方加速器卡兼容,例如Western Digital小型(SFF U.2)卡和Vega-4001等研华卡。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1629

    文章

    21735

    浏览量

    603156
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4735

    浏览量

    128919
  • AI
    AI
    +关注

    关注

    87

    文章

    30830

    浏览量

    268984
收藏 人收藏

    评论

    相关推荐

    英伟达AI加速器新蓝图:集成硅光子I/O,3D垂直堆叠 DRAM 内存

    冷板。 在英伟达给出的模型,每个 AI 加速器复合体包含 4 个 GPU 模块,每个 GPU 模块与 6 个小型 DRAM 内存
    的头像 发表于 12-13 11:37 180次阅读
    英伟达<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>新蓝图:集成硅光子I/O,3D垂直堆叠 DRAM 内存

    从版本控制到全流程支持:揭秘Helix Core如何成为您的创意加速器

    加速器
    龙智DevSecOps
    发布于 :2024年11月26日 13:42:47

    《算力芯片 高性能 CPUGPUNPU 微架构分析》第3篇阅读心得:GPU革命:从图形引擎到AI加速器的蜕变

    场景精确投射到2D平面;最后在像素着色阶段完成材质渲染和光照明细处理。DirectX API的迭代推动了可编程着色的发展,解放了GPU的通用计算潜能。特别是像素着色的设计,启发了我在深度学习任务
    发表于 11-24 17:12

    英特尔发布Gaudi3 AI加速器,押注低成本优势挑战市场

    英特尔近期震撼发布了专为AI工作负载设计的Gaudi3加速器,这款新芯片虽在速度上不及英伟达热门型号H100与H200 GPU,但英特尔巧妙地将竞争优势聚焦于其更为亲民的价格与总拥有成本(TCO)上。
    的头像 发表于 09-26 16:16 817次阅读

    下一代高功能新一代AI加速器(DRP-AI3):10x在高级AI系统高级AI更快的嵌入处理

    电子发烧友网站提供《下一代高功能新一代AI加速器(DRP-AI3):10x在高级AI系统高级AI
    发表于 08-15 11:06 0次下载
    下一代高功能新一代<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>(DRP-<b class='flag-5'>AI</b>3):10x在高级<b class='flag-5'>AI</b>系统高级<b class='flag-5'>AI</b><b class='flag-5'>中</b>更快的嵌入处理

    美国限制向中东AI加速器出口,审查国家安全

    AI加速器能协助数据中心处理大量人工智能聊天机器人和其他工具的开发信息。如今,它们已然成为构建AI基础设施的企业和政府的必需品。
    的头像 发表于 05-31 09:20 586次阅读

    台积电:AI服务处理预计翻番,拉动收入增长 

    台积电将 AI 服务处理严格限定为用于 AI 训练与推理的 GPU、CPU 及 AI
    的头像 发表于 04-19 15:04 358次阅读

    Arm发布新一代Ethos-U AI加速器 Arm旨在瞄准国产CPU市场

    Arm发布的新一代Ethos-U AI加速器确实在业界引起了广泛关注。
    的头像 发表于 04-18 15:59 755次阅读

    Arm推动生成式AI落地边缘!全新Ethos-U85 AI加速器支持Transformer 架构,性能提升四倍

    电子发烧友网报道(文/黄晶晶)在嵌入式领域,边缘与端侧AI推理需求不断增长,Arm既有Helium 威廉希尔官方网站 使 CPU 能够执行更多计算密集型的 AI 推理算法,也有Ethos 系列 AI 加速器
    的头像 发表于 04-16 09:10 4605次阅读
    Arm推动生成式<b class='flag-5'>AI</b>落地边缘!全新Ethos-U85 <b class='flag-5'>AI</b><b class='flag-5'>加速器</b>支持Transformer 架构,性能提升四倍

    Hitek Systems开发基于PCIe的高性能加速器以满足行业需求

    Hitek Systems 使用开放式 FPGA 堆栈 (OFS) 和 Agilex 7 FPGA,以开发基于最新 PCIe 的高性能加速器 (HiPrAcc),旨在满足网络、计算和高容量存储应用的需求。
    的头像 发表于 03-22 14:02 632次阅读
    Hitek Systems开发基于PCIe的高性能<b class='flag-5'>加速器</b>以满足行业需求

    FPGA在深度学习应用或将取代GPU

    ,这使其在 AI 应用面临着一些挑战。 Larzul 表示,想要解决这些问题的解决方案便是实现现场可编程门阵列 (FPGA),这也是他们公司的研究领域。FPGA 是一种处理
    发表于 03-21 15:19

    瑞萨发布下一代动态可重构人工智能处理加速器

    瑞萨最新发布的动态可重构人工智能处理(DRP-AI加速器,在业界引起了广泛关注。这款加速器拥有卓越的10 TOPS/W高功率效率,相比传统威廉希尔官方网站 ,效率提升了惊人的10倍。其独特之处在
    的头像 发表于 03-08 13:45 769次阅读

    家居智能化,推动AI加速器的发展

    提高了系统的运算能力和数据处理能力,还为用户带来了更加智能化、个性化的生活体验。   AI 加速器的发展   在人工智能和机器学习任务变得日益复杂和密集之前,传统的CPU和GPU已经足以处理这些任务。然而,随着深度学习模型的出现
    的头像 发表于 02-23 00:18 4586次阅读

    【国产FPGA+OMAPL138开发板体验】(原创)5.FPGAAI加速源代码

    使用硬件加速器来进一步提升性能。我写的这个简化的代码只是为了帮助理解FPGA如何可能参与AI计算的过程。在实际的FPGA AI
    发表于 02-12 16:18

    回旋加速器原理 回旋加速器的影响因素

    回旋加速器(Cyclotron)是一种用于加速带电粒子的可再生粒子加速器。它的工作原理基于带电粒子在恒定强磁场的运动。本文将详细介绍回旋加速器
    的头像 发表于 01-30 10:02 3955次阅读