0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

最强A卡刚发布 NV就出大招:80GB HBM2e、性能提升200%

工程师邓生 来源:快科技 作者:宪瑞 2020-11-17 10:15 次阅读

昨晚AMD刚刚发布了7nm CDNA架构的MI100加速卡,NVIDIA这边就推出了A100 80GB加速卡。虽然AMD把性能夺回去了,但是A100 80GB的HBM2e显存也是史无前例了。

NVIDIA今年3月份发布了安培架构的A100加速卡(名字中没有Tesla了),升级了7nm工艺和Ampere安培架构,集成542亿晶体管,826mm2核心面积,使用了40GB HBM2显存,带宽1.6TB/s。

图片来自Anandtech网站

现在的A100 80GB加速卡在GPU芯片上没变化,依然是A100核心,6912个CUDA核心,加速频率1.41GHz,FP32性能19.5TFLOPS,FP64性能9.7TFLOPS,INT8性能624TOPS,TDP 400W。

变化的主要是显存,之前是40GB,HBM2规格的,带宽1.6TB/s,现在升级到了80GB,显存类型也变成了更先进的HBM2e,频率从2.4Gbps提升到3.2Gbps,使得带宽从1.6TB/s提升到2TB/s。

对游戏卡来说,这样的显存容量肯定是浪费了,但是在高性能计算、AI等领域,显存很容易成为瓶颈,所以翻倍到80GB之后,A100 80GB显卡可以提供更高的性能,NVIDIA官方信息称它的性能少则提升25%,多则提升200%,特别是在AI训练中,同时能效也提升了25%。

在A100 80GB加速卡发布之后,现在的A100 40GB版依然会继续销售。

责任编辑:PSY

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • amd
    amd
    +关注

    关注

    25

    文章

    5466

    浏览量

    134110
  • NVIDIA
    +关注

    关注

    14

    文章

    4981

    浏览量

    102999
  • 显存
    +关注

    关注

    0

    文章

    108

    浏览量

    13658
  • 加速卡
    +关注

    关注

    1

    文章

    60

    浏览量

    10943
收藏 人收藏

    评论

    相关推荐

    美光发布HBM4与HBM4E项目新进展

    2048位接口,这一威廉希尔官方网站 革新将大幅提升数据传输速度和存储效率。美光计划于2026年开始大规模生产HBM4,以满足日益增长的高性能计算需求。 除了HBM4,美光还透露了
    的头像 发表于 12-23 14:20 45次阅读

    贸泽开售适用于高性能计算应用的AMD Alveo V80加速器

    产品搭载高性能的AMD Versal™ HBM自适应片上系统 (SoC),集成了速度更快的高带宽内存 (HBM2e DRAM),能克服高性能计算 (HPC) 应用中的内存瓶颈问题,这些
    发表于 09-27 14:59 173次阅读

    HBM上车?HBM2E被用于自动驾驶汽车

    威廉希尔官方网站 的独家供应商。   由于汽车对车用芯片更严格的品质要求,SK海力士已单独生产专门用于汽车用途的HBM2E,这也是目前唯一一家将HBM用于汽车的公司。   我们知道HBM芯片对于现今AI拉动的高
    的头像 发表于 08-23 00:10 6640次阅读

    SK海力士携手Waymo提供第三代高带宽存储器(HBM2E)威廉希尔官方网站

    据最新消息,SK海力士正携手Waymo,为其标志性的自动驾驶汽车项目“谷歌汽车”提供前沿的第三代高带宽存储器(HBM2E)威廉希尔官方网站 。这一合作预示着随着自动驾驶威廉希尔官方网站 的日益普及,HBM不仅将在人工智能(AI)服务器领域大放异彩,更将逐渐渗透至汽车芯片市场,成为未来五年的热门选择。
    的头像 发表于 08-15 14:54 1176次阅读

    英伟达2025年计划发布Blackwell Ultra与B200A,或大幅提升HBM消耗量

    根据TrendForce最新发布HBM市场研究报告,随着人工智能(AI)芯片威廉希尔官方网站 的持续迭代升级,单颗芯片所集成的HBM(高带宽内存)容量正显著增长。英伟达作为HBM市场的领军者,预计
    的头像 发表于 08-09 15:51 394次阅读

    集成32GB HBM2e内存,AMD Alveo V80加速助力传感器处理、存储压缩等

    电子发烧友网报道(文/黄晶晶)日前,AMD推出Alveo V80加速,Versal FPGA自适应SoC搭配HBM,可处理计算以及内存密集型的工作负载,用于高性能计算、数据分析、金融
    的头像 发表于 06-05 16:16 2125次阅读
    集成32<b class='flag-5'>GB</b> <b class='flag-5'>HBM2e</b>内存,AMD Alveo V<b class='flag-5'>80</b>加速<b class='flag-5'>卡</b>助力传感器处理、存储压缩等

    SK海力士:HBM3E量产时间缩短50%,达到大约80%范围的目标良率

    据报道,SK海力士宣布第五代高带宽存储(HBM)—HBM3E的良率已接近80%。
    的头像 发表于 05-27 14:38 843次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    的界限。 2 、威廉希尔官方网站 规格对比 最大内存:从 H100 的 80GB HBM3 到 B200 的 192GB
    发表于 05-13 17:16

    三星重磅发布全新12层36GB HBM3e DRAM

    12层HBM3e将每个堆栈可用的总带宽提高到惊人的1,280GB/s,这比单个堆栈上RTX 4090可用的全部带宽还要高。
    发表于 03-29 10:47 496次阅读
    三星重磅<b class='flag-5'>发布</b>全新12层36<b class='flag-5'>GB</b> <b class='flag-5'>HBM3e</b> DRAM

    英伟达发布最强AI加速Blackwell GB200

    英伟达在最近的GTC开发者大会上发布了其最新、最强大的AI加速——GB200。这款加速采用了新一代AI图形处理器架构Blackwell,
    的头像 发表于 03-20 11:38 1123次阅读

    英伟达发布最强AI加速GB200,开启新一代AI图形处理时代

    英伟达正式发布了其最新、也是迄今为止最强大的AI加速——GB200。这一重大发布标志着英伟达在AI图形处理领域迈入了一个新的里程碑。
    的头像 发表于 03-19 11:26 1204次阅读
    英伟达<b class='flag-5'>发布</b><b class='flag-5'>最强</b>AI加速<b class='flag-5'>卡</b><b class='flag-5'>GB200</b>,开启新一代AI图形处理时代

    今日看点丨英伟达发布最强 AI 加速--Blackwell GB200;三星面临罢工 存储市场供需引关注

    1. 英伟达发布最强 AI 加速--Blackwell GB200 ,今年发货   3 月 19 日,英伟达发布
    发表于 03-19 11:08 1243次阅读

    英伟达H200性能怎么样

    英伟达H200性能卓越,集成了高性能CPU和GPU,通过高速NVLink连接,消除了传统计算瓶颈。其配备了高达141GBHBM3e高带宽内
    的头像 发表于 03-07 16:39 1026次阅读

    AMD发布HBM3e AI加速器升级版,2025年推新款Instinct MI

    目前,只有英伟达的Hopper GH200芯片配备了HBM3e内存。与现有的HBM3相比,HBM3e的速度提升了50%,单个平台可以达到10
    的头像 发表于 02-25 11:22 617次阅读

    英伟达斥资预购HBM3内存,为H200及超级芯片储备产能

    据最新传闻,英伟达正在筹划发布两款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH
    的头像 发表于 01-02 09:27 768次阅读