0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA Merlin GPU推荐系统加速大模型训练和推理

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-07-05 09:02 次阅读

在每周的预告中,你可以:

了解一周的在线研讨会时间及详细内容,选择感兴趣的研讨会并提前安排收听时间;

找到每场研讨会的参会方式,保存并转发到朋友圈及微信群,与朋友分享精彩内容。

NVIDIA Merlin GPU 推荐系统

加速大模型训练和推理

内容

暌违两年,NVIDIA Merlin 推荐系统公开课将于 7 月 5 日全面上新。本次公开课将由 NVIDIA 高级产品经理高文雯和 NVIDIA 高级开发经理王泽寰分别进行主讲和直播答疑。

NVIDIA Merlin 是专为 GPU 上推荐系统工作流程设计的一款端到端的开源框架,其中包括了数据预处理、功能转换、训练、优化和部署等功能,旨在加速推荐系统工作者的工作流程,简化推荐系统的构建。在今年 3 月,NVIDIA 发布了 NVIDIA Merlin 1.0 超大规模推荐系统。最新版本的 NVIDIA Merlin 提供了对功能、模型的快速迭代,以及部署经过充分训练的推荐程序管道,将功能转换、检索和排名模型作为推理微服务等功能。Merlin 在 GPU 上的加速优化方案包括用于构建基于深度学习的系统的工具,能够处理 TB 级的数据,以便提供更精准的预测并增加点击量。数据科学家可以用不到 50 行代码来训练和部署推荐模型,机器学习工程师也可以轻松地利用分级存储以低延迟高精确率将大模型轻松部署到 Triton 推理平台,同时也支持 TensorFlow 用户使用大规模多 GPU 、多节点模型并行式训练。

「 NVIDIA Merlin 推荐系统公开课」也将在智东西公开课知识店铺上以视频直播的形式进行。感兴趣的朋友千万别错过!

通过本次在线研讨会您将了解以下内容:

端到端推荐系统 NVIDIA Merlin 介绍及最新动态

高达 12 倍加速的高性能训练

低成本训练和部署 TB 级大模型

灵活易用:短短几行代码实验各种模型

日程

7 月 5 日,周二,19:00 – 20:00

演讲嘉宾

高文雯

NVIDIA 高级产品经理

王泽寰

NVIDIA 高级开发经理

当零售遇上 AI

NVIDIA 人工智能平台在购物中心的应用

内容

有这样一群人,他们虽不是零售老兵,却一直以数字化、智能化的独特角度理解并赋能零售;他们的思考从未停歇过:线下零售的核心挑战是什么?人工智能带来的帮助是什么?线下零售的数字化、智能化的最好方案是什么?

如果您也有相同的问题,希望了解 AI 驱动的零售行业解决方案和运营理念,欢迎报名本次线上研讨会。我们将带着您和 NVIDIA、AIBEE以及中电港的专家们一起探讨全球零售 AI 的特点和趋势,分享国内外商场数智化的精彩案例,以及本地的最优实践。

一场零售+ AI 的饕餮盛宴,精彩不容错过。

通过本次在线研讨会您将了解以下内容:

零售数智化的观察和思考

NVIDIA 人工智能平台加速零售行业边缘计算

驱动边缘 AI – NVIDIA Jetson 及相关产品介绍

客流系统 4.0 时代,购物中心如何真正实现精细化运营

日程

7 月 6 日,周三,14:00 – 16:00

演讲嘉宾

任建斌

NVIDIA 零售及工业 IBD

张轶博

NVIDIA 行业开发者关系总监

王之卓

中电港 NVIDIA 产品线 FAE

徐昆

爱笔智能 智慧商业地产 产品负责人

开创智慧零售新时代

快速完成 NLU 中的意图识别任务 ——

NVIDIA NeMo 实战

内容

意图识别和槽位填充是 NLU 语义理解领域中两个子任务,二者可以联合进行。大部分基于语义理解的智能会话相关的应用都会用到这项威廉希尔官方网站 ,它是用来对一段语句所表达的意图进行分类,并查询语句中所有相关的槽位(实体)。例如:明天早上北京是什么样天气? 我们希望将查询分类意图为“天气”,将“北京”检测为位置槽,将“明天早上“检测为日期时间槽。意图识别和槽位填充用以辅助基于语义理解的会话系统返回更加精准的回答。这些需求我们通过 NVIDIA NeMo 就可以快速的完成。

NVIDIA NeMo 是一个用于构建先进的对话式 AI 模型的工具包,它内置集成了自动语音识别 (ASR)、自然语言处理 (NLP) 和语音合成 (TTS)的模型及方法,方便调用先进的预训练模型快速完成对话式 AI 中各类子任务, 每个模块都可以轻松地定制、扩展和组合用以创建新的会话式AI模型架构。

本次网络研讨会主要面向有 NLP 和语音 AI 开发需求的开发者。

通过本次在线研讨会您将了解以下内容:

意图识别和槽位填充任务介绍

NVIDIA NeMo 工具简介

适用于 NeMo 的数据集格式

如何使用 NeMo 初始化并训练模型

如何使用 NeMo 进行意图识别模型评估和推理

日程

7 月 7 日,星期四,20:00 – 21:30

演讲嘉宾

李奕澎

NVIDIA 企业开发者社区经理

拥有多年数据分析建模、人工智能自然语言处理开发经验。在自动语音识别、自然语言处理、语音合成等对话式 AI 威廉希尔官方网站 领域有丰富的实战经验与见解。曾开发法律、金融、保险文档中基于实体抽取的智能问答系统,曾开发基于 NLP 知识抽取, KG 知识图谱的建立的科研文档智能检索系统。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4984

    浏览量

    103019
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4735

    浏览量

    128914
  • AI
    AI
    +关注

    关注

    87

    文章

    30817

    浏览量

    268968

原文标题:一周预告丨本周 NVIDIA 在线研讨会精彩亮点抢先看

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GPU是如何训练AI大模型

    在AI模型训练过程中,大量的计算工作集中在矩阵乘法、向量加法和激活函数等运算上。这些运算正是GPU所擅长的。接下来,AI部落小编带您了解GPU是如何
    的头像 发表于 12-19 17:54 107次阅读

    《CST Studio Suite 2024 GPU加速计算指南》

    的各个方面,包括硬件支持、操作系统支持、许可证、GPU计算的启用、NVIDIA和AMD GPU的详细信息以及相关的使用指南和故障排除等内容。 1. 硬件支持 -
    发表于 12-16 14:25

    如何使用FP8新威廉希尔官方网站 加速模型训练

    /fp8_primer.html#Introduction-to-FP8 其中,使用 FP8 进行大模型训练具有以下优势: 新一代 GPU 如 NVIDIA Ada Lovelace、
    的头像 发表于 12-09 11:30 161次阅读

    PyTorch GPU 加速训练模型方法

    在深度学习领域,GPU加速训练模型已经成为提高训练效率和缩短训练时间的重要手段。PyTorch作
    的头像 发表于 11-05 17:43 550次阅读

    FPGA和ASIC在大模型推理加速中的应用

    随着现在AI的快速发展,使用FPGA和ASIC进行推理加速的研究也越来越多,从目前的市场来说,有些公司已经有了专门做推理的ASIC,像Groq的LPU,专门针对大语言模型
    的头像 发表于 10-29 14:12 419次阅读
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的应用

    GPU深度学习应用案例

    能力,可以显著提高图像识别模型训练速度和准确性。例如,在人脸识别、自动驾驶等领域,GPU被广泛应用于加速深度学习模型
    的头像 发表于 10-27 11:13 386次阅读

    NVIDIA助力丽蟾科技打造AI训练推理加速解决方案

    丽蟾科技通过 Leaper 资源管理平台集成 NVIDIA AI Enterprise,为企业和科研机构提供了一套高效、灵活的 AI 训练推理加速解决方案。无论是在复杂的 AI 开发
    的头像 发表于 10-27 10:03 214次阅读
    <b class='flag-5'>NVIDIA</b>助力丽蟾科技打造AI<b class='flag-5'>训练</b>与<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解决方案

    为什么ai模型训练要用gpu

    GPU凭借其强大的并行处理能力和高效的内存系统,已成为AI模型训练不可或缺的重要工具。
    的头像 发表于 10-24 09:39 266次阅读

    LLM大模型推理加速的关键威廉希尔官方网站

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型在处理复杂任务时的效率和响应速度。以下是对LLM大
    的头像 发表于 07-24 11:38 871次阅读

    llm模型训练一般用什么系统

    。 硬件系统 1.1 GPU(图形处理器) 在训练大型语言模型时,GPU是首选的硬件设备。相比于CPU,
    的头像 发表于 07-09 10:02 406次阅读

    摩尔线程和滴普科技完成大模型训练推理适配

    近日,摩尔线程与滴普科技宣布了一项重要合作成果。摩尔线程的夸娥(KUAE)千卡智算集群与滴普科技的企业大模型Deepexi已完成训练推理适配,共同实现了700亿参数LLaMA2大语言模型
    的头像 发表于 05-30 10:14 544次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    成为处理万亿参数生成式AI模型的理想选择。 NVL72 机架级系统支持万亿参数 LLM 训练和实时推理 GB200 NVL72 的机架级设计,通过在单个
    发表于 05-13 17:16

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 559次阅读

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将
    的头像 发表于 04-20 09:39 720次阅读

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 579次阅读