0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

纽约大学与 NVIDIA 携手开发能够预测患者再入院概率的大型语言模型

NVIDIA英伟达 来源:未知 2023-06-14 18:35 次阅读

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到纽约大学朗格尼健康中心

从医院出院对病人来说是一座重要的里程碑,但有时这并不代表着他们已完全康复。在美国,有近 15% 的住院病人在首次出院后 30 天内再次入院,并且往往伴随着病情恶化与对患者及院方来说都更高的住院费用。

纽约大学学术医疗中心——纽约大学朗格尼健康中心(NYU Langone Health)的研究人员与 NVIDIA 专家携手开发了一个可预测病人 30 天内再入院风险以及其他临床结果的大型语言模型(LLM)。

这个刊登在科学期刊《自然》(Nature)上的 NYUTron 模型被部署在该医疗系统的六座住院楼中。它能够为医生提供 AI 所驱动的洞察,帮助他们识别需要通过临床干预的病人,以减少患者再入院概率。

纽约大学格罗斯曼医学院放射学和神经外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“当你让病人出院时,肯定不希望他们需要再回来,或者其实在当时就应该延长病人的住院时间。借助 AI 模型的分析,我们很快就能帮助临床医生预防或解决那些使病人面临更高再入院风险的情况。”

到目前为止,该模型已被应用于纽约大学医疗系统中的 5 万多名出院患者。它会通过电子邮件告知医生再入院风险的预测。Oermann 的团队接下来正计划通过一项临床试验,测试依据 NYUTron 的分析所采取的干预措施是否能够降低再入院率。

应对短期再入院等风险

美国政府追踪 30 日再入院率并以此作为医院的护理质量指标。再入院率高的医疗机构会被处以罚款,这项制度能够激励医院改进其出院流程。

新出院的病人可能会因为感染、过度使用抗生素、过早移除手术引流管等原因而需要再入院。如果这些风险因素能够被更早地发现,医生就可以通过调整治疗计划或延长病人留院观察时间来进行干预。

Oermann 表示:“虽然自 20 世纪 80 年代以来就有了预测病人再入院的计算模型,但我们把它看作一项需要卫生系统规模临床文本语料库的自然语言处理任务。我们使用电子健康记录的非结构化数据训练我们的 LLM,检查它是否能够捕捉到人们之前没有考虑过的洞察。”

NYUTron 使用纽约大学朗格尼健康中心的 10 年健康记录进行了预训练。这些记录由近 40 万名病人超过 40 亿字的临床笔记组成。相比最先进的机器学习模型,该模型预测再入院的准确率提高了 10% 以上。

一旦该 LLM 为 30 天再入院的初始用例进行了训练,该团队就能在一周左右的时间里推出了其他四种预测算法,包括预测病人的住院时间、院内死亡的可能性以及病人保险理赔被拒的几率。

Oermann 表示:“经营一家医院在某些方面就像管理一家酒店。能够帮助医院更高效运营的洞察意味着医院能够腾出更多床位并为更多病人提供更高质量的照护。”

从训练到部署一个 LLM

NYUTron 是一个拥有数亿参数的 LLM。它在一个由NVIDIA A100 Tensor Core GPU 组成的大型集群上使用 NVIDIA NeMo Megatron 框架训练而成。

Oermann 表示:“如今,大部分关于语言模型的讨论都围绕着具有数十亿参数的超大型通用模型,这些模型使用数百乃至数千个 GPU 在混乱的数据集上训练而成。我们反其道而行之,使用在高度精炼的数据上训练的中等规模的模型来完成特定医疗任务。”

为了优化模型以便在现实医院进行推理,该团队开发了一个修改版的NVIDIA Triton 开源软件,以便利用NVIDIA TensorRT 软件开发工具套件简化 AI 模型部署。

Oermann 表示:“像这样的模型必须要高效运行才能被部署到实时医疗环境中。Triton 提供了你在一个推理框架中想要的一切,让我们的模型能够飞速运行。”

Oermann 的团队发现,在对他们的 LLM 进行预训练后,只需使用特定医院的数据在现场进行微调就能大幅提高准确率,这个特点可以帮助其他医疗机构部署类似的模型。

他表示:“并不是所有医院都拥有完全自主训练一个大型语言模型所需要的资源,但他们可以采用像 NYUTron 这样的预训练模型,然后通过云端的 GPU 使用少量本地数据样本对模型进行微调。这对于许多医疗机构来说都是可以做到的。”

如要进一步了解 NYUTron,请阅读《自然》期刊中的论文。点击“阅读原文”,点播观看 NVIDIA 与纽约大学的相关讲座。

扫描下方海报二维码观看 NVIDIA 创始人兼 CEO 黄仁勋在 COMPUTEX 2023 的主题演讲直播回放,主题演讲中文字幕版已上线,了解 AI、图形及其他领域的最新进展!


原文标题:纽约大学与 NVIDIA 携手开发能够预测患者再入院概率的大型语言模型

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3788

    浏览量

    91283

原文标题:纽约大学与 NVIDIA 携手开发能够预测患者再入院概率的大型语言模型

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NaVILA:加州大学与英伟达联合发布新型视觉语言模型

    日前,加州大学的研究人员携手英伟达,共同推出了一款创新的视觉语言模型——NaVILA。该模型在机器人导航领域展现出了独特的应用潜力,为智能机
    的头像 发表于 12-13 10:51 283次阅读

    语言模型开发框架是什么

    语言模型开发框架是指用于训练、推理和部署大型语言模型的软件工具和库。下面,AI部落小编为您介绍
    的头像 发表于 12-06 10:28 137次阅读

    语言模型开发语言是什么

    在人工智能领域,大语言模型(Large Language Models, LLMs)背后,离不开高效的开发语言和工具的支持。下面,AI部落小编为您介绍大
    的头像 发表于 12-04 11:44 143次阅读

    云端语言模型开发方法

    云端语言模型开发是一个复杂而系统的过程,涉及数据准备、模型选择、训练优化、部署应用等多个环节。下面,AI部落小编为您分享云端语言
    的头像 发表于 12-02 10:48 153次阅读

    语言模型如何开发

    语言模型开发是一个复杂且细致的过程,涵盖了数据准备、模型架构设计、训练、微调和部署等多个阶段。以下是对大语言
    的头像 发表于 11-04 10:14 164次阅读

    NVIDIA CorrDiff生成式AI模型能够精准预测台风

    NVIDIA GPU 上运行的一个扩散模型向天气预报工作者展示了加速计算如何实现新的用途并提升能效。
    的头像 发表于 09-13 17:13 714次阅读

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    的表达方式和生成能力。通过预测文本中缺失的部分或下一个词,模型逐渐掌握语言的规律和特征。 常用的模型结构 Transformer架构:大语言
    发表于 08-02 11:03

    富士通与Cohere合作,专注于开发和提供大型语言模型(LLM)

    富士通(Fujitsu)与总部位于多伦多与旧金山的顶尖安全及数据隐私人工智能企业Cohere Inc.携手宣布建立深度战略合作伙伴关系,共同致力于大型语言模型(LLM)的创新与
    的头像 发表于 07-16 16:55 503次阅读

    NVIDIA与百度飞桨携手革新汽车风阻预测:DNNFluid-Car模型的崛起

    在追求更高效、更环保的汽车设计浪潮中,NVIDIA与百度飞桨携手突破传统界限,共同研发了一款革命性的3D高精度汽车风阻预测模型——DNNFluid-Car。这款
    的头像 发表于 07-09 14:56 1639次阅读

    英伟达开源Nemotron-4 340B系列模型,助力大型语言模型训练

    近日,英伟达宣布开源了一款名为Nemotron-4 340B的大型模型,这一壮举为开发者们打开了通往高性能大型语言模型(LLM)训练的新天地
    的头像 发表于 06-17 14:53 578次阅读

    【大语言模型:原理与工程实践】大语言模型的应用

    能力,它缺乏真正的“思考”过程。对于任何输入,大语言模型都会产生输出,但这仅仅是基于计算和预测下一个Token出现的概率模型并不清楚自己的
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的基础威廉希尔官方网站

    的特征,并且这些特征融合了这些词在当前序列的上下文语义,因此能够解决一词多义的问题。凭借这种优势,基于动态词向量语言模型进行预训练的方法被广泛应用于自然语言处理任务中。 经典结构
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    获得良好效果。 语言模型作为自然语言处理的核心,不断进化以捕捉人类语言的精髓。起初,这些模型依赖于统计方法,如n-gram
    发表于 05-04 23:55

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 588次阅读

    韩国Kakao宣布开发多模态大语言模型“蜜蜂”

    韩国互联网巨头Kakao最近宣布开发了一种名为“蜜蜂”(Honeybee)的多模态大型语言模型。这种创新模型
    的头像 发表于 01-19 16:11 712次阅读