0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

关于机器学习模型的六大可解释性威廉希尔官方网站

C29F_xilinx_inc 来源:赛灵思 作者:赛灵思 2022-02-26 17:20 次阅读

本文介绍目前常见的几种可以提高机器学习模型的可解释性的威廉希尔官方网站 。

模型可解释性汇总

简介

目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测,那么我们将很难将其迁移到其它的问题中,很难进行算法的debug。

本文介绍目前常见的几种可以提高机器学习模型的可解释性的威廉希尔官方网站 ,包括它们的相对优点和缺点。我们将其分为下面几种:

1. Partial Dependence Plot (PDP);

2. Individual Conditional Expectation (ICE)

3. Permuted Feature Importance

4. Global Surrogate

5. Local Surrogate (LIME)

6. Shapley Value (SHAP)

六大可解释性威廉希尔官方网站

01、Partial Dependence Plot (PDP)

PDP是十几年之前发明的,它可以显示一个或两个特征对机器学习模型的预测结果的边际效应。它可以帮助研究人员确定当大量特征调整时,模型预测会发生什么样的变化。

关于机器学习模型的六大可解释性威廉希尔官方网站

上面图中X轴表示特图片的值y轴表示预测值。阴影区域中的实线显示了平均预测如何随图片值的变化而变化。PDP能很直观地显示平均边际效应,因此可能会隐藏异质效应。

例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。

02、Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之处在于,PDP绘制的是平均情况,但是ICE会显示每个实例的情况。ICE可以帮助我们解释一个特定的特征改变时,模型的预测会怎么变化。

关于机器学习模型的六大可解释性威廉希尔官方网站

如上图所示,与PDP不同,ICE曲线可以揭示异质关系。但其最大的问题在于:它不能像PDP那样容易看到平均效果,所以可以考虑将二者结合起来一起使用。

03、Permuted Feature Importance

Permuted Feature Importance的特征重要性是通过特征值打乱后模型预测误差的变化得到的。换句话说,Permuted Feature Importance有助于定义模型中的特征对最终预测做出贡献的大小。

关于机器学习模型的六大可解释性威廉希尔官方网站

如上图所示,特征f2在特征的最上面,对模型的误差影响是最大的,f1在shuffle之后对模型却几乎没什么影响,生息的特征则对于模型是负面的贡献。

04、Global Surrogate

Global Surrogate方法采用不同的方法。它通过训练一个可解释的模型来近似黑盒模型的预测。

首先,我们使用经过训练的黑盒模型对数据集进行预测;

然后我们在该数据集和预测上训练可解释的模型。

训练好的可解释模型可以近似原始模型,我们需要做的就是解释该模型。

注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。

关于机器学习模型的六大可解释性威廉希尔官方网站

使用可解释的模型来近似黑盒模型会引入额外的误差,但额外的误差可以通过R平方来衡量。

由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。

05、Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因为它不尝试解释整个模型。相反,它训练可解释的模型来近似单个预测。LIME试图了解当我们扰乱数据样本时预测是如何变化的。

关于机器学习模型的六大可解释性威廉希尔官方网站

上面左边的图像被分成可解释的部分。然后,LIME 通过“关闭”一些可解释的组件(在这种情况下,使它们变灰)来生成扰动实例的数据集。对于每个扰动实例,可以使用经过训练的模型来获取图像中存在树蛙的概率,然后在该数据集上学习局部加权线性模型。最后,使用具有最高正向权重的成分来作为解释。

06、Shapley Value (SHAP)

Shapley Value的概念来自博弈论。我们可以通过假设实例的每个特征值是游戏中的“玩家”来解释预测。每个玩家的贡献是通过在其余玩家的所有子集中添加和删除玩家来衡量的。一名球员的Shapley Value是其所有贡献的加权总和。Shapley 值是可加的,局部准确的。如果将所有特征的Shapley值加起来,再加上基值,即预测平均值,您将得到准确的预测值。这是许多其他方法所没有的功能。

关于机器学习模型的六大可解释性威廉希尔官方网站

该图显示了每个特征的Shapley值,表示将模型结果从基础值推到最终预测的贡献。红色表示正面贡献,蓝色表示负面贡献。

小结

机器学习模型的可解释性是机器学习中一个非常活跃而且重要的研究领域。本文中我们介绍了6种常用的用于理解机器学习模型的算法。大家可以依据自己的实践场景进行使用。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4608

    浏览量

    92855
  • 模型
    +关注

    关注

    1

    文章

    3234

    浏览量

    48821
  • 机器学习
    +关注

    关注

    66

    文章

    8411

    浏览量

    132600
收藏 人收藏

    评论

    相关推荐

    《具身智能机器人系统》第7-9章阅读心得之具身智能机器人与大模型

    设计专门的编码器处理视觉、触觉、位置等不同类型的传感器数据,再用cross-attention机制将它们对齐到同一语义空间。这种设计不仅提高了模型的感知能力,还增强了推理过程的可解释性。在实验中,RT-1
    发表于 12-24 15:03

    Deloitte的六大威廉希尔官方网站 趋势

    在这个威廉希尔官方网站 变革加速的时代,人工智能(AI)正以前所未有的速度改变企业的核心运营模式。此份报告围绕空间计算、AI未来趋势、智能硬件、IT升级、量子计算、智能核心六大主题展开深入探讨,无论是企业决策者
    的头像 发表于 12-21 15:40 369次阅读
    Deloitte的<b class='flag-5'>六大</b><b class='flag-5'>威廉希尔官方网站
</b>趋势

    深度学习模型的鲁棒优化

    深度学习模型的鲁棒优化是一个复杂但至关重要的任务,它涉及多个方面的威廉希尔官方网站 和策略。以下是一些关键的优化方法: 一、数据预处理与增强 数据清洗 :去除数据中的噪声和异常值,这是提高
    的头像 发表于 11-11 10:25 235次阅读

    鲁棒机器学习中的重要

    机器学习领域,模型的鲁棒是指模型在面对输入数据的扰动、异常值、噪声或对抗性攻击时,仍能保持性能的能力。随着人工智能
    的头像 发表于 11-11 10:19 331次阅读

    常见AI大模型的比较与选择指南

    在选择AI大模型时,明确具体需求、了解模型的训练数据、计算资源要求和成本,并考虑模型可解释性和社区支持情况等因素至关重要。以下是对常见AI大模型
    的头像 发表于 10-23 15:36 745次阅读

    AI大模型与深度学习的关系

    AI大模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI大模型的基础 威廉希尔官方网站 支撑 :
    的头像 发表于 10-23 15:25 691次阅读

    《AI for Science:人工智能驱动科学创新》第二章AI for Science的威廉希尔官方网站 支撑学习心得

    。 4. 物理与AI的融合 在阅读过程中,我对于物理与AI的融合有了更加深入的认识。AI for Science不仅依赖于数据,还需要结合物理定律和原理来确保模型的准确可解释性。这种融合不仅提高了
    发表于 10-14 09:16

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    一些局限性。例如,模型可能无法完全理解文本中的深层含义和语境信息;同时,由于训练数据可能存在偏差和噪声,生成的答案也可能存在不准确或误导的情况。 总结以下,大语言模型通过深度学习
    发表于 08-02 11:03

    Al大模型机器

    丰富的知识储备。它们可以涵盖各种领域的知识,并能够回答相关问题。灵活性与通用: AI大模型机器人具有很强的灵活性和通用,能够处理各种类型的任务和问题。持续
    发表于 07-05 08:52

    【大规模语言模型:从理论到实践】- 阅读体验

    直观地解释和理解。这可能会影响模型可解释性和可信赖,特别是在需要高度可靠的场景中。 通过修改注意力机制的计算方式或引入新的架构来降低
    发表于 06-07 14:44

    【大语言模型:原理与工程实践】核心威廉希尔官方网站 综述

    中应用,需要考虑到性能、可扩展性和安全等因素。 大语言模型正在快速发展,新威廉希尔官方网站 不断涌现。未来的研究可能集中在提高模型效率、理解和可解释性
    发表于 05-05 10:56

    新手学习单片机最常见的六大误区!

    最近看到台私信要资料的同学比较多,想必大家都是对单片机有着浓厚的学习兴趣,但是很多新手开始入门单片机的时候都会遇到一些学习的误区,今天就来整理一下大家可能会遇到的六大误区。单片机作为嵌入式系统的核心
    的头像 发表于 03-28 08:03 848次阅读
    新手<b class='flag-5'>学习</b>单片机最常见的<b class='flag-5'>六大</b>误区!

    Meta发布SceneScript视觉模型,高效构建室内3D模型

    Meta 表示,此模型具备创建室内 3D 模型的高效与轻便,仅需几KB内存便能生成完整清晰的几何图形,同时,这些形状数据具备可解释性,便于用户理解和编辑。
    的头像 发表于 03-26 11:16 574次阅读

    顶刊TIP 2023!浙大提出:基于全频域通道选择的的无监督异常检测

    Density-based方法:基于密度的方法通常采用预训练的模型来提取输入图像的有意义嵌入向量,测试图像时通过计算嵌入表示与参考表示分布之间的相似度以得到异常分数。这种方法在MVTec AD等数据集上取得了较高的指标分数,但需要预训练模型加持且
    的头像 发表于 01-11 16:02 1260次阅读
    顶刊TIP 2023!浙大提出:基于全频域通道选择的的无监督异常检测

    如何使用TensorFlow构建机器学习模型

    在这篇文章中,我将逐步讲解如何使用 TensorFlow 创建一个简单的机器学习模型
    的头像 发表于 01-08 09:25 973次阅读
    如何使用TensorFlow构建<b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>