当前位置: 首页 > news >正文

荣成住房和城乡建设部网站wordpress 去掉tag

荣成住房和城乡建设部网站,wordpress 去掉tag,wordpress 图片展示,巢湖网站建设费用随着深度学习的发展#xff0c;越来越多的模型诞生#xff0c;并且在训练集和测试集上的表现甚至于高于人类#xff0c;但是深度学习一直被认为是一个黑盒模型#xff0c;我们通俗的认为#xff0c;经过训练后#xff0c;机器学习到了数据中的特征#xff0c;进而可以正…随着深度学习的发展越来越多的模型诞生并且在训练集和测试集上的表现甚至于高于人类但是深度学习一直被认为是一个黑盒模型我们通俗的认为经过训练后机器学习到了数据中的特征进而可以正确的预测结果但是对于机器到底学到了什么仍然是个黑盒模型我们迫切想要知道机器所学习到的特征这就需要对模型的可解释性进行研究。 本文主要介绍一下机器学习可解释性的相关内容与实现方法并回答以下问题。 什么是机器学习可解释性为什么要进行可解释性的研究Lime可解释性的原理Lime可解释性的代码实现 什么是机器学习可解释性 对于机器学习的用户而言模型的可解释性是一种较为主观的性质我们无法通过严谨的数学表达方法形式化定义可解释性。通常我们可以认为机器学习的可解释性刻画了“人类对模型决策或预测结果的理解程度”即用户可以更容易地理解解释性较高的模型做出的决策和预测。 从哲学的角度来说为了理解何为机器学习的可解释性我们需要回答以下几个问题首先我们应该如何定义对模型的“解释”怎样的解释才足够好许多学者认为要判断一个解释是否足够好取决于这个解释需要回答的问题是什么。对于机器学习任务而言我们最感兴趣的两类问题是“为什么会得到该结果”和“为什么结果应该是这样”。而理想状态下如果我们能够通过溯因推理的方式恢复出模型计算出输出结果的过程就可以实现较强的模型解释性。 实际上我们可以从“可解释性”和“完整性”这两个方面来衡量一种解释是否合理。“可解释性”旨在通过一种人类能够理解的方式描述系统的内部结构它与人类的认知、知识和偏见息息相关而“完整性”旨在通过一种精确的方式来描述系统的各个操作步骤例如剖析深度学习网络中的数学操作和参数。然而不幸的是我们很难同时实现很强的“可解释性”和“完整性”这是因为精确的解释术语往往对于人们来说晦涩难懂。同时仅仅使用人类能够理解的方式进行解释由往往会引入人类认知上的偏见。 此外我们还可以从更宏大的角度理解“可解释性人工智能”将其作为一个“人与智能体的交互”问题。如图 1所示人与智能体的交互涉及人工智能、社会科学、人机交互等领域。 为什么要进行可解释性的研究 在当下的深度学习浪潮中许多新发表的工作都声称自己可以在目标任务上取得良好的性能。尽管如此用户在诸如医疗、法律、金融等应用场景下仍然需要从更为详细和具象的角度理解得出结论的原因。为模型赋予较强的可解释性也有利于确保其公平性、隐私保护性能、鲁棒性说明输入到输出之间个状态的因果关系提升用户对产品的信任程度。下面我们从“完善深度学习模型”、“深度学习模型与人的关系”、“深度学习模型与社会的关系”3 个方面简介研究机器学习可解释性的意义。 1完善深度学习模型 大多数深度学习模型是由数据驱动的黑盒模型而这些模型本身成为了知识的来源模型能提取到怎样的知识在很大程度上依赖于模型的组织架构、对数据的表征方式对模型的可解释性可以显式地捕获这些知识。 尽管深度学习模型可以取得优异的性能但是由于我们难以对深度学习模型进行调试使其质量保证工作难以实现。对错误结果的解释可以为修复系统提供指导。 2深度学习模型与人的关系 在人与深度学习模型交互的过程中会形成经过组织的知识结构来为用户解释模型复杂的工作机制即「心理模型」。为了让用户得到更好的交互体验满足其好奇心就需要赋予模型较强的可解释性否则用户会感到沮丧失去对模型的信任和使用兴趣。 人们希望协调自身的知识结构要素之间的矛盾或不一致性。如果机器做出了与人的意愿有出入的决策用户则会试图解释这种差异。当机器的决策对人的生活影响越大时对于这种决策的解释就更为重要。 当模型的决策和预测结果对用户的生活会产生重要影响时对模型的可解释性与用户对模型的信任程度息息相关。例如对于医疗、自动驾驶等与人们的生命健康紧密相关的任务以及保险、金融、理财、法律等与用户财产安全相关的任务用户往往需要模型具有很强的可解释性才会谨慎地采用该模型。 3深度学习模型与社会的关系 由于深度学习高度依赖于训练数据而训练数据往往并不是无偏的会产生对于人种、性别、职业等因素的偏见。为了保证模型的公平性用户会要求深度学习模型具有检测偏见的功能能够通过对自身决策的解释说明其公平。 深度学习模型作为一种商品具有很强的社会交互属性具有强可解释性的模型也会具有较高的社会认可度会更容易被公众所接纳。 Lime可解释性的原理 LimeLocal Interpretable Model-Agnostic Explanations是使用训练的局部代理模型来对单个样本进行解释。假设对于需要解释的黑盒模型取关注的实例样本在其附近进行扰动生成新的样本点并得到黑盒模型的预测值使用新的数据集训练可解释的模型如线性回归、决策树得到对黑盒模型良好的局部近似。值得注意的是可解释性模型是黑盒模型的局部近似而不是全局近似。 实现步骤 如上图是一个非线性的复杂模型蓝/粉背景的交界为决策函数选取关注的样本点如图粗线的红色十字叉为关注的样本点X定义一个相似度计算方式以及要选取的K个特征来解释在该样本点周围进行扰动采样细线的红色十字叉按照它们到X的距离赋予样本权重用原模型对这些样本进行预测并训练一个线性模型虚线在X的附近对原模型近似。 其数学表示如下 对于实例x的解释模型g我们通过最小化损失函数来比较模型g和原模型f的近似性其中代表了解释模型g的模型复杂度G表示所有可能的解释模型例如我们想用线性模型解释则G表示所有的线性模型定义了x的邻域。我们通过最小化L使得模型f变得可解释。其中模型g邻域范围大小模型复杂度均需要定义。 对于结构化数据首先确定可解释性模型兴趣点x邻域的范围。LIME首先在全局进行采样然后对于所有采样点选出兴趣点x的邻域然后利用兴趣点的邻域范围拟合可解释性模型。如图。 其中背景灰色为负例背景蓝色为正例黄色为兴趣点小粒度黑色点为采样点大粒度黑点为邻域范围右下图为LIME的结果。 LIME的优点我们很容易就可以看到原理简单适用范围广可解释任何黑箱模型。 Lime可解释性的代码实现 算法流程 宏观来看 首先在待解释的模型中取一个待解释样本之后随机生成扰动样本并以与待解释样本的距离作为标准附加权重再将得到的结果作为输入投入待解释模型中同时选择在局部考察的待训练可解释模型如决策树、逻辑回归等等最终即可训练出在可解释特征维度上的可解释性模型。 微观来看 选取待解释样本X并转换为可解释特征维度上的样本X’。 通过随机扰动得到其余在可解释特征维度上的样本Z’。 将Z’恢复至原始维度计算fz与相似度。 利用自适应相似度对各个样本点进行加权。 以X’作为特征fz作为标准训练局部可解释模型如图虚线。 import sklearn import sklearn.datasets import sklearn.ensemble import numpy as np import lime import lime.lime_tabular #读取数据 x np.array(data[feats].fillna(-99999)) y np.array(data[target]) # 数据集划分 X_train, X_test, y_train, y_test train_test_split(x, y, test_size0.2, random_state 400) # 以XGBoost模型为例 model_xgb xgb.XGBClassifier(learning_rate 0.05,n_estimators50,max_depth3,min_child_weight1,gamma0.3,subsample0.8,colsample_bytree0.8,objective multi:softprob,nthread4,scale_pos_weight1,num_class2,seed27).fit(X_train, y_train) # 生成解释器 explainer lime.lime_tabular.LimeTabularExplainer(X_train, feature_namesfeats,class_names[0,1], discretize_continuousTrue) # 对局部点的解释 i np.random.randint(0, X_test.shape[0]) #参数解释 #image:待解释图像 #classifier_fn:分类器 #labels:可解析标签 #hide_color:隐藏颜色 #top_labels:预测概率最高的K个标签生成解释 #num_features:说明中出现的最大功能数 #num_samples:学习线性模型的邻域大小 #batch_size:批处理大小 #distance_metric:距离度量 #model_regressor:模型回归器默认为岭回归 #segmentation_fn:分段将图像分为多个大小 #random_seed:随机整数用作分割算法的随机种子 exp explainer.explain_instance(X_test[i], model_xgb.predict_proba, num_features6) # 显示详细信息图 exp.show_in_notebook(show_tableTrue, show_allTrue) # 显示权重图 exp.as_pyplot_figure()结果示例
http://www.laogonggong.com/news/132285.html

相关文章:

  • 做刷单网站犯法吗网站开发培训中心
  • 清镇网站建设网站怎么做身份验证
  • 信阳做网站推广保健品网站源代码
  • 网站中文商标域名注册typecho对比wordpress
  • 南阳做网站优化公司wordpress三合一主题
  • 网站建设功能的策划书html与wordpress
  • 广东工程建设监理有限公司网站网站建设方案推荐
  • 临沂 企业网站建设外国网站后台设计
  • 嘉兴专业的嘉兴专业网站建设项目python游戏开发
  • 电商网站创建的几个阶段临沂企业建站程序
  • 广州网站设计平台以下属于网站的管理 更新 维护
  • 网站建设培训 ppt东莞信科网站建设
  • 建设展示型网站公司哪家好像京东一样的网站
  • wordpress网站使用app应用开发在哪里找
  • 做空山寨币的网站汽车4s店网站建设方案
  • 菜鸟网站建设c 网站开发数据库连接
  • 水利网站建设管理汇报做照片用的视频模板下载网站
  • 浦江做网站嘉峪关做网站
  • 网站域名选择的原则低价网站备案
  • 三合一网站程序成品网站建设
  • 企业网站策划应该怎么做做网站代下
  • 网站建设信息发布平台泰安市住房与城乡建设局网站
  • wordpress站点标题副标题换行做计算机模拟ie题模拟网站打不开
  • 深圳网站建设制作公司排名小说主角重生之后做网站
  • 做免费网站有哪些网站设置右击不了如何查看源代码
  • 电脑网站建设网络推广引流软件
  • 北京网站设计哪家公司好c 做网站怎么显示歌词
  • 做网站遇到竞争对手怎么办什么网站可以免费做会计初级
  • 自己做的网站如何盈利腾讯云安装wordpress
  • 以网络营销为导向的网站建设应注意什么问题舟山公司做网站