周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx

上传人:聆听****声音 文档编号:420990 上传时间:2023-04-29 格式:PPTX 页数:71 大小:4.54MB
下载 相关 举报
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第1页
第1页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第2页
第2页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第3页
第3页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第4页
第4页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第5页
第5页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第6页
第6页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第7页
第7页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第8页
第8页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第9页
第9页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第10页
第10页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第11页
第11页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第12页
第12页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第13页
第13页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第14页
第14页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第15页
第15页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第16页
第16页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第17页
第17页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第18页
第18页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第19页
第19页 / 共71页
周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx_第20页
第20页 / 共71页
亲,该文档总共71页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx

《周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx》由会员分享,可在线阅读,更多相关《周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx(71页珍藏版)》请在冰点文库上搜索。

周志华机器学习西瓜书全书章pptChap贝叶斯分类器.pptx

第七章:

贝叶斯分类器,章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,贝叶斯决策论,贝叶斯决策论(Bayesiandecisiontheory)是在概率框架下实施决策的基本方法。

在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。

贝叶斯决策论,贝叶斯决策论(Bayesiandecisiontheory)是在概率框架下实施决策的基本方法。

在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。

假设有种可能的类别标记,即,是将一个真实标记为的样本误分类为所产生的损失。

基于后验概率可获得将样本分类为所产生的期望损失(expectedloss)或者称条件风险(conditionalrisk)我们的任务是寻找一个判定准则以最小化总体风险,贝叶斯决策论,显然,对每个样本,若能最小化条件风险,则总体风险也将被最小化。

贝叶斯决策论,显然,对每个样本,若能最小化条件风险,则总体风险也将被最小化。

这就产生了贝叶斯判定准则(Bayesdecisionrule):

为最小化总体风险,只需在每个样本上选择那个能使条件风险最小的类别标记,即此时,被称为贝叶斯最优分类器(Bayesoptimalclassifier),与之对应的总体风险称为贝叶斯风险(Bayesrisk)反映了分类起所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。

贝叶斯决策论,具体来说,若目标是最小化分类错误率,则误判损失可写为,贝叶斯决策论,具体来说,若目标是最小化分类错误率,则误判损失可写为此时条件风险,贝叶斯决策论,具体来说,若目标是最小化分类错误率,则误判损失可写为此时条件风险于是,最小化分类错误率的贝叶斯最优分类器为即对每个样本,选择能使后验概率最大的类别标记。

贝叶斯决策论,不难看出,使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率。

然而,在现实中通常难以直接获得。

机器学习所要实现的是基于有限的训练样本尽可能准确地估计出后验概率。

主要有两种策略:

判别式模型(discriminativemodels)给定,通过直接建模,来预测决策树,BP神经网络,支持向量机生成式模型(generativemodels)先对联合概率分布建模,再由此获得生成式模型考虑,贝叶斯决策论,生成式模型,贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理),贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理),“证据”(evidence)因子,与类标记无关,贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理),“证据”(evidence)因子,与类标记无关,类标记相对于样本的“类条件概率”(class-conditionalprobability),或称“似然”。

章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,极大似然估计,估计类条件概率的常用策略:

先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。

记关于类别的类条件概率为,假设具有确定的形式被参数唯一确定,我们的任务就是利用训练集估计参数,极大似然估计,估计类条件概率的常用策略:

先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。

记关于类别的类条件概率为,假设具有确定的形式被参数唯一确定,我们的任务就是利用训练集估计参数概率模型的训练过程就是参数估计过程,统计学界的两个学派提供了不同的方案:

频率学派(frequentist)认为参数虽然未知,但却存在客观值,因此可通过优化似然函数等准则来确定参数值贝叶斯学派(Bayesian)认为参数是未观察到的随机变量、其本身也可由分布,因此可假定参数服从一个先验分布,然后基于观测到的数据计算参数的后验分布。

极大似然估计,令表示训练集中第类样本的组合的集合,假设这些样本是独立的,则参数对于数据集的似然是对进行极大似然估计,寻找能最大化似然的参数值。

直观上看,极大似然估计是试图在所有可能的取值中,找到一个使数据出现的“可能性”最大值。

极大似然估计,令表示训练集中第类样本的组合的集合,假设这些样本是独立的,则参数对于数据集的似然是对进行极大似然估计,寻找能最大化似然的参数值。

直观上看,极大似然估计是试图在所有可能的取值中,找到一个使数据出现的“可能性”最大值。

式(7.9)的连乘操作易造成下溢,通常使用对数似然(log-likelihood)此时参数的极大似然估计为,极大似然估计,例如,在连续属性情形下,假设概率密度函数,则参数和的极大似然估计为也就是说,通过极大似然法得到的正态分布均值就是样本均值,方差就是的均值,这显然是一个符合直觉的结果。

需注意的是,这种参数化的方法虽能使类条件概率估计变得相对简单,但估计结果的准确性严重依赖于所假设的概率分布形式是否符合潜在的真实数据分布。

章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,朴素贝叶斯分类器,估计后验概率主要困难:

类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。

朴素贝叶斯分类器,估计后验概率主要困难:

类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。

朴素贝叶斯分类器(NaveBayesClassifier)采用了“属性条件独立性假设”(attributeconditionalindependenceassumption):

每个属性独立地对分类结果发生影响。

朴素贝叶斯分类器,估计后验概率主要困难:

类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。

朴素贝叶斯分类器(NaveBayesClassifier)采用了“属性条件独立性假设”(attributeconditionalindependenceassumption):

每个属性独立地对分类结果发生影响。

基于属性条件独立性假设,(7.8)可重写为其中为属性数目,为在第个属性上的取值。

朴素贝叶斯分类器,朴素贝叶斯分类器,由于对所有类别来说相同,因此基于式(7.6)的贝叶斯判定准则有这就是朴素贝叶斯分类器的表达式,朴素贝叶斯分类器,朴素贝叶斯分类器的训练器的训练过程就是基于训练集估计类先验概率并为每个属性估计条件概率。

令表示训练集中第类样本组合的集合,若有充足的独立同分布样本,则可容易地估计出类先验概率对离散属性而言,令表示中在第个属性上取值为的样本组成的集合,则条件概率可估计为对连续属性而言可考虑概率密度函数,假定,其中和分别是第类样本在第个属性上取值的均值和方差,则有,朴素贝叶斯分类器,例子:

用西瓜数据集3.0训练一个朴素贝叶斯分类器,对测试例“测1”进行分类(p151,西瓜数据集p84表4.3),拉普拉斯修正,若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。

拉普拉斯修正,若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。

为了避免其他属性携带的信息被训练集中未出现的属性值“抹去”,在估计概率值时通常要进行“拉普拉斯修正”(Laplaciancorrection)令表示训练集中可能的类别数,表示第个属性可能的取值数,则式(7.16)和(7.17)分别修正为现实任务中,朴素贝叶斯分类器的使用情形:

速度要求高,“查表”;任务数据更替频繁,“懒惰学习”(lazylearning);数据不断增加,增量学习等等。

章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,半朴素贝叶斯分类器,为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;对属性条件独立假设进行一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-naveBayesclassifiers),半朴素贝叶斯分类器,为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;对属性条件独立假设记性一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-naveBayesclassifiers)半朴素贝叶斯分类器最常用的一种策略:

“独依赖估计”(One-DependentEstimator,简称ODE),假设每个属性在类别之外最多仅依赖一个其他属性,即其中为属性所依赖的属性,称为的父属性对每个属性,若其父属性已知,则可估计概值,于是问题的关键转化为如何确定每个属性的父属性,SPODE,最直接的做法是假设所有属性都依赖于同一属性,称为“超父”(super-parenet),然后通过交叉验证等模型选择方法来确定超父属性,由此形成了SPODE(Super-ParentODE)方法。

图7.1朴素贝叶斯分类器与两种半朴素分类器所考虑的属性依赖关系在图7.1(b)中,是超父属性。

TAN,TAN(TreeaugmentedNaveBayes)Friedmanetal.,1997则在最大带权生成树(Maximumweightedspanningtree)算法ChowandLiu,1968的基础上,通过以下步骤将属性间依赖关系简约为图7.1(c)。

计算任意两个属性之间的条件互信息(CMI:

conditionalmutualinformation)以属性为结点构建完全图,任意两个结点之间边的权重设为构建此完全图的最大带权生成树,以每个属性为节点(nodenode),CMI为边(edgeedge)形成一张图。

找到这张图的最大带权生成树。

即找到一个节点之间的连接规则,这个规则满足三个条件:

1.能够连接所有节点;2.使用最少数目的边;3.边长(CMI)总和最大,最大带权生成树,再把节点连接关系设置为有向,即从父节点指向子节点。

在这里把最先出现的属性设置为根节点,再由根节点出发来确定边的方向,TAN,TAN(TreeaugmentedNaveBayes)Friedmanetal.,1997则在最大带权生成树(Maximumweightedspanningtree)算法ChowandLiu,1968的基础上,通过以下步骤将属性间依赖关系简约为图7.1(c)。

计算任意两个属性之间的条件互信息(conditionalmutualinformation)以属性为结点构建完全图,任意两个结点之间边的权重设为构建此完全图的最大带权生成树,挑选根变量,将边设为有向;加入类别节点y,增加从y到每个属性的有向边。

AODE,AODE(AveragedOne-DependentEstimator)Webbetal.2005是一种基于集成学习机制、且更为强大的分类器。

尝试将每个属性作为超父构建SPODE-共d个将具有足够训练数据支撑的SPODE集群起来作为最终结果其中,是在第个属性上取值的样本的集合,为阈值常数其中,是在第个属性上取值数,是类别为且在第个属性上取值为的样本集合,是类别为且在第i个属性上取值,第j个属性上取值为的样本集合,章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,贝叶斯网,贝叶斯网(Bayesiannetwork)亦称“信念网”(briefnetwork),它借助有向无环图(DirectedAcyclicGraph,DAG)来刻画属性间的依赖关系,并使用条件概率表(ConditionalProbabilityTable,CPT)来表述属性的联合概率分布。

贝叶斯网,贝叶斯网(Bayesiannetwork)亦称“信念网”(briefnetwork),它借助有向无环图(DirectedAcyclicGraph,DAG)来刻画属性间的依赖关系,并使用条件概率表(ConditionalProbabilityTable,CPT)来表述属性的联合概率分布。

贝叶斯网:

结构,贝叶斯网有效地表达了属性间的条件独立性。

给定父结点集,贝叶斯网假设每个属性与他的非后裔属性独立。

将属性的联合概率分布定义为图7.2的联合概率分布定义为:

显然,和在给定的取值时独立,和在给定的取值时独立,记为和。

贝叶斯网有效地表达了属性间的条件独立性。

给定父结点集,贝叶斯网假设每个属性与他的非后裔属性独立。

将属性的联合概率分布定义为图7.2的联合概率分布定义为:

显然,和在给定的取值时独立,和在给定的取值时独立,记为和。

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

贝叶斯网:

结构,贝叶斯网中三个变量之间的典型依赖关系:

分析有向图中变量间的条件独立性,可使用“有向分离”(Directed-separation),将一个有向图转化为无向图V型结构父结点相连有向边变成无向边由此产生的图称为道德图(moralgraph),条件独立性分析-“有向分离”法,分析有向图中变量间的条件独立性,可使用“有向分离”(Directed-separation),将一个有向图转化为无向图V型结构父结点相连有向边变成无向边由此产生的图称为道德图(moralgraph),-将父结点相连的过程称为“道德化”过程,“道德化”就是孩子的父母应建立牢靠的关系,否者不道德,条件独立性分析-道德图,贝叶斯网:

学习-寻找到这个贝叶斯网,贝叶斯网络首要任务:

根据训练集找出结构最“恰当”的贝叶斯网。

我们用评分函数评估贝叶斯网与训练数据的契合程度。

贝叶斯网:

学习,贝叶斯网络首要任务:

根据训练集找出结构最“恰当”的贝叶斯网。

我们用评分函数评估贝叶斯网与训练数据的契合程度。

“最小描述长度”(MinimalDescriptionLength,MDL)综合编码长度(包括描述网路和编码数据)最短给定训练集,贝叶斯网在上的评价函数可以写为其中,是贝叶斯网的参数个数;表示描述每个参数所需的字节数,而是贝叶斯网的对数似然。

学习任务:

寻找一个合适的网络使得s最小,学习任务:

寻找一个合适的网络使得s最小,学习任务:

寻找一个合适的网络使得s最小,贝叶斯网:

推断,通过已知变量观测值来推测其他变量的取值过程称为“推断”(inference),已知变量观测值称为“证据”(evidence)。

最理想的是根据贝叶斯网络定义的联合概率分布来精确计算后验概率,在现实应用中,贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成。

贝叶斯网:

推断、Gibbs采样,通过已知变量观测值来推测待推测查询变量的过程称为“推断”(inference),已知变量观测值称为“证据”(evidence)。

最理想的是根据贝叶斯网络定义的联合概率分布来精确计算后验概率,在现实应用中,贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成。

吉布斯采样就是随机产生一个与证据一致的样本作为初始点,然后每步从当前样本出发产生下一个样本。

采样概率由贝叶斯网B决定。

假定经过次采样的得到与一致的样本共有个,则可近似估算出后验概率吉布斯采样可以看做,每一步仅依赖于前一步的状态,贝叶斯网:

推断,图7.5吉布斯采样算法,章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,EM算法,“不完整”的样本:

西瓜已经脱落的根蒂,无法看出是“蜷缩”还是“坚挺”,则训练样本的“根蒂”属性变量值未知,如何计算?

EM算法,“不完整”的样本:

西瓜已经脱落的根蒂,无法看出是“蜷缩”还是“坚挺”,则训练样本的“根蒂”属性变量值未知,如何计算?

未观测的变量称为“隐变量”(latentvariable)。

令表示已观测变量集,表示隐变量集,若预对模型参数做极大似然估计,则应最大化对数似然函数,EM算法,“不完整”的样本:

西瓜已经脱落的根蒂,无法看出是“蜷缩”还是“坚挺”,则训练样本的“根蒂”属性变量值未知,如何计算?

未观测的变量称为“隐变量”(latentvariable)。

令表示已观测变量集,表示隐变量集,若预对模型参数做极大似然估计,则应最大化对数似然函数由于是隐变量,上式无法直接求解。

此时我们可以通过对计算期望,来最大化已观测数据的对数“边际似然”(marginallikelihood),EM算法,EM(Expectation-Maximization)算法Dempsteretal.,1977是常用的估计参数隐变量的利器。

当参数已知根据训练数据推断出最优隐变量的值(E步)当已知对做极大似然估计(M步),EM算法,EM(Expectation-Maximization)算法Dempsteretal.,1977是常用的估计参数隐变量的利器。

当参数已知根据训练数据推断出最优隐变量的值(E步)当已知对做极大似然估计(M步)于是,以初始值为起点,对式子(7.35),可迭代执行以下步骤直至收敛:

基于推断隐变量的期望,记为;基于已观测到变量和对参数做极大似然估计,记为;这就是EM算法的原型。

EM算法,进一步,若我们不是取Z的期望,而是基于计算隐变量的概率分布,则EM算法的两个步骤是:

E步(Expectation):

以当前参数推断隐变量分布,并计算对数似然关于的期望:

M步(Maximization):

寻找参数最大化期望似然,即EM算法使用两个步骤交替计算:

第一步计算期望(E步),利用当前估计的参数值计算对数似然的参数值;第二步最大化(M步),寻找能使E步产生的似然期望最大化的参数值直至收敛到全局最优解。

小结,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 求职职场 > 简历

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2