ImageVerifierCode 换一换
格式:PPTX , 页数:23 ,大小:3.33MB ,
资源ID:10491905      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bingdoc.com/d-10491905.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(机器学习3周志华.pptx)为本站会员(wj)主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(发送邮件至service@bingdoc.com或直接QQ联系客服),我们立即给予删除!

机器学习3周志华.pptx

1、三、线性模型,线性模型,分类,回归,线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,简单、基本、可理解性好,线性回归,(linear regression),对,进行最小二乘参数估计,使得离散属性的处理:若有“序”(order),则连续化;否则,转化为 k 维向量令均方误差最小化,有,线性回归,分别对,和,求导:,令导数为 0,得到闭式(closed-form)解:,多元(multi-variate)线性回归使得,把,和,吸收入向量形式,,数据集表示为,多元线性回归同样采用最小二乘法求解,有,令,,对,求导:,令其为零可得然而,麻烦来了:涉及矩阵求逆!,若若

2、,满秩或正定,则不满秩,则可解出多个,此时需求助于归纳偏好,或引入 正则化,(regularization),第6、11章,线性模型的变化,对于样例,若希望线性模型的预测值逼近真实标记,,则得到线性回归模型令预测值逼近 y 的衍生物?若令则得到对数线性回归(log-linear regression),实际是在用,逼近 y,广义(generalized)线性模型一般形式:,单调可微的 联系函数,(link function),令,则得到 对数线性回归,二分类任务,找 z 和 y 的联系函数,性质不好,需找“替代函数”(surrogate function),线性回归模型产生的实值输出期望输出理

3、想的“单位阶跃函数”(unit-step function)常用,单调可微、任意阶可导,对数几率函数(logistic function)简称“对率函数”,对率回归以对率函数为联系函数:变为即:,几率(odds),反映了 x 作为正例的相对可能性,“对数几率”,无需事先假设数据分布 可得到“类别”的近似概率预测 可直接应用现有数值优化算法求取最优解,(log odds,亦称 logit)“对数几率回归”(logistic regression)简称“对率回归”注意:它是,分类学习算法!,求解思路,若将 y 看作类后验概率估计可写为于是,可使用“极大似然法”,则第7章,(maximum like

4、lihood method)给定数据集最大化“对数似然”(log-likelihood)函数,令,,则,可简写为,求解思路,再令则似然项可重写为于是,最大化似然函数等价为最小化高阶可导连续凸函数,可用经典的数值优化方法如梯度下降法/牛顿法 Boyd and Vandenberghe,2004,线性模型做“分类”,回归广义线性模型;通过“联系函数”例如,对率回归,分类如何“直接”做分类?,线性判别分析,(Linear Discriminant Analysis),由于将样例投影到一条直线(低维空间),因此也被视为,一种“监督降维”技术 降维,第10章,LDA的目标给定数据集第 i 类示例的集合第

5、 i 类示例的均值向量第 i 类示例的协方差矩阵,两类样本的中心在直线上的投影:,和,两类样本的协方差:,和,尽可能小尽可能大,同类样例的投影点尽可能接近 异类样例的投影点尽可能远离 于是,最大化,LDA的目标,类内散度矩阵(within-class scatter matrix),类间散度矩阵(between-class scatter matrix),LDA的目标:最大化广义瑞利商(generalized Rayleigh quotient),w 成倍缩放不影响 J 值,仅考虑方向,实践中通常是进行奇异值分解然后,求解思路,令,,最大化广义瑞利商等价形式为,运用拉格朗日乘子法,有,的方向恒

6、为,,不妨令,于是,附录,推广到多类假定有 N 个类 全局散度矩阵 类内散度矩阵 类间散度矩阵,特征值所对应的特征向量组成的矩阵,多分类LDA有多种实现方法:采用例如,的闭式解是,中的任何两个的 N-1 个最大广义,训练N(N-1)/2个分类器,存储开销和测试时间大训练只用两个类的样例,训练时间短,训练N个分类器,存储开销和测试时间小训练用到全部训练样例,训练时间长,多分类学习拆解法:将一个多分类任务拆分为若干个二分类任务求解,预测性能取决于具体数据分布,多数情况下两者差不多,纠错输出码(ECOC)多对多(Many vs Many,MvM):将若干类作为正类,若干类作为反类,一种常见方法:纠错

7、输出码编码:对 N 个类别做 M 次划分,每次将一部分类别划为正类,一部分划为反类解码:测试样本交给 M 个分类器预测,(Error Correcting Output Code)M 个二类任务;(原)每类对应一个长为 M 的编码距离最小的类为最终结果长为 M 的预测结果编码,纠错输出码,ECOC编码对分类器错误有一定容忍和修正能力,编码越长、纠错能力越强 对同等长度的编码,理论上来说,任意两个类别之间的编码距离越远,则纠错能力越强,Dietterich and Bakiri,1995,Allwein et al.2000,类别不平衡(class-imbalance)不同类别的样本比例相差很大;“小类”往往更重要基本思路:,基本策略“再缩放”(rescaling):然而,精确估计 m-/m+通常很困难!,常见类别不平衡学习方法:过采样(oversampling)例如:SMOTE 欠采样(undersampling)例如:EasyEnsemble 阈值移动(threshold-moving),前往第四站,

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2