SVM原理及在人脸识别中的应用备课讲稿.docx

上传人:b****1 文档编号:2785901 上传时间:2023-05-04 格式:DOCX 页数:13 大小:77.38KB
下载 相关 举报
SVM原理及在人脸识别中的应用备课讲稿.docx_第1页
第1页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第2页
第2页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第3页
第3页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第4页
第4页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第5页
第5页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第6页
第6页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第7页
第7页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第8页
第8页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第9页
第9页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第10页
第10页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第11页
第11页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第12页
第12页 / 共13页
SVM原理及在人脸识别中的应用备课讲稿.docx_第13页
第13页 / 共13页
亲,该文档总共13页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

SVM原理及在人脸识别中的应用备课讲稿.docx

《SVM原理及在人脸识别中的应用备课讲稿.docx》由会员分享,可在线阅读,更多相关《SVM原理及在人脸识别中的应用备课讲稿.docx(13页珍藏版)》请在冰点文库上搜索。

SVM原理及在人脸识别中的应用备课讲稿.docx

SVM原理及在人脸识别中的应用备课讲稿

关于SVM及其应用的相关原理

一、支持向量机介绍

下面我简单介绍下何为小样本、非线性及高维模式识别

小样本,并不是说样本的绝对数量少,实际上,对任何算法来说,更多的样本几乎总是能带来更好的效果,而是说与问题的复杂度比起来,SVM算法要求的样本数是相对比较少的。

非线性,是指SVM擅长应付样本数据线性不可分的情况

高维模式识别是指样本维数很高,例如样本出现几万维,不用降维处理,其他算法基本就没有能力应付了,SVM却可以,主要是因为SVM产生的分类器很简洁,用到的样本信息很少,使得即使样本维数很高,也不会给存储和计算带来大麻烦。

何为机器学习之后会介绍。

支持向量机方法:

下面我简单介绍下何为VC维理论和结构风险最小原理以期推广能力

所谓VC维是对函数类的一种度量,我们就简单的理解为问题的复杂程度,VC维越高,一个问题就越复杂。

(1)PPT下一页

在讲解结构风险最小原理,先介绍下风险,风险就是与真实解的误差。

我举个例子来说,我们不知道宇宙是如何诞生,就是不知道宇宙的真实模型,如果知道真实的宇宙模型,我们直接用真实模型就可以了。

既然不知道,我们就根据一些现象假设认为宇宙诞生于150亿年前的一场大爆炸,这个假设能够描述很多我们观察到的现象,但它与真实的宇宙模型之间还相差多少?

谁也说不清,因为我们压根就不知道真实的宇宙模型到底是什么。

这个差距我们就认为是风险

经验风险就是分类器在给定样本上的误差,就是我们选择一个假设之后,真实误差无从得知,但我们可以用某些可以掌握的量来逼近它。

就是使用分类器在样本数据上的分类的结果与真实结果之间的差值来表示。

这个差值叫做经验风险。

置信风险是分类器在未知文本上分类的结果的误差。

代表了我们在多大程度上可以信任分类器在未知文本上分类的结果。

很显然,没有办法精确计算的,因此只能给出一个估计的区间,也使得整个误差只能计算上界,而无法计算准确的值。

结构风险就是经验风险与置信风险之和

(2)PPT下一页

下面介绍下机器学习和推广能力

机器学习就是对一种对问题真实模型的逼近。

机器学习分为传统机器学习和统计机器学习。

传统机器学习方法是把经验风险最小化作为努力的目标,但后来发现很多分类函数能够在样本集上轻易达到100%的正确率,然而用分类函数对未知样本分类时却一塌糊涂。

经验风险最小化原则适用的大前提是经验风险要确实能够逼近真实风险才行,但实际上能逼近么?

答案是不能,因为样本数相对于现实世界要分类的文本数来说简直九牛一毛,经验风险最小化原则只在这占很小比例的样本上做到没有误差,当然不能保证在更大比例的真实文本上也没有误差。

所以传统的机器学习基本上属于摸着石头过河,用传统的机器学习方法构造分类系统完全成了一种技巧,一个人做的结果可能很好,另一个人差不多的方法做出来却很差,缺乏指导和原则。

统计统计机器学习目标是从经验风险最小化变为了寻求经验风险与置信风险的和最小

而推广能力就是,用已知样本得到的一个分类器,在其他未知样本分类时候也能获得很好的正确率。

(3)PPT下一页——SVM基础

大家可以看上图,我们要区分C1和C2这两类,红色的曲线可以区分出来,但是用线性函数进行区分是最简单也很有效的.我将用一个二维空间里仅有两类样本的分类问题来举例,来说明SVM的形成思路与核心概念

何为线性可分与线性不可分,C1和C2是要区分的两个类别,如图所示。

中间的直线就是一个分类函数,它可以将两类样本完全分开。

一般的,如果一个线性函数能够将样本完全正确的分开,就称这些数据是线性可分的,否则称为非线性可分的。

线性函数在一维空间里就是一个点,在二维空间里就是一条直线,三维空间里就是一个平面,如此想象下去,如果不关注空间的维数,这种线性函数一个统一的名称即为超平面

下面我们要区分C1,C2可以得到得到一个线性函数g(x)=wx+b

如取阈值为0,当有一个样本xi需要判别的时候。

若g(xi)>0,就判别为类别C1,若g(xi)<0,则判别为类别C2。

很容易区分出样本是属于C1还是C2

(4)PPT下一页

关于线性函数g(x)=wx+b要注意,式中的x不是二维坐标系中的横轴,而是样本的向量表示,例如一个样本点的坐标是(3,8),则x是向量(3,8),而不是x=3,第二点是这个形式并不局限于二维的情况,在n维空间中仍然可以使用这个表达式,只是式中的w成为了n维向量;三是,g(x)不是中间那条直线的表达式,中间那条直线的表达式是g(x)=0,即wx+b=0,我们也把这个函数叫做分类面。

实际上很容易看出来,中间那条分界线并不是唯一的,如图中的绿线和红线,甚至很多线都可以将C1,C2分类出来并且不会分错。

哪一个线性函数更好呢?

显然必须要先找一个指标来量化“好”的程度,通常使用的都是叫做“几何间隔”的指标。

(5)PPT下一页

在进行文本分类的时候,我们可以让计算机这样来看待我们提供给它的训练样本,每一个样本由一个向量和一个标示出这个样本属于哪个类别的标记组成。

记作如下:

  Di=(xi,yi)

xi就是文本向量(维数很高),yi就是分类标记。

在二元的线性分类中,这个表示分类的标记只有两个值,1和-1用来表示属于还是不属于C1。

有了这种表示法,我们就可以定义一个样本点到某个超平面的间隔:

 δi=yi(wxi+b)此公式只是一个定义,没有什么道理。

我们看这公式

(1),如果某个样本属于C1该类别的话,那么wxi+b>0,而yi=1也大于0;若不属于该类别的话,那么wxi+b<0,而yi也小于0,这意味着δi总是大于0的,而且它的值就等于|wxi+b|

现在把w和b进行一下归一化,即用w/||w||和b/||w||分别代替原来的w和b,那么间隔就可以写成

  

对于2维,||w||就是2-范数。

当不是2维空间时候,w就是n范数

之所以如此关心几何间隔,是因为几何间隔越大,误差上界越小,置信风险越小。

因为支持向量机是要求结构风险最小,那么就是经验风险和置信风险越小越好。

所以我们希望几何间隔越大越好。

(6)PPT下一页

如图,展示出了几何间隔的现实含义,H是分类面就是g(x)=0,而H1和H2是平行于H,H1与H,H2与H之间的距离就是几何间隔。

要求几何间隔最大就是右边公式中

最大。

而我们常用的方法并不是固定||w||的大小而寻求最大几何间隔,而是固定几何间隔,例如固定几何间隔为1,寻找最小的||w||。

得到目标函数就是:

这个式子和求min||w||是等价的,用此形式只是之后推导计算方便

如果直接来解这个求最小值问题,很容易看出当||w||=0的时候就得到了目标函数的最小值。

但,无论你给什么样的数据,都是这个解!

反映在图中,就是H1与H2两条直线间的距离无限大,这个时候,所有的样本点都跑到了H1和H2中间,没有将C1和C2类区分出来。

所以我要加入约束条件来,之前提到过将几何距离固定为1,这是指把所有样本点中间隔最小的那一点的间隔定为1,也就意味着集合中的其他点间隔都不会小于1,按照间隔的定义,满足这些条件就相当于让下面的式子总是成立:

  yi[(w·xi)+b]≥1(i=1,2,…,n)(n是总的样本数)

这样我们的两类样本分类问题也被我们转化成了它的数学形式,一个带约束的最小值的问题:

(7)PPT下一页

几何间隔告诉了我们如何在g(x)=wx+b中选择一个最好的。

但是我们还要知道如何求出一个g(x)=wx+b。

后面这个为内积形式

求这样的g(x)的过程就是求w(一个n维向量)和b(一个实数)两个参数的过程,但实际上只需要求w,求得以后找某些样本点代入就可以求得b。

因此在求g(x)的时候,w才是变量。

一旦求出了w,那么中间的直线H就知道了,因为它就是wx+b=0,H,H1,H2平行,间隔||w||,则H1和H2可以求的。

那么w是谁决定的?

显然是你给的样本决定的,一旦你在空间中给出了那些个样本点,三条直线的位置实际上就唯一确定了,因为我们求的是最优的那三条,当然是唯一的

样本确定了w,用数学的语言描述,就是w可以表示为样本的某种组合:

w=α1x1+α2x2+…+αnxn

式子中的αi是拉格朗日乘子,而xi是样本点,是向量,n就是总样本点的个数。

但是

(1)式还不够好,并不能表示样本的全部信息,我们看图,如果把其中一个正样本点定为负样本点,就是把一个圆形变为方形三条直线都必须移动。

这说明w不仅跟样本点的位置有关,还跟样本的类别有关。

因此用带有标记的w式子才完整

w=α1y1x1+α2y2x2+…+αnynxn

其中的yi就是第i个样本的标签,它等于1或者-1。

(7)PPT下一页

我们来看这个w的等式,式的那一堆拉格朗日乘子中,只有很少的一部分不等于0,不等于0才对w起决定作用,这部分不等于0的拉格朗日乘子后面所乘的样本点,都落在H1和H2上,也正是这部分样本唯一的确定了分类函数,当然,更严格的说,这些样本的一部分就可以确定,因为例如要确定H1这条直线,只需要两个点就可以,即便有三五个都落在H1上面。

这部分我们真正需要的样本点,就叫做支持(撑)向量!

形象的理解为,“撑”起了分界线的样本。

将w用求和符号简写一下:

        

g(x)表达式可以写为:

        

注意式子中x才是变量,也就是你要分类哪篇文档,就把该文档的向量表示代入到x的位置,而所有的xi统统都是已知的样本。

式子中只有xi和x是向量,所以可以表示为后面的式子。

之所以表示为

(1)式形式,是因为以这样的形式描述问题以后,我们的优化问题少了很大一部分不等式约束。

我们先不讨论这个等式如何求解,先讲解下支持向量机的最重要的部分——核函数和松弛变量 

(7)PPT下一页——核函数

之前一直在讨论的线性分类器,只能对线性可分的样本做处理。

如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。

这必然使得它的适用范围大大缩小,而它的很多优点我们实在不原意放弃,怎么办呢?

有,其思想很简单,还是用二维平面中的分类问题作例子。

左边的我们把横轴上红色部分里的所有点定为正类,两边的黑色部分里的点定为负类。

试问能找到一个线性函数把两类正确分开么?

在二维空间里的线性函数就是指直线,显然找不到能将两者分开的直线。

我们可以找到一条曲线将二者区分开,通过判断点在这条曲线的上方还是下方就可以判断点所属的类别。

得到曲线为

,问题只是它不是一个线性函数,但是新建一个向量y和a,

,然后把y和a分别回带一下,得到g(x)=f(y)=ay。

在任意维度的空间中,这种形式的函数都是一个线性函数,只不过其中的a和y都是多维向量罢了。

这样原来在二维空间中一个线性不可分的问题,映射到四维空间后,变成了线性可分的!

因此这也形成了我们最初想解决线性不可分问题的基本思路——向高维空间转化,使其变得线性可分。

(7)PPT下一页

将低维空间线性不可分的映射到的高维空间的到的线性可分的线性函数为

f(x’)=+b

其中:

x’是经由x变换来的,w’是经由w变换来的

计算高维空间向量x’与向量w’的内积,再把这个内积的值和b相加,就得到了结果,看结果大于阈值还是小于阈值就得到了分类结果。

但是x’到x,w’到w的映射关系很难找到。

但是我们发现我们可以只关心那个高维空间里内积的值,如果内积值算出来了,分类结果就算出来了。

这就让我们幻想,是否能有这样一种函数K(w,x),他接受低维空间的输入值,却能算出高维空间的内积值

如果存在K(w,x),那么当给了一个低维空间数据,

g(x)=K(w,x)+b

f(x’)=+b

这两个函数的计算结果就完全一样,我们可直接拿低维的输入往g(x)里面代就可以了。

万幸的是,这样的K(w,x)确实存在,它被称作核函数,而且还不止一个。

(8)PPT下一页

核函数的基本作用就是接受两个低维空间里的向量,能够计算出经过某个变换后在高维空间里的向量内积值。

之前我们经过化简得到一个线性表示

现在这个就是高维空间里的线性函数,我们就可以用一个低维空间里的函数来代替,之前有介绍核函数是输入低纬数据之间计算出高维空间的内积值得到,低纬空间的代替函数

可以看到g(x’)和g(x)里的α,y,b全都是一样的!

这就是说,尽管给的问题是线性不可分的,但是我们就硬当它是线性问题来求解,只不过求解过程中,凡是要求内积的时候就用你选定的核函数来算。

这样求出来的α再和你选定的核函数一组合,就得到分类器。

PPT下一页

根据上面的核函数介绍会想到下面两个问题

1.既然有很多的核函数,针对具体问题该怎么选择?

2.如果使用核函数向高维空间映射后,问题仍然是线性不可分的,那怎么办?

第一个,对核函数的选择,现在还缺乏指导原则!

各种实验的观察结果表明,某些问题用某些核函数效果很好,用另一些就很差,但是一般来讲,径向基核函数是不会出太大偏差的一种,首选。

这里我们不讨论径向基核函数具体实现形式是什么样子,只要知道他是一个较好实现输入低维空间数据得到高维空间内积的函数。

第二个问题的解决则引出了我们下一节的主题:

松弛变量。

(10)PPT下一页

如图所示,在分类过程中出现图中情况,就是图中黄色那个点,它是方形的,因而它是负类的一个样本,这单独的一个样本,使得原本线性可分的问题变成了线性不可分的。

以我们人类的常识来判断,说有一万个点都符合某种线性可分的规律,有一个点不符合,其实我们会觉得,这个样本点压根就是错误,是噪声,而不是我们分类方法有问题。

所以我们会简单的忽略这个样本点,仍然使用原来的分类器,其效果丝毫不受影响。

为了使我们的约束条件也有这种对噪声的容错性,我们将原来的约束条件右边的阈值1增加一个松弛变量,如下:

因为松弛变量是非负的,因此最终的结果是要求间隔可以比1小。

但是当某些点出现这种间隔比1小的情况时(这些点也叫离群点),意味着我们放弃了对这些点的精确分类,而这对我们的分类器来说是种损失。

但是放弃这些点也带来了好处,那就是使分类面不必向这些点的方向移动,因而可以得到更大的几何间隔。

显然我们必须权衡这种损失和好处。

回顾下我们原始的优化问题

||w||2就是我们的目标函数,希望它越小越好,我们引入松弛变量带来的损失就必然是一个能使之变大的量,能使它变小就不叫损失了,因为我们本来就希望目标函数值越小越好。

(11)PPT下一页

我们如何来衡量松弛变量给目标函数带来的损失呢?

常用kesai平方求和或者kesai求和来衡量,n为样本数目,这两个没有本质区别。

如果选择了

(1)式,得到的方法的就叫做二阶软间隔分类器,

(2)式就叫做一阶软间隔分类器。

我先解释下什么叫软间隔,

我们看约束条件右边是我们给的一个固定的阈值1,我们称这个为“硬间隔”分类法,因为他硬性的要求所有样本点都满足和分类平面间的距离必须大于某个值。

而带有松弛变量的

(2)式,就属于软间隔分类方法

PPT下一页

把损失加入到目标函数里的时候,就需要一个惩罚因子Ci,原来的优化问题就变成了下面这样:

对这个式子有这么几点要注意:

一是并非所有的样本点都有一个松弛变量与其对应。

实际上只有“离群点”才有,或者也可以这么看,所有没离群的点松弛变量都等于0。

二是松弛变量的值实际上标示出了对应的点到底离群有多远,值越大,点就越远。

三是惩罚因子Ci决定了你有多重视离群点带来的损失,显然当所有离群点的松弛变量的和一定时,你定的C越大,对目标函数的损失也越大,此时就暗示着你非常不愿意放弃这些离群点,最极端的情况是你把C定为无限大,这样只要稍有一个点离群,目标函数的值马上变成无限大,马上让问题变成无解,这就退化成了硬间隔问题。

四是惩罚因子C不是一个变量,整个优化问题在解的时候,C是一个你必须事先指定的值,指定这个值以后,解一下,得到一个分类器,然后用测试数据看看结果怎么样,如果不够好,换一个C的值,再解一次优化问题,得到另一个分类器,再看看效果,如此就是一个参数寻优的过程。

至此一个比较完整的支持向量机框架就有了,简单说来,支持向量机就是使用了核函数的软间隔线性分类法。

最后,我要说的是,虽然我是以两类样本进行分类来介绍SVM的原理,其实SVM是可以用到多类样本分类的。

(11)PPT下一页——总结

最后,我来总结下我所讲。

我们的问题是要想办法分类C1,C2。

因为线性分类器最简单最高效,所以我们用线性函数对其分类,

但是,有很多线性函数,我们利用几何间隔选取最优的线性函数

如果C1,C2不是线性可分的。

我们利用核函数将2维的数据转换为更高维空间,使其变成线性可分数据。

如果出现少量离群点导致数据不可分,我们利用松弛变量将离群点舍去使得数据再次变成线性可分的

(11)PPT下一页

下面我们来讲解下支持向量机的应用,因为已经理解支持向量机是一种线性分类方法。

辨别图片以区别人脸和猴脸为例说明下支持向量机在其中的应用。

比如我们有100张人脸照片用A表示和100张猴脸照片用B表示。

其中我们把前80张人脸和80张猴脸图片作为训练图片。

剩余的20张人脸和20张猴脸作为测试图片。

训练图片和测试图片具体选多少没有规定,但是测试图片和训练图片都是已知样本数据。

(11)PPT下一页——总结

区别是猴脸还是人脸要对图片的特征信息进行提取,我们不考虑如何提取到的特征信息,只是特征信息都是用同一种方法提取并且得到的维数相同。

我们用相同的方法,将训练图片和测试图片全部进行特征提取并组成一个大矩阵H和H,矩阵每一行代表每一个样本,每一列代表每个样本的一个特征值,H前80行代表人脸数据,后80行代表猴脸数据。

后面的数字1,2是一种标记,1表示图片是人脸,2表示图片是猴脸

我们将训练图片H矩阵利用支持向量机进行分类,我们不在细究是利用了什么核函数,松弛变量是怎么选择,总之,我们认为计算机已经训练好了,已经有了一个分类的线性函数,能够将猴脸和人脸区分出来。

然后将测试图片H,用这个分类函数进行分类。

会得到分类函数对测试图片的分类结果矩阵S,比如,有两个分类错误了,A的第100张图片本来应该是人脸,但是这个分类函数把他分成了猴脸,B的第80张图应该是猴脸缺分成了人脸。

这样就可以计算下当前分类函数的分类准确率。

38/40=95%..。

如果比较低则,再重新将H重新输入到SVM中重新训练。

如果准确率可以,则选用当前分类函数为最终的分类函数,这样当给了一张新的图片,就可以用当前分类函数对新图片进行人脸还是猴脸的辨别了。

 

2.www。

cer。

net/artide/2003082213089728。

shtml。

 

4、宏观营销环境分析

(四)DIY手工艺品的“个性化”

随科技的迅速发展,人们的生活日益趋向便捷、快速,方便,对于我国传统的手工艺制作,也很少有人问津,因此,我组想借此创业机会,在校园内开个DIY创意小屋。

它包括编织、刺绣、串珠等,让我们传统的手工制作也能走进大学,丰富我们的生活。

 

(二)大学生对DIY手工艺品消费态度分析

调研提纲:

一、消费者分析

(3)优惠多

手工艺品,它运用不同的材料,通过不同的方式,经过自己亲手动手制作。

看着自己亲自完成的作品时,感觉很不同哦。

不论是01年的丝带编织风铃,02年的管织幸运星,03年的十字绣,04年的星座手链,还是今年风靡一时的针织围巾等这些手工艺品都是陪伴女生长大的象征。

为此,这些多样化的作品制作对我们这一创业项目的今后的操作具有很大的启发作用。

beadorks公司成功地创造了这样一种气氛:

商店和顾客不再是单纯的买卖关系,营业员只是起着参谋的作用,顾客成为商品或者说是作品的作参与者,营业员和顾客互相交流切磋,成为一个共同的创作体

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2