模式识别习题及答案.docx

上传人:b****8 文档编号:12547960 上传时间:2023-06-06 格式:DOCX 页数:15 大小:22.82KB
下载 相关 举报
模式识别习题及答案.docx_第1页
第1页 / 共15页
模式识别习题及答案.docx_第2页
第2页 / 共15页
模式识别习题及答案.docx_第3页
第3页 / 共15页
模式识别习题及答案.docx_第4页
第4页 / 共15页
模式识别习题及答案.docx_第5页
第5页 / 共15页
模式识别习题及答案.docx_第6页
第6页 / 共15页
模式识别习题及答案.docx_第7页
第7页 / 共15页
模式识别习题及答案.docx_第8页
第8页 / 共15页
模式识别习题及答案.docx_第9页
第9页 / 共15页
模式识别习题及答案.docx_第10页
第10页 / 共15页
模式识别习题及答案.docx_第11页
第11页 / 共15页
模式识别习题及答案.docx_第12页
第12页 / 共15页
模式识别习题及答案.docx_第13页
第13页 / 共15页
模式识别习题及答案.docx_第14页
第14页 / 共15页
模式识别习题及答案.docx_第15页
第15页 / 共15页
亲,该文档总共15页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

模式识别习题及答案.docx

《模式识别习题及答案.docx》由会员分享,可在线阅读,更多相关《模式识别习题及答案.docx(15页珍藏版)》请在冰点文库上搜索。

模式识别习题及答案.docx

模式识别习题及答案

模式识别习题及答案

【篇一:

模式识别题目及答案】

p>t

,方差?

1?

(2,0)

-1/2?

?

11/2?

?

1t

,第二类均值为,方差,先验概率?

?

(2,2)?

1?

?

?

?

22?

?

?

1?

?

1/21?

?

-1/2p(?

1)?

p(?

2),试求基于最小错误率的贝叶斯决策分界面。

解根据后验概率公式p(?

ix)?

p(x?

i)p(?

i)

p(x)

,(2’)

及正态密度函数p(x?

i)?

t

?

(x?

?

)?

i(x?

?

i)/2],i?

1,2。

(2’)i?

1

基于最小错误率的分界面为p(x?

1)p(?

1)?

p(x?

2)p(?

2),(2’)两边去对数,并代入密度函数,得

?

(x?

?

1)t?

1(x?

?

1)/2?

ln?

1?

?

(x?

?

2)t?

2(x?

?

2)/2?

ln?

2

(1)(2’)

?

1?

1

?

4/3-2/3?

?

4/32/3?

?

1

由已知条件可得?

1?

?

2,?

1?

?

?

,?

2?

?

2/34/3?

,(2’)

-2/34/3?

?

?

?

?

1

设x?

(x1,x2)t,把已知条件代入式

(1),经整理得

x1x2?

4x2?

x1?

4?

0,(5’)

二、

(15分)设两类样本的类内离散矩阵分别为s1?

?

?

11/2?

?

?

1/21?

-1/2?

?

1tt

各类样本均值分别为?

1?

,?

2?

,试用fisher准(1,0)(3,2)s2?

?

?

-1/21?

?

(2,2)的类别。

则求其决策面方程,并判断样本x?

解:

s?

s1?

s2?

?

t

?

20?

(2’)?

?

02?

?

1/20?

?

-2?

?

-1?

*?

1

w?

s(?

?

?

)?

投影方向为12?

01/2?

?

?

2?

?

?

?

1?

(6’)

?

?

?

?

?

?

阈值为y0?

w(?

1?

?

2)/2?

?

-1-1?

?

?

?

?

3(4’)

*t

?

2?

?

1?

给定样本的投影为y?

w*tx?

?

2

?

-1?

2?

?

?

?

?

4?

y0,属于第二类(3’)?

?

1?

三、(15分)给定如下的训练样例

实例x0x1x2t(真实输出)11111212013101-14112-1

用感知器训练法则求感知器的权值,设初始化权值为w0?

w1?

w2?

0;

1第1次迭代

2第2次迭代

(4’)

(2’)

3第3和4次迭代

四、(15分)

i.推导正态分布下的最大似然估计;

ii.根据上步的结论,假设给出如下正态分布下的样本

,估计该部分的均值和方差两个参数。

.9,0.99?

1,1.1,1.01,?

0

1设样本为k={x1,x2,…,xn},

正态密度函数p(x?

i)?

则似然函数为

?

(x?

?

i)?

i(x?

?

i)/2](2’)

t

?

1

k?

1n

(2’)

?

lnp(x

k?

1

n

k

k?

1

n

(2’)

?

ml对于正态分布?

1n1n2

?

ml?

?

(xk?

?

?

)2(2’)?

?

xk,?

nk?

1nk?

1

?

ml2根据1中的结果?

五、

1n1n2

?

ml?

?

(xk?

?

?

)2=0.00404(5’)?

?

xk=1,?

nk?

1nk?

1

(-6,-6),(6,6)(15分)给定样本数据如下:

tt

(1)对其进行pca变换

(2)用

(1)的结果对样本数据做一维数据压缩解

(1)pca变换

1求样本总体均值向量?

=(-6,-6)?

(6,6)?

(0,0)

tt2求协方差矩阵r=[(-6,-6)(-6,-6)?

(6,6)(6,6)]/2?

?

ttt

?

3636?

?

(2’)

3636?

?

3求特征根,令

36?

?

36

?

0,得?

1?

72,?

2?

0。

(1’)

3636?

?

?

1?

?

1?

?

1?

?

(2’)?

1?

?

由r?

i?

?

?

ii,得特征向量?

1?

?

?

?

2?

?

?

?

6?

?

?

?

6?

?

则pca

为[?

1,?

2]?

?

?

?

,[?

1,?

2]?

?

?

?

(5’)

?

?

6?

?

?

6?

?

?

?

?

(2)要做一维压缩,就是向最大特征根对应的特征向量做投影,得

?

,(5’)

六、

ttt

(10分)已知4个二维样本:

x1?

,x2?

,x3?

,(0,0)(0,1)(1,2)

t

试用层次聚类把样本分成2类。

x4?

(4,3)

000

解:

1初始将每一个样本视为一类,得g10?

{x1},g2?

{x2},g3?

{x3},g4?

{x4}

计算各类间的距离,得到距离矩阵d,(2’)

2将最短距离1对应的类g10?

{x1},g2?

{x2}合并为一类,得到新的分类:

(4’)

101010g12?

{g10,g2},g3?

{g3},g4?

{g4}

计算各类间的欧式距离,得到距离矩阵d(2’)

1

1010

3将距离最小两类g12?

{g10,g2}和g3?

{g3}合并为一类,得到新的分类

20020

g123?

{g10,g2,g3},g4?

{g4}

聚类结束,结果为

?

1?

{x1,x2,x3,}?

2?

{x4}(2’)

七、

ttt

(10分)已知4个二维样本:

x1?

,x2?

,x3?

,(0,0)(1,0)(6,4)

tt

,x5?

取k=3,用k均值算法做聚类x4?

(7,5)(10,9)

解:

tt

1k=3,初始化聚类中心,z1

(1)?

x1?

,z2

(1)?

x3?

,(0,0)(6,4)t

(2’)z3

(1)?

x5?

(10,9)

2根据中心进行分类,得?

1?

{x1,x2},?

2?

{x3,x4},?

3?

{x5}(2’)3

t

z1

(2)?

(x1?

x2)/2?

(1/2,0)

tttt

,z3

(2)?

x5?

(10,9)z2

(2)?

(x3?

x4)/2?

(6,4)?

(7,5)?

(13/2,9/2)

(4’)

4根据新的中心进行分类,得?

1?

{x1,x2},?

2?

{x3,x4},?

3?

{x5},分类已经不再变化,因此最后的分类结果为?

1?

{x1,x2},?

2?

{x3,x4},?

3?

{x5}(2’)

八、

(10分)设论域x?

{x1,x2,x3,x4},给定x上的一个模糊关系r,其模糊矩阵

~

?

10.80.80.2?

?

0.810.850.2?

?

r?

?

?

0.80.8510.2?

?

?

0.20.20.21?

?

?

0.9,0.8给出分类结果

(1)判断该模糊矩阵式模糊相似矩阵还是模糊等价矩阵

(2)按不同的置信水平?

解:

(1)因为rr?

r(计算过程),是模糊等价矩阵(6’)

?

1?

0

(2)r0.9?

?

?

0?

?

0?

1?

1

r0.8?

?

?

1?

?

0

1110

000?

100?

?

,聚类结果为{x1},{x2},{x3},{x4}(2’)010?

?

001?

1110

0?

?

0?

,聚类结果为{x1,x2,x3},{x4}(2’)?

0?

1?

【篇二:

模式识别练习题】

别系统的基本构成单元包括:

模式采集、特征选择与提取和模式分类。

2、统计模式识别中描述模式的方法一般使用特征矢量;句法模式识别中模式描述方法一般有串、

树、网。

3、影响层次聚类算法结果的主要因素有计算模式距离的测度、聚类准则、类间距离门限、预定的类别数目。

4、线性判别函数的正负和数值大小的几何意义是正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。

5、感知器算法

(1)只适用于线性可分的情况;

(2)线性可分、不可分都适用。

6、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于某一种判决错误较另一种判决错误更为重

要情况;最小最大判别准则主要用于先验概率未知的情况。

7、“特征个数越多越有利于分类”这种说法正确吗?

错误。

特征选择的主要目的是从n个特征中选出最有利于分类的的m个特征(mn),以降低特征维数。

一般在可分性判据对特征个数具有单调性和(cnmn)的条件下,可以使用分支定界法以减少计算量。

8、散度jij越大,说明?

i类模式与?

j类模式的分布差别越大;

当?

i类模式与?

j类模式的分布相同时,jij

选择题

1、影响聚类算法结果的主要因素有(bcd)。

a.已知类别的样本质量b.分类准则c.特征选取d.模式相似性测度

2、模式识别中,马式距离较之于欧式距离的优点是(cd)。

a.平移不变性b.旋转不变性c.尺度不变性d.考虑了模式的分布

3、影响基本k-均值算法的主要因素有(dab)。

a.样本输入顺序b.模式相似性测度c.聚类准则d.初始类中心的选取

4、在统计模式分类问题中,当先验概率未知时,可以使用(bd)。

a.最小损失准则b.最小最大损失准则c.最小误判概率准则d.n-p判决

5、散度jd是根据(c)构造的可分性判据。

a.先验概率b.后验概率c.类概率密度d.信息熵e.几何距离

6、如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有(bc)。

a.已知类别样本质量b.分类准则c.特征选取d.量纲

7、欧式距离具有(ab);马式距离具有(abcd)。

a.平移不变性b.旋转不变性c.尺度缩放不变性d.不受量纲影响的特性

8、聚类分析算法属于(a);判别域代数界面方程法属于(c)。

a.无监督分类b.有监督分类c.统计模式识别方法d.句法模式识别方法

9、下列函数可以作为聚类分析中的准则函数的有(acd)。

a.j?

tr[ss]b.j?

sws?

1

wb?

1bc.j?

?

?

j?

1i?

1cnj(j)i?

jd.j?

?

(j?

)?

(j?

)j?

12c

10、fisher线性判别函数的求解过程是将n维特征矢量投影在(b)中进行。

a.二维空间b.一维空间c.n-1维空间

简答题

一、试问“模式”与“模式类”的含义。

如果一位姓王的先生是位老年人,试问“王先生”和“老头”谁是模式,谁是模式类?

答:

在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念

或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”是“老头”的具体化。

二、试说明mahalanobis距离平方的定义,到某点的mahalanobis距离平方为常数的轨迹的几何意义,它与欧氏距离的区别与联系。

2t答:

mahalanobis距离的平方定义为:

r(x,u)?

(x?

u)?

(x?

u)?

1

其中x,u为两个数据,是一个正定对称矩阵(一般为协方差矩阵)。

根据定义,距

三、试说明用监督学习与非监督学习两种方法对道路图像中道路区域的划分的基本做法,以说明这两种学习方法的定义与它们间的区别。

答:

监督学习方法用来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。

就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。

使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。

四、试述动态聚类与分级聚类这两种方法的原理与不同。

答:

动态聚类是指对当前聚类通过迭代运算改善聚类;

分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。

?

11/2?

五、已知一组数据的协方差矩阵为?

?

1/21?

?

,试问?

?

1.协方差矩阵中各元素的含义。

2.求该数组的两个主分量。

3.主分量分析或称k-l变换,它的最佳准则是什么?

4.为什么说经主分量分析后,消除了各分量之间的相关性。

?

11/2?

答:

协方差矩阵为?

?

1/21?

?

,则?

?

1.对角元素是各分量的方差,非对角元素是各分量之间的协方差。

1?

?

?

?

?

1?

?

2?

=0得(?

?

1)2?

1/4,则2.主分量,通过求协方差矩阵的特征值,用?

1?

?

?

1?

?

?

?

?

2?

?

?

?

?

1/2?

1?

?

1?

1?

?

?

?

?

,相应的:

?

?

3/2,对应特征向量为?

,,对应。

?

?

?

?

2?

3/2?

1?

?

?

1?

这两个特征向量,即为主分量。

3.k-l变换的最佳准则为:

对一组数据进行按一组正交基分解,在只取相同数量分量的条件下,以均方误差计算截尾误差最小。

4.在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关性消除。

六、试列举线性分类器中最著名的三种最佳准则以及它们各自的原理。

答:

线性分类器三种最优准则:

fisher准则:

根据两类样本一般类内密集,类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。

这种度量通过类内离散矩阵sw和类间离散矩阵sb实现。

感知准则函数:

准则函数以使错分类样本到分界面距离之和最小为原则。

其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。

支持向量机:

基本思想是在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大,它的基本出发点是使期望泛化风险尽可能小。

七、对一副道路图像,希望把道路部分划分出来,可以采用以下两种方法:

1.在该图像中分别在道路部分与非道路部分画出一个窗口,把在这两个窗口中的象素数据作为训练集,用fisher准则方法求得分类器参数,再用该分类器对整幅图进行分类。

2.将整幅图的每个象素的属性记录在一张数据表中,然后用某种方法将这些数据按它们的自然分布状况划分成两类。

因此每个象素就分别得到相应的类别号,从而实现了道路图像的分割。

试问以上两种方法哪一种是监督学习,哪个是非监督学习?

答:

第一种方法中标记了两类样本的标号,需要人手工干预训练过程,属于监督学习方法;第二种方法只是依照数据的自然分布,把它们划分成两类,属于非监督学习方法。

八、试分析五种常用决策规则思想方法的异同。

答、五种常用决策是:

1.基于最小错误率的贝叶斯决策,利用概率论中的贝叶斯公式,得出使得错误率最小

的分类规则。

2.基于最小风险的贝叶斯决策,引入了损失函数,得出使决策风险最小的分类。

当在

0-1损失函数条件下,基于最小风险的贝叶斯决策变成基于最小错误率的贝叶斯决策。

3.在限定一类错误率条件下使另一类错误率最小的两类别决策。

【篇三:

模式识别试题】

txt>一、填空与选择填空(本题答案写在此试卷上,30分)

1、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定的类别数目))。

2、欧式距离具有(1、2);马式距离具有(1、2、3、4)。

(1)平移不变性

(2)旋转不

变性(3)尺度缩放不变性(4)不受量纲影响的特性

3、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。

)。

4、感知器算法1。

(1)只适用于线性可分的情况;

(2)线性可分、不可分都适用。

5、积累势函数法较之于h-k算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情

?

k(x)?

况));位势函数k(x,xk)与积累位势函数k(x)的关系为(?

~xk?

x?

?

kk(x,xk))。

?

?

6、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于(某一种判决错误较另一种判决错误更为重要)情况;最小最大判决准则主要用于(先验概率未知的)情况。

7、“特征个数越多越有利于分类”这种说法正确吗?

(错误)。

特征选择的主要目的是(从n个特

征中选出最有利于分类的的m个特征(mn),以降低特征维数)。

一般在(可分性判据对特征个数具有单调性)和(cnn)的条件下,可以使用分支定界法以减少计算量。

8、散度jij越大,说明?

i类模式与?

j类模式的分布(差别越大);当?

i类模式与?

j类模式的

分布相同时,jij=(0)。

9、已知有限状态自动机af=(?

,q,?

,q0,f),?

={0,1};q={q0,q1};?

?

(q0,0)=q1,?

(q0,

二、(15分)在目标识别中,假定类型?

1为敌方目标,类型?

2为诱饵(假目标),已知先验概率

p(?

1)=0.2和p(?

2)=0.8,类概率密度函数如下:

?

x0?

x1?

x?

11?

x2

p(x?

?

1)=?

2?

x1?

x?

2p(x?

?

2)=?

3?

x2?

x?

3

?

0其它?

0其它

(1)求贝叶斯最小误判概率准则下的判决域,并判断样本x=1.5属于哪一类

(2)求总错误概率p(e);

(3)假设正确判断的损失?

11=?

22=0,误判损失分别为?

12和?

21,若采用最小损失判决准则,?

12

和?

21满足怎样的关系时,会使上述对x=1.5的判断相反?

m

解:

(1)应用贝叶斯最小误判概率准则如果则判

(2)p(e)===0.08

(3)两类问题的最小损失准则的似然比形式的判决规则为:

如果则判

带入x=1.5得到?

12≥4?

21

解:

三角形abc三条边的方程:

(y-3)/(x-1)=(y-1)/(x-2)=d1(x,y)=2x+y-5=0

(y-1)/(x-2)=(y-2)/(x-3)=d2(x,y)=-x+y+1=0

(y-3)/(x-1)=(y-2)/(x-3)=d3(x,y)=-x-2y+7=0

可取有三个神经元的单隐含层网络,隐含层到输出神经元权值为1,输出神经元阀值取为2.5即可。

四、(15分)

(1)试给出c-均值算法的算法流程图;

(2)试证明c-均值算法可使误差平方和准则最小。

其中,k是迭代次数;是的样本均值。

解:

(1)框图中给出以下基本步骤:

1、任选个模式特征矢量作为初始聚类中心。

2、将待分类的模式特征矢量集中的模式逐个按最小距离原则分划给类中的某一类。

3、计算重新分类后的各类心。

4、如果任一类的类心改变,则转至⑵;否则结束。

(2)设某样本从聚类移至聚类中,移出后的集合记为,移入后的集合记为。

设和所含样本数分别为和,聚类、、和的均矢分别为、、和,显然有

(1)

(2)

而这两个新的聚类的类内欧氏距离(平方)和与原来的两个聚类的类内欧氏距离(平方)和的关系是(3)(4)

当距比距更近时,使得(5)

由式(3)、(4及(5)可知,将分划给类可使j变小。

这说明在分类问题中不断地计算新分划的各类的类心,并按最小距离原则归类可使j值减至极小值。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2