第二章课后习题与答案Word文档下载推荐.docx

上传人:b****1 文档编号:4414606 上传时间:2023-05-03 格式:DOCX 页数:22 大小:78.17KB
下载 相关 举报
第二章课后习题与答案Word文档下载推荐.docx_第1页
第1页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第2页
第2页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第3页
第3页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第4页
第4页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第5页
第5页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第6页
第6页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第7页
第7页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第8页
第8页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第9页
第9页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第10页
第10页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第11页
第11页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第12页
第12页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第13页
第13页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第14页
第14页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第15页
第15页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第16页
第16页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第17页
第17页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第18页
第18页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第19页
第19页 / 共22页
第二章课后习题与答案Word文档下载推荐.docx_第20页
第20页 / 共22页
亲,该文档总共22页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

第二章课后习题与答案Word文档下载推荐.docx

《第二章课后习题与答案Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《第二章课后习题与答案Word文档下载推荐.docx(22页珍藏版)》请在冰点文库上搜索。

第二章课后习题与答案Word文档下载推荐.docx

(1)每个学生都有一台计算机。

 

(2)高老师从3月到7月给计算机系学生讲《计算机网络》课。

解:

(3)学习班的学员有男、有女、有研究生、有本科生。

参例2.14

(4)创新公司在科海大街56号,刘洋是该公司的经理,他32岁、硕士学位。

参例2.10

(5)红队与蓝队进行足球比赛,最后以3:

2的比分结束。

2.19请把下列命题用一个语义网络表示出来:

(1)树和草都是植物;

(2)树和草都有叶和根;

(3)水草是草,且生长在水中;

(4)果树是树,且会结果;

(5)梨树是果树中的一种,它会结梨。

第5章计算智能部分参考答案

5.15对遗传法的选择操作:

设种群规模为4,个体采用二进制编码,适应度函数为f(x)=x2,初始种群情况如下表所示:

编号

个体串

x

适应值

百分比

累计百分比

选中次数

S01

1010

10

S02

0100

4

S03

1100

12

S04

0111

7

若规定选择概率为100%,选择算法为轮盘赌算法,且依次生成的4个随机数为0.42,0.16,0.89,0.71,请填写上表中的全部内容,并求出经本次选择操作后所得到的新的种群。

表格的完整内容为:

100

32.36

1

16

5.18

37.54

144

44.60

84.14

2

49

15.86

本次选择后所得到的新的种群为:

S01=1100

S02=1010

S03=0111

S04=1100

5.18设某小组有5个同学,分别为S1,S2,S3,S4,S5。

若对每个同学的“学习好”程度打分:

S1:

95S2:

85S3:

80S4:

70S5:

90

这样就确定了一个模糊集F,它表示该小组同学对“学习好”这一模糊概念的隶属程度,请写出该模糊集。

对模糊集为F,可表示为:

F=95/S1+85/S2+80/S3+70/S4+90/S5

F={95/S1,85/S2,80/S3,70/S4,90/S5}

5.19设有论域

U={u1,u2,u3,u4,u5}

并设F、G是U上的两个模糊集,且有

F=0.9/u1+0.7/u2+0.5/u3+0.3/u4

G=0.6/u3+0.8/u4+1/u5

请分别计算F∩G,F∪G,﹁F。

F∩G=(0.9∧0)/u1+(0.7∧0)/u2+(0.5∧0.6)/u3+(0.3∧0.8)/u4+(0∧1)/u5

=0/u1+0/u2+0.5/u3+0.3/u4+0/u5

=0.5/u3+0.3/u4

F∪G=(0.9∨0)/u1+(0.7∨0)/u2+(0.5∨0.6)/u3+(0.3∨0.8)/u4+(0∨1)/u5

=0.9/u1+0.7/u2+0.6/u3+0.8/u4+1/u5

﹁F=(1-0.9)/u1+(1-0.7)/u2+(1-0.5)/u3+(1-0.3)/u4+(1-0)/u5

=0.1/u1+0.3/u2+0.5/u3+0.7/u4+1/u5

5.21设有如下两个模糊关系:

请写出R1与R2的合成R1οR2。

R(1,1)=(0.3∧0.2)∨(0.7∧0.6)∨(0.2∧0.9)=0.2∨0.6∨0.2=0.6

R(1,2)=(0.3∧0.8)∨(0.7∧0.4)∨(0.2∧0.1)=0.3∨0.4∨0.1=0.4

R(2,1)=(1∧0.2)∨(0∧0.6)∨(0.4∧0.9)=0.2∨0∨0.4=0.4

R(2,2)=(1∧0.8)∨(0∧0.4)∨(0.4∧0.1)=0.8∨0∨0.1=0.8

R(3,1)=(0∧0.2)∨(0.5∧0.6)∨(1∧0.9)=0.2∨0.6∨0.9=0.9

R(3,2)=(0∧0.8)∨(0.5∧0.4)∨(1∧0.1)=0∨0.4∨0.1=0.4

因此有

5.22设F是论域U上的模糊集,R是U×

V上的模糊关系,F和R分别为:

求模糊变换FοR。

={0.1∨0.4∨0.6,0.3∨0.6∨0.3,0.4∨0.6∨0}

={0.6,0.6,0.6}

第6章不确定性推理部分参考答案

6.8设有如下一组推理规则:

r1:

IFE1THENE2(0.6)

r2:

IFE2ANDE3THENE4(0.7)

r3:

IFE4THENH(0.8)

r4:

IFE5THENH(0.9)

且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.7。

求CF(H)=?

(1)先由r1求CF(E2)

CF(E2)=0.6×

max{0,CF(E1)}

=0.6×

max{0,0.5}=0.3

(2)再由r2求CF(E4)

CF(E4)=0.7×

max{0,min{CF(E2),CF(E3)}}

=0.7×

max{0,min{0.3,0.6}}=0.21

(3)再由r3求CF1(H)

CF1(H)=0.8×

max{0,CF(E4)}

=0.8×

max{0,0.21)}=0.168

(4)再由r4求CF2(H)

CF2(H)=0.9×

max{0,CF(E5)}

=0.9×

max{0,0.7)}=0.63

(5)最后对CF1(H)和CF2(H)进行合成,求出CF(H)

CF(H)=CF1(H)+CF2(H)+CF1(H)×

CF2(H)

=0.692

6.10 

设有如下推理规则

IFE1THEN(2,0.00001)H1

IFE2THEN(100,0.0001)H1

IFE3THEN(200,0.001)H2

IFH1THEN(50,0.1)H2

且已知P(E1)=P(E2)=P(H3)=0.6,P(H1)=0.091,P(H2)=0.01,又由用户告知:

P(E1|S1)=0.84,P(E2|S2)=0.68,P(E3|S3)=0.36

请用主观Bayes方法求P(H2|S1,S2,S3)=?

(1)由r1计算O(H1|S1)

先把H1的先验概率更新为在E1下的后验概率P(H1|E1)

P(H1|E1)=(LS1×

P(H1))/((LS1-1)×

P(H1)+1)

=(2×

0.091)/((2-1)×

0.091+1)

=0.16682

由于P(E1|S1)=0.84>

P(E1),使用P(H|S)公式的后半部分,得到在当前观察S1下的后验概率P(H1|S1)和后验几率O(H1|S1)

P(H1|S1)=P(H1)+((P(H1|E1)–P(H1))/(1-P(E1)))×

(P(E1|S1)–P(E1))

=0.091+(0.16682–0.091)/(1–0.6))×

(0.84–0.6)

=0.091+0.18955×

0.24=0.136492

O(H1|S1)=P(H1|S1)/(1-P(H1|S1))

=0.15807

(2)由r2计算O(H1|S2)

先把H1的先验概率更新为在E2下的后验概率P(H1|E2)

P(H1|E2)=(LS2×

P(H1))/((LS2-1)×

=(100×

0.091)/((100-1)×

=0.90918

由于P(E2|S2)=0.68>

P(E2),使用P(H|S)公式的后半部分,得到在当前观察S2下的后验概率P(H1|S2)和后验几率O(H1|S2)

P(H1|S2)=P(H1)+((P(H1|E2)–P(H1))/(1-P(E2)))×

(P(E2|S2)–P(E2))

=0.091+(0.90918–0.091)/(1–0.6))×

(0.68–0.6)

=0.25464

O(H1|S2)=P(H1|S2)/(1-P(H1|S2))

=0.34163

(3)计算O(H1|S1,S2)和P(H1|S1,S2)

先将H1的先验概率转换为先验几率

O(H1)=P(H1)/(1-P(H1))=0.091/(1-0.091)=0.10011

再根据合成公式计算H1的后验几率

O(H1|S1,S2)=(O(H1|S1)/O(H1))×

(O(H1|S2)/O(H1))×

O(H1)

=(0.15807/0.10011)×

(0.34163)/0.10011)×

0.10011

=0.53942

再将该后验几率转换为后验概率

P(H1|S1,S2)=O(H1|S1,S2)/(1+O(H1|S1,S2))

=0.35040

(4)由r3计算O(H2|S3)

先把H2的先验概率更新为在E3下的后验概率P(H2|E3)

P(H2|E3)=(LS3×

P(H2))/((LS3-1)×

P(H2)+1)

=(200×

0.01)/((200-1)×

0.01+1)

=0.09569

由于P(E3|S3)=0.36<

P(E3),使用P(H|S)公式的前半部分,得到在当前观察S3下的后验概率P(H2|S3)和后验几率O(H2|S3)

P(H2|S3)=P(H2|¬

E3)+(P(H2)–P(H2|¬

E3))/P(E3))×

P(E3|S3)

由当E3肯定不存在时有

P(H2|¬

E3)=LN3×

P(H2)/((LN3-1)×

P(H2)+1)

=0.001×

0.01/((0.001-1)×

0.01+1)

=0.00001

P(H2|S3)=P(H2|¬

P(E3|S3)

=0.00001+((0.01-0.00001)/0.6)×

0.36

=0.00600

O(H2|S3)=P(H2|S3)/(1-P(H2|S3))

=0.00604

(5)由r4计算O(H2|H1)

先把H2的先验概率更新为在H1下的后验概率P(H2|H1)

P(H2|H1)=(LS4×

P(H2))/((LS4-1)×

=(50×

0.01)/((50-1)×

=0.33557

由于P(H1|S1,S2)=0.35040>

P(H1),使用P(H|S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2|S1,S2)和后验几率O(H2|S1,S2)

P(H2|S1,S2)=P(H2)+((P(H2|H1)–P(H2))/(1-P(H1)))×

(P(H1|S1,S2)–P(H1))

=0.01+(0.33557–0.01)/(1–0.091))×

(0.35040–0.091)

=0.10291

O(H2|S1,S2)=P(H2|S1,S2)/(1-P(H2|S1,S2))

=0.10291/(1-0.10291)=0.11472

(6)计算O(H2|S1,S2,S3)和P(H2|S1,S2,S3)

先将H2的先验概率转换为先验几率

O(H2)=P(H2)/(1-P(H2))=0.01/(1-0.01)=0.01010

O(H2|S1,S2,S3)=(O(H2|S1,S2)/O(H2))×

(O(H2|S3)/O(H2))×

O(H2)

=(0.11472/0.01010)×

(0.00604)/0.01010)×

0.01010

=0.06832

P(H2|S1,S2,S3)=O(H1|S1,S2,S3)/(1+O(H1|S1,S2,S3))

=0.06832/(1+0.06832)=0.06395

可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

6.11设有如下推理规则

IFE1THEN(100,0.1)H1

IFE2THEN(50,0.5)H2

IFE3THEN(5,0.05)H3

且已知P(H1)=0.02,P(H2)=0.2,P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(Hi|Ei)或P(Hi|﹁Ei)的值各是多少(i=1,2,3)?

(1)当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1|E1)=(LS1×

=(100×

0.02)/((100-1)×

0.02+1)

=0.671

P(H2|E2)=(LS2×

P(H2))/((LS2-1)×

=(50×

0.2)/((50-1)×

0.2+1)

=0.9921

P(H3|E3)=(LS3×

P(H3))/((LS3-1)×

P(H3)+1)

=(5×

0.4)/((5-1)×

0.4+1)

=0.769

(2)当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1|¬

E1)=(LN1×

P(H1))/((LN1-1)×

=(0.1×

0.02)/((0.1-1)×

=0.002

P(H2|¬

E2)=(LN2×

P(H2))/((LN2-1)×

=(0.5×

0.2)/((0.5-1)×

=0.111

P(H3|¬

E3)=(LN3×

P(H3))/((LN3-1)×

=(0.05×

0.4)/((0.05-1)×

=0.032

6.13设有如下一组推理规则:

IFE1ANDE2THENA={a}(CF={0.9})

IFE2AND(E3ORE4)THENB={b1,b2}(CF={0.8,0.7})

IFATHENH={h1,h2,h3}(CF={0.6,0.5,0.4})

IFBTHENH={h1,h2,h3}(CF={0.3,0.2,0.1})

且已知初始证据的确定性分别为:

CER(E1)=0.6,CER(E2)=0.7,CER(E3)=0.8,CER(E4)=0.9。

假设|Ω|=10,求CER(H)。

其推理过程参考例6.9

具体过程略

6.15设

U=V={1,2,3,4}

且有如下推理规则:

IFxis少THENyis多

其中,“少”与“多”分别是U与V上的模糊集,设

少=0.9/1+0.7/2+0.4/3

多=0.3/2+0.7/3+0.9/4

已知事实为

xis较少

“较少”的模糊集为

较少=0.8/1+0.5/2+0.2/3

请用模糊关系Rm求出模糊结论。

先用模糊关系Rm求出规则

所包含的模糊关系Rm

Rm(1,1)=(0.9∧0)∨(1-0.9)=0.1

Rm(1,2)=(0.9∧0.3)∨(1-0.9)=0.3

Rm(1,3)=(0.9∧0.7)∨(1-0.9)=0.7

Rm(1,4)=(0.9∧0.9)∨(1-0.9)=0.7

Rm(2,1)=(0.7∧0)∨(1-0.7)=0.3

Rm(2,2)=(0.7∧0.3)∨(1-0.7)=0.3

Rm(2,3)=(0.7∧0.7)∨(1-0.7)=0.7

Rm(2,4)=(0.7∧0.9)∨(1-0.7)=0.7

Rm(3,1)=(0.4∧0)∨(1-0.4)=0.6

Rm(3,2)=(0.4∧0.3)∨(1-0.4)=0.6

Rm(3,3)=(0.4∧0.7)∨(1-0.4)=0.6

Rm(3,4)=(0.4∧0.9)∨(1-0.4)=0.6

Rm(4,1)=(0∧0)∨(1-0)=1

Rm(4,2)=(0∧0.3)∨(1-0)=1

Rm(4,3)=(0∧0.7)∨(1-0)=1

Rm(3,4)=(0∧0.9)∨(1-0)=1

即:

即,模糊结论为

Y’={0.3,0.3,0.7,0.8}

6.16设

U=V=W={1,2,3,4}

且设有如下规则:

r1:

IFxisFTHENyisG

r2:

IFyisGTHENzisH

r3:

IFxisFTHENzisH

其中,F、G、H的模糊集分别为:

F=1/1+0.8/2+0.5/3+0.4/4

G=0.1/2+0.2/3+0.4/4

H=0.2/2+0.5/3+0.8/4

请分别对各种模糊关系验证满足模糊三段论的情况。

本题的解题思路是:

由模糊集F和G求出r1所表示的模糊关系R1m,R1c,R1g

再由模糊集G和H求出r2所表示的模糊关系R2m,R2c,R2g

再由模糊集F和H求出r3所表示的模糊关系R3m,R3c,R3g

然后再将R1m,R1c,R1g分别与R2m,R2c,R2g合成得R12m,R12c,R12g

最后将R12m,R12c,R12g分别与R3m,R3c,R3g比较

第7章机器学习参考答案

7-6设训练例子集如下表所示:

序号

属性

分类

x1

x2

T

+

3

F

-

5

_

6

请用ID3算法完成其学习过程。

设根节点为S,尽管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。

H(S)=-(P(+)log2P(+)+P(-)log2P(-))

式中

P(+)=3/6,P(-)=3/6

分别是决策方案为“+”或“-”时的概率。

H(S)=-((3/6)log2(3/6)+(3/6)log2(3/6))

=1

按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:

H(S|xi)=(|ST|/|S|)*H(ST)+(|SF|/|S|)*H(SF)

其中,T和F为属性xi的属性值,ST和SF分别为xi=T或xi=F时的例子集,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小。

下面先计算S关于属性x1的条件熵:

在本题中,当x1=T时,有:

ST={1,2,3}

当x1=F时,有:

SF={4,5,6}

其中,ST和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,|ST|=|SF|=3。

由ST可知,其决策方案为“+”或“-”的概率分别是:

    PST(+)=2/3

PST(-)=1/3

因此有:

H(ST)=-(PST(+)log2PST(+)+PST(-)log2PST(-))

=-((2/3)log2(2/3)+(1/3)log2(1/3))

=0.9183

再由SF可知,其决策方案为“+”或“-”的概率分别是:

    PSF(+)=1/3

PSF(-)=2/3

则有:

H(SF)=-(PSF(+)log2PSF(+)+PSF(-)log2PSF(-))

=-((1/3)log2(1/3)+(2/3)log2(2/3))

将H(ST)和H(SF)代入条件熵公式,有:

H(S|x1)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)

=(3/6)﹡0.9183+(3/6)﹡0.9183

下面再计算S关于属性x2的条件熵:

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 能源化工

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2