人工智能的主要内容和方法doc.docx

上传人:b****2 文档编号:2274317 上传时间:2023-05-03 格式:DOCX 页数:44 大小:30.12KB
下载 相关 举报
人工智能的主要内容和方法doc.docx_第1页
第1页 / 共44页
人工智能的主要内容和方法doc.docx_第2页
第2页 / 共44页
人工智能的主要内容和方法doc.docx_第3页
第3页 / 共44页
人工智能的主要内容和方法doc.docx_第4页
第4页 / 共44页
人工智能的主要内容和方法doc.docx_第5页
第5页 / 共44页
人工智能的主要内容和方法doc.docx_第6页
第6页 / 共44页
人工智能的主要内容和方法doc.docx_第7页
第7页 / 共44页
人工智能的主要内容和方法doc.docx_第8页
第8页 / 共44页
人工智能的主要内容和方法doc.docx_第9页
第9页 / 共44页
人工智能的主要内容和方法doc.docx_第10页
第10页 / 共44页
人工智能的主要内容和方法doc.docx_第11页
第11页 / 共44页
人工智能的主要内容和方法doc.docx_第12页
第12页 / 共44页
人工智能的主要内容和方法doc.docx_第13页
第13页 / 共44页
人工智能的主要内容和方法doc.docx_第14页
第14页 / 共44页
人工智能的主要内容和方法doc.docx_第15页
第15页 / 共44页
人工智能的主要内容和方法doc.docx_第16页
第16页 / 共44页
人工智能的主要内容和方法doc.docx_第17页
第17页 / 共44页
人工智能的主要内容和方法doc.docx_第18页
第18页 / 共44页
人工智能的主要内容和方法doc.docx_第19页
第19页 / 共44页
人工智能的主要内容和方法doc.docx_第20页
第20页 / 共44页
亲,该文档总共44页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

人工智能的主要内容和方法doc.docx

《人工智能的主要内容和方法doc.docx》由会员分享,可在线阅读,更多相关《人工智能的主要内容和方法doc.docx(44页珍藏版)》请在冰点文库上搜索。

人工智能的主要内容和方法doc.docx

人工智能的主要内容和方法doc

.

 

人工智能的主要内容和方法

 

人工智能(ArtificialIntelligence,简称AI)是50年代兴起的一门新兴边缘学科,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能),也被认为是二十一世纪三大尖端技术之一(基因工

 

程、纳米科学、人工智能)。

广义的讲,人工智能是关于人造物的智能行为,而智能行为包括知觉、推理、学习、交流和在复杂环境中的行为。

人工智能的一个长期目标是发明出可以像人类一样或能更好地完成以上行为的机器;另一个目标是理解这种智能行为是否存在于机器、人类或其他动物中。

目前能够用来研究人工智能的主要物质手段以及能够实现人工智能技术的机器

 

就是计算机,人工智能的发展历史是和计算机科学与技术的发展史联系在一起的。

除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。

 

一、AI的主要内容

 

人工智能研究的主要内容包括:

知识表示、自动推理和搜索方法、机器

 

学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。

 

知识表示是人工智能的基本问题之一,推理和搜索都与表示方法密切相关。

常用的知识表示方法有:

逻辑表示法、产生式表示法、语义网络表示法和框架表示法等。

 

常识,自然为人们所关注,已提出多种方法,如非单调推理、定性推理就是从不同角度来表达常识和处理常识的。

 

.

.

 

问题求解中的自动推理是知识的使用过程,由于有多种知识表示方法,相应地有多种推理方法。

推理过程一般可分为演绎推理和非演绎推理。

谓词逻辑是演绎推理的基础。

结构化表示下的继承性能推理是非演绎性的。

由于

 

知识处理的需要,近几年来提出了多种非演绎的推理方法,如连接机制推理、类比推理、基于示例的推理、反绎推理和受限推理等。

 

搜索是人工智能的一种问题求解方法,搜索策略决定着问题求解的一个推理步骤中知识被使用的优先关系。

可分为无信息导引的盲目搜索和利用经验知识导引的启发式搜索。

启发式知识常由启发式函数来表示,启发式知识

 

利用得越充分,求解问题的搜索空间就越小。

典型的启发式搜索方法有A*、AO*算法等。

近几年搜索方法研究开始注意那些具有百万节点的超大规模的搜索问题。

 

机器学习是人工智能的另一重要课题。

机器学习是指在一定的知识表示

 

意义下获取新知识的过程,按照学习机制的不同,主要有归纳学习、分析学

 

习、连接机制学习和遗传学习等。

 

知识处理系统主要由知识库和推理机组成。

知识库存储系统所需要的知

 

识,当知识量较大而又有多种表示方法时,知识的合理组织与管理是重要的。

 

推理机在问题求解时,规定使用知识的基本方法和策略,推理过程中为记录

 

结果或通信需设数据库或采用黑板机制。

如果在知识库中存储的是某一领域

 

(如医疗诊断)的专家知识,则这样的知识系统称为专家系统。

为适应复杂问

 

题的求解需要,单一的专家系统向多主体的分布式人工智能系统发展,这时

 

知识共享、主体间的协作、矛盾的出现和处理将是研究的关键问题。

 

二、AI的研究方法

 

.

.

 

既为人工智能的最终研究目标打好基础,又能创造出短期效益,这是选择人工智能研究最佳方法的标准。

尽管人工智能已经创造了一些实用系统,但这些远未达到人类的智能水平。

在过去的几十年里涌现出了大量的方法,大致可分为两大类。

 

第一类包括符号处理的方法。

它们基于Newell和Simon的物理符号系统的假说。

大多数被称为“经典的人工智能”均在其指导之下。

这类方法中,突出的方法是将逻辑操作应用于说明性知识库。

这种风格的人工智能运用说明语句来表达问题域的“知识”,这些语句基于或实质上等同于一阶逻辑中的语句,采用逻辑推理可推导这种知识的结果。

这种方法有许多变形,包括

 

那些强调对逻辑语言中定义域的形式公理化的角色的变形。

当遇到“真正的问题”,这一方法需要掌握问题域的足够知识,通常就称作基于知识的方法。

 

在大多数符号处理方法中,对需求行为的分析和为完成这一行为所做的机器合成要经过几个阶段。

最高阶段是知识阶段,机器所需知识在这里说明。

接下来是符号阶段,知识在这里以符号组织表示(例如:

列表可用列表处理语言LISP来描述),同时在这里说明这些组织的操作。

接着,在更低级的阶段里实施符号处理。

多数符号处理采用自上而下的设计方法,从知识阶段向下到符号和实施阶段。

 

第二类包括所谓的“子符号”方法。

它们通常采用自下而上的方式,从最低阶段向上进行。

在最低层阶段,符号的概念就不如信号这一概念确切了。

在子符号方法中突出的方法是“Animatapproach”。

偏爱这种方式的人们指

 

出,人的智能经过了在地球上十亿年或更长时间的进化过程,认为为了制造出真正的智能机器,我们必须沿着这些进化的步骤走。

因此,我们必须集

 

.

.

 

中研究复制信号处理的能力和简单动物如昆虫的支配系统,沿着进化的阶梯

 

向上进行。

这一方案不仅能在短期内创造实用的人造物,又能为更高级智能

 

的建立打好坚实的基础。

 

第二类方法也强调符号基础。

在物理基础假说中,一个agent不采用集

 

中式的模式而运用其不同的行为模块与环境相互作用来进行复杂的行为。

 

器与环境的相互作用产生了所谓的“自然行为(emergentbehavior)”。

一个

 

agent的功能可视作该系统与动态环境密切相互作用的自然属性。

agent本身

 

对其行为的说明并不能解释它运行时所表现的功能;相反,其功能很大程度

 

上取决于环境的特性。

不仅要动态的考虑环境,而且环境的具体特征也要运

 

用于整个系统之中。

 

由子符号派制造的著名样品机器包括“神经网络(Neuralnetwork)”。

 

据模拟生物进化方面的进程,一些有意思的机器应运而生,包括:

Sexual

 

crossover、Mutation和Fitness-proportionalreproduction。

其他自下而上,含

 

animat风格的方法是基于控制理论和动态系统地分析。

介于自上而下和自下

 

而上之间的方法是一种“环境自动机(situatedautomata)”的方法。

Kaelbling

 

和Rosenschein建议编写一种程序设计语言来说明agent在高水平上所要求的行为,并编写一编译程序,以从这种语言编写的程序中产生引发行为的线路。

 

.

.

 

径向基函数神经网络MATLAB仿真

 

一、RBF网络的工作原理

 

径向基函数神经网络(RadialBasisFunctionNeuralNetwork,RBF)是一

 

种前馈神经网络,一般为三层结构,如下图:

b0

Φ1(x-c1)

X1

c1

W∈Rh*m

∑y1

X2c2

 

 

Xnch

Φh(x-ch)

 

ym

bm

 

上图所示为n—h—m结构的RBF网络,即网络具有n个输入,h个隐节点,m个输出。

其中x=(x1,x2,⋯,xn)T∈Rn为网络输入矢量,W∈Rn×m为输出权矩阵,b0,⋯,bm为输出单元偏移,y=(y1,y2,⋯,ym)T为网络输出,Φi(*)为第

 

i个隐节点的激活函数。

图中输出层节点中的∑表示输出层神经元采用线性

 

激活函数(输出神经元也可以采用其他非线性激活函数,如Sigmoidal函数)。

 

RBF网络的最显著的特点是隐节点的基函数采用距离函数(如欧式距

 

离),并使用径向基函数(如Gaussian高斯函数)作为激活函数。

径向基函

 

数关于n维空间的一个中心点具有径向对称性,而且神经元的输入离该中心

 

点越远,神经元的激活程度就越低。

隐节点的这个特性常被称为“局部特性”。

 

因此RBF网络的每个隐节点都具有一个数据中心,上图中ci就是网络中第i

 

.

.

 

个隐节点的数据中心值,||*||则表示欧式范数。

 

径向基函数Φi(*)可以取多种形式:

 

1.

Gaussian函数

Φi(t)

-t2/δi2

e

2.

Reflectedsigmoidal函数

Φi

(t)1/(1et2/δi2

3.

逆Multiquadric函数

Φ

(t)

1/(t

2

δ),α0

i

i

以上三式中的δi称为该基函数的扩展常数(Spread)或宽度。

显然δi越

小,径向基函数的宽度就越小,基函数就越具有选择性。

与输出节点相连的隐层第

i个隐节点的所有参数可用三元组(ci,δi,ωi)

表示。

每个隐层神经元都对输入

x产生一个响应Φi(||x-ci||),且响应特性成

 

径向对称(即是一个个同心圆),而神经网络的输出则是所有这些响应的加权和,因此第k个输出可表示为

h

ykωiΦi(||x-ci||)

i1

由于每个神经元具有局部特性,最终整个RBF网络也呈现“局部映射”特性,即RBF网络是一种局部相应神经网络。

这意味着如果神经网络有较大的输出,必定激活了一个或多个隐节点。

 

二、RBF网络的聚类学习算法

 

RBF网络的学习算法应该解决以下问题:

结构设计,即如何确定网络隐

 

节点数h;确定各径向基函数的数据中心ci及扩展常数δi;输出权值修正。

 

.

.

 

如果知道了网络的隐节点数、数据中心和扩展常数,RBF网络从输入到输出就成了一个线性方程组,此时权值学习可采用最小二乘法。

 

RBF网络最常用的学习算法有聚类方法、梯度训练方法及OLS优选算法。

下面将详细介绍最经典的RBF网络学习算法—聚类方法,并进行MATLAB仿真。

 

聚类方法的思路是先用无监督学习(用k-means算法对样本输入进行聚

 

类)方法确定RBF网络中h个隐节点的数据中心,并根据各数据中心之间的

 

距离确定隐节点的扩展常数,然后用有监督学习(梯度法)训练各隐节点的

 

输出权值。

 

假设X1,X2,⋯,XN为样本输入,相应的样本输出(教师信号)为y1,y2,⋯,yN,网络中第j个隐节点的激活函数为Φj(*)。

k为迭代次数,第k次迭代时的聚类中心为c1(k),c2(k),⋯,ch(k),相应的聚类域为ω1(k),ω2(k),⋯,ωh(k)。

k-means聚类算法确定RBF网络数据中心ci和扩展常数δi的步骤如下:

 

(1)算法初始化:

选择h个不同的初始聚类中心,并令k=1。

初始聚类中心的方法很多,比如,从样本输入中随机选取,或者选择前h个样本输入,但这h个初始数据中心必须取不同值。

(2)计算所有样本输入与聚类中心的距离||Xj-ci(k)||,i=1,2,⋯,h,

 

j=1,2,⋯,N。

 

(3)对样本输入

i(xj)=min||Xj-ci(k)||,i=1,2,

i

Xj按最小距离原则对其进行分类:

即当⋯,h时,Xj即被归为第i类,即Xj∈ωi(k)。

 

(4)重新计算各类的新的聚类中心:

 

.

.

 

1

x,i1,2,,h

ci(k1)

Nix

i(k)

式中,Ni为第i个聚类域ωi(k)中包含的样本数。

 

(5)如果ci(k+1)≠ci(k),转到步骤

(2),否则聚类结束,转到步骤(6)。

 

(6)根据各聚类中心之间的距离确定各隐节点的扩展常数。

隐节点的扩

 

展常数取δi=κdi,其中di为第i个数据中心与其他最近的数据中心之间的距

离,即di=min||cj-ci(k)||,κ称重叠系数。

i

一旦各隐节点的数据中心和扩展常数确定了,输出权矢量ω=(ω1,ω2,⋯,

 

ωh)T就可以用有监督学习方法(如梯度法)训练得到,但更简洁的方法是使用最小二乘方法(LMS)直接计算。

假定当输入为Xi,i=1,2,⋯,N时,第j

 

个隐节点的输出如下式所示:

 

hijj(||xi-cj||)

 

则隐层输出阵为

 

H[hij]

 

则H∈RN×h。

如果RBF网络的当前权值为ω=(ω1,ω2,⋯,ωh)T(待定),则对所有样本,网络输出矢量为

 

yH

 

令||yy||为逼近误差,则如果给定了教师信号y=(y1,y2,⋯,ym)T并确定

 

了H,便可通过最小化下式求出网络的输出权值:

 

||yy||||yH||

 

通常ω可用最小二乘法求得

 

Hy

 

.

.

 

式中,H为H的伪逆,即

 

H(HTH)1HT

 

三、RBF网络MATLAB仿真实例

 

题目:

基于聚类方法的y=sinx函数逼近

 

解:

RBF网络隐层采用标准Gaussian径向基函数,输出层采用线性激

 

活函数,即f(u)=u。

数据中心和扩展常数用聚类方法得到,输出权值和偏

 

移采用广义逆方法求解。

隐节点数(即聚类数)取

10,初始聚类中心取前

10个训练样本。

MATLAB程序:

functionmain()

SamNum=200;

%训练样本数

TestSamNum=201;

%测试样本数

InDim=1;

%样本输入维数

ClusterNum=10;

%隐节点(聚类样本)数

Overlap=1.0;

%隐节点重叠系数κ

 

%根据目标函数获得样本输入输出

rand('state',sum(100*clock));

%resetsthegeneratortoadifferentstateeachtime

%且state不同产生的伪随机序列顺序不同

SamIn=14*rand(1,SamNum)-7;

SamOut=sin(SamIn);

 

TestSamIn=-7:

0.07:

7;%[7-(-7)]/0.07+1=201个样本

TestSamOut=sin(TestSamIn);

 

.

.

 

figure

 

holdon

grid

plot(SamIn,SamOut,'b+')

plot(TestSamIn,TestSamOut,'k--')%绘制目标函数曲线

xlabel('Inputx');

ylabel('Outputy');

title('基于聚类的RBF网络对函数y=sinx的逼近曲线'),

 

Centers=SamIn(:

1:

ClusterNum);%初始聚类中心取前10个训练样本

 

NumberInClusters=zeros(ClusterNum,1);%各类中的样本数,初始化为0

IndexInClusters=zeros(ClusterNum,SamNum);%各类所含样本的索引号while1,

 

NumberInClusters=zeros(ClusterNum,1);

IndexInClusters=zeros(ClusterNum,SamNum);

 

%按最小距离原则对所有样本进行分类

fori=1:

SamNum

AllDistance=dist(Centers',SamIn(:

i));%求欧几里德距离

[MinDist,Pos]=min(AllDistance);

 

NumberInClusters(Pos)=NumberInClusters(Pos)+1;%求各类样本的个数

IndexInClusters(Pos,NumberInClusters(Pos))=i;

end

 

%报存旧的聚类中心

OldCenters=Centers;

 

%重新计算各类的聚类中心

 

.

.

 

fori=1:

ClusterNum

 

Index=IndexInClusters(i,1:

NumberInClusters(i));

Centers(:

i)=mean(SamIn(:

Index)')';

end

 

%判断新旧聚类中心是否一致,如果是,则聚类结束

EqualNum=sum(sum(Centers==OldCenters));%新旧聚类中心一致的个数

ifEqualNum==InDim*ClusterNum,

break,

end

end

 

%计算各隐节点的扩展常数(宽度)δi=κdi,其中di是Cj-Ci(k)的最小欧式距离

AllDistances=dist(Centers',Centers);%求隐节点数据中心间的距离(矩阵)

Maximum=max(max(AllDistances));%找出其中最大的一个距离

fori=1:

ClusterNum%某一类的中心到自身的欧式距离是0,

AllDistances(i,i)=Maximum+1;%但要找隐节点间的最小距离,

end%因此将对角线上的0替换为较大的值。

Spreads=Overlap*min(AllDistances)';%以隐节点间的最小距离作为扩展常数

 

%计算各隐节点的输出权值

Distance=dist(Centers',SamIn);%计算各样本输入离各数据中心的距离

SpreadsMat=repmat(Spreads,1,SamNum);%repmat径向基函数φj(.)

HiddenUnitOut=radbas(Distance./SpreadsMat);%计算隐节点输出阵

HiddenUnitOutEx=[HiddenUnitOut'ones(SamNum,1)]';%考虑偏移

W2Ex=SamOut*pinv(HiddenUnitOutEx);%求广义输出权值。

pinv求伪逆

W2=W2Ex(:

1:

ClusterNum);

B2=W2Ex(:

ClusterNum+1);

W2

 

.

.

 

B2

 

%测试

TestDistance=dist(Centers',TestSamIn);

TestSpreadsMat=repmat(Spreads,1,TestSamNum);

TestHiddenUnitOut=radbas(TestDistance./TestSpreadsMat);

TestNNOut=W2*TestHiddenUnitOut+repmat(B2,1,TestSamNum);

plot(TestSamIn,TestNNOut,'r-')

 

四、输出结果

 

当隐节点重叠系数κ为1时,

 

W2=

 

Columns1through8

 

-0.97591.19561.24020.95091.3999-0.0311-0.13590.9232

 

Columns9through10

 

0.7913-0.1700

 

B2=

 

-0.8289

 

.

.

 

当隐节点重叠系数κ为2时,

 

W2=

 

Columns1through8

 

7.6555-1.73260.01560.0815-11.83861.01880.78531.5740

 

Columns9through10

 

9.3149-1.0047

 

B2=

 

-1.3042

 

五、结果分析

 

RBF网络的学习过程与BP网络的学习过程类似,两种网络中隐节点的

 

非线性变换作用都是把线性不可分问题转化为线性可分问题,因此均可用于

 

函数逼近和分类。

两者的主要区别在于各使用不同的激励函数,BP网络中

 

隐层节点使用的是Sigmoid函数,其值在输入空间中无限大的范围内为非零

 

值,因而是一种全局逼近的神经网络;而RBF网络中的激励函数是Gaussian

 

.

.

 

函数,是一种局部逼近的神经网络,其对于输入空间的某个局部区域只有少

 

数几个连接权影响网络的输出,因而与BP网络相比,RBF网络学习速度更

 

快。

 

聚类方法的优点是能根据各聚类中心之间的距离确定各隐节点的扩展

 

常数,缺点是确定数据中心时只用到了样本输入信息,而没有用到样本输出

 

信息;另外聚类方法也无法确定聚类的数目(RBF网络的隐节点数)。

 

.

.

 

遗传算法MATLAB仿真

 

一、遗传算法(GA)的基本思想

 

基于达尔文进化论中的适者生存、优胜劣汰的基本原理,按生物学的方

 

法将问题的求解表示成“种群(Population)”(用计算机编程时,一般使用二

 

进制码串表示),从而构造出一群包括N个可行解的种群,将它们置于问题

 

的“环境”中,根据适者生存原则,对该种群按照遗传学的基本操作,不断

 

优化生成新的种群,这样一代代地不断进化,最后收敛到一个最适应环境的

 

最优个体上,求得问题的最优解。

 

遗传算法可以形式化的描述如下:

 

GA=(P(0),N,l,s,g,p,f,t)

 

其中,P(0)=(P1(0),P2(0),⋯,Pn(0)),表示初始种群;N表示种群中含有个

 

体的个数;l表示二进制串的长度;s表示选择策略;g表示遗传算子,通常

 

它包括有选择(繁殖)算子Qr、杂交算子Qc和变异算子Qm;p表示遗传算

 

子的操作概率,它包括选择概率Pr、Pc和变异概率Pm;f是适应度函数;

 

t是终止准则。

 

二、Holland遗传算法(SGA)

 

该算法的操作对象是一群被称为种群的二进制位串(称为染色体、个

 

体)。

这里的每个染色体都对应求解问题的一个解。

SGA的基本思想是:

 

初始种群出发,采用基于适应度比例的选择策略在当前种群中选择个体,使

 

用杂交和变异来产生下一代种群。

如此一代代演化下去,直至满足期望的终

 

止条件为止。

 

.

.

 

执行一个简单的遗传算法时,需要做以下的准备工作:

 

(1)根据问题的要求选取设计变量(即明确需要优化的参数或方案),变量的取值

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 总结汇报 > 学习总结

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2