计算机人工智能论文.docx

上传人:b****6 文档编号:16610160 上传时间:2023-07-15 格式:DOCX 页数:19 大小:29.06KB
下载 相关 举报
计算机人工智能论文.docx_第1页
第1页 / 共19页
计算机人工智能论文.docx_第2页
第2页 / 共19页
计算机人工智能论文.docx_第3页
第3页 / 共19页
计算机人工智能论文.docx_第4页
第4页 / 共19页
计算机人工智能论文.docx_第5页
第5页 / 共19页
计算机人工智能论文.docx_第6页
第6页 / 共19页
计算机人工智能论文.docx_第7页
第7页 / 共19页
计算机人工智能论文.docx_第8页
第8页 / 共19页
计算机人工智能论文.docx_第9页
第9页 / 共19页
计算机人工智能论文.docx_第10页
第10页 / 共19页
计算机人工智能论文.docx_第11页
第11页 / 共19页
计算机人工智能论文.docx_第12页
第12页 / 共19页
计算机人工智能论文.docx_第13页
第13页 / 共19页
计算机人工智能论文.docx_第14页
第14页 / 共19页
计算机人工智能论文.docx_第15页
第15页 / 共19页
计算机人工智能论文.docx_第16页
第16页 / 共19页
计算机人工智能论文.docx_第17页
第17页 / 共19页
计算机人工智能论文.docx_第18页
第18页 / 共19页
计算机人工智能论文.docx_第19页
第19页 / 共19页
亲,该文档总共19页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

计算机人工智能论文.docx

《计算机人工智能论文.docx》由会员分享,可在线阅读,更多相关《计算机人工智能论文.docx(19页珍藏版)》请在冰点文库上搜索。

计算机人工智能论文.docx

计算机人工智能论文

计算机人工智能论文

篇一:

人工智能选修课论文

人工智能选修课论文

学院:

海南师范大学物电学院班级:

10电子1班姓名:

陈增桂

摘要:

随着科技发展越来越迅速,很多东西的都发展到智能时代。

电视是智能的,电网也是智能的,手机也是智能。

我们生活的世界也越来越智能,所以学习一些人工智能的知识也很重要。

通过长达16周对人工智能的学习,我们有了对人工智能的初步了解。

本文主要分两部分,第一是:

是这个学期人工智能学习的知识点的总结;第二是:

人工智能在电子信息科学与技术当中的应用。

关键字:

人工智能电子信息科学与技术应用

第一部分:

人工智能知识的总结。

概念:

人工智能是计算机科学的一个重要分支,也是一门正在发展中的综合

性前沿学科,它是由计算机科学、控制论、信息论、神经生理学、哲学、语言学等多种学科相互渗透而发展起来的,目前正处于发展阶段尚未形成完整体系。

发展过程中经历的阶段有:

第一阶段(40年代中~50年代末)神经元网络时代

第二阶段(50年代中~60年代中)通用方法时代

第三阶段(60年代中~80年代初)知识工程时代

第四阶段(80年代中~90年代初)新的神经元网络时代

第五阶段(90年代初~现在)海量信息处理与网络时代研究的基本内容:

搜索技术、知识表示、规划方法、机器学习、认知科学、自然语言理解与机器翻译、专家系统与知识工程、定理证明、博弈、机器人、数据挖掘与知识发现、多Agent系统、复杂系统、足球机器人、人机交互技术等。

研究领域:

(1)问题求解;(2)逻辑推理与定理证明;(3)自然语言理解;(4)自动程序;(5)专家系统;(6)机器学习;(7)神经网络;(8)机器人学;(9)模式识别;(10)机器视觉;(11);智能控制;(12)智能检索;(13)智能调度与指挥;(14)分布式人工智能与Agent;(15)计算智能与进化计算;(16)数据挖掘与知识发现;(17)人工生命;(18)系统与语言工具

知识与知识表示:

一、谓词表示法:

首先定义谓词,指出每个谓词的确切含义,然后再用连接词把有关的谓词连接起来,形成一个谓词公式表达一个完整的意义。

二、产生式表示法:

产生式系统由3个基本部分组成:

规则库、综合数据库、控制系统。

三、框架表示法:

框架通常由指定事物各个方面的槽组成,每个槽拥有若干个侧面,而每个侧面又可拥有若干个值。

四、语义网络表示法:

语义网络由节点和弧线或链线组成,节点用于表示物体、概念和状态,弧线用于表示节点间的关系。

推理:

所谓推理就是按某种策略由已知判断推出另一判断的思维过程。

一、经典逻辑推理:

?

自然演绎推理:

从一组已知为真的事实出发,直接运用经典逻

辑的推理规则推出结论的过程,称为自然演绎推理。

其中,基

本的推理规则是P规则、T规则、假言推理、拒取式推理等。

?

归结演绎推理:

归结演绎推理的理论基础是海伯伦理论及鲁滨

逊归结原理,它是通过把公式化为子句集并运用归结规则实现

对定理的证明的。

归结原理的基本思想是:

若欲证明子句集S

是否可满足,则检验S中是否包含矛盾,或能否从S中导出矛

盾来。

如果有矛盾或者能导出矛盾,则称S是不可满足的。

?

与/或形演绎推理:

归结演绎推理要求把有关问题的知识及目标

的否定都化成子句形式,然后通过归结进行演绎推理,其推理

规则只有一条,即归结规则;与/或形演绎推理不再把有关知识

转化成子句集,而把领域知识及已知事实分别用蕴含式及与/或

形表示出来,然后通过运用蕴含式进行演绎推理,从而证明某

个目标公式。

二、不确定与非单调推理:

不确定性匹配是指两个知识模式不完全致,但是它们的相似程度又在规定的限度内。

推出的结论不是单调增加。

搜索策略:

依靠经验,利用已有知识,根据问题的实际情况,不断寻找可利用知识,从而构造一条代价最小的推理路线,使问题得以解决的过程称为搜索

一、状态空间搜索策略:

先把问题的初始状态作为当前扩展节点对其进

行扩展,生成一组子节点,然后检查问题的目标状态是否出现在这

些子节点中。

若出现,则搜索成功,找到了问题的解;若没出现,

则再按照某种搜索策略从已生成的子节点中选择一个节点作为当前

扩展节点。

重复上述过程,直到目标状态出现在子节点中或者没有

可供操作的节点为止。

所谓对一个节点进行“扩展”是指对该节点用某个可用操作进行作用,生成该节点的一组子节点。

1)盲目搜索

?

广度优先搜索:

从初始节点S0开始逐层向下扩展,在第n层

节点还没有全部搜索完之前,不进入第n+1层节点的搜索。

Open表中的节点总是按进入的先后排序,先进入的节点排在

前面,后进入的节点排在后面。

?

深度优先搜索:

从初始节点S0开始,在其子节点中选择一个

最新生成的节点进行考察,如果该子节点不是目标节点且可

以扩展,则扩展该子节点,然后再在此子节点的子节点中选

择一个最新生成的节点进行考察,依此向下搜索,直到某个

子节点既不是目标节点,又不能继续扩展时,才选择其兄弟

节点进行考察。

?

有界深度优先搜索

?

代价树的广度优先搜索:

在代价树中,可以用g(n)表示从初始节点S0到节点n的代价,用c(n1,n2)表示从父节点n1到其

子节点n2的代价。

这样,对节点n2的代价有:

g(n2)=g(n1)+c(n1,n2)。

代价树搜索的目的是为了找到最佳

解,即找到一条代价最小的解路径。

?

代价树的深度优先搜索:

(1)把初始节点S0放入Open表中,置S0的代价g(S0)=0;

(2)如果Open表为空,则问题无解,失败退出;

(3)把Open表的第一个节点取出放入Closed表,并记该节点为n;

(4)考察节点n是否为目标节点。

若是,则找到了问题的

解,成功退出;

(5)若节点n不可扩展,则转第

(2)步;(6)扩展节点n,生成其子节点ni(i=1,2,…),将这些子节点按边代价由小到

大放入Open表的首部,并为每一个子节点设置指向父节点的指针。

然后转第

(2)步。

2)启发式搜索

?

局部择优搜索

?

全局择优搜索

?

A*算法

二、与/或树搜索策略:

与/或树的搜索过程实际上是一个不断寻找解树

的过程。

其一般搜索过程如下:

(1)把原始问题作为初始节点S0,并把它作为当前节点;

(2)应用分解或等价变换操作对当前节点进行扩展;

(3)为每个子节点设置指向父节点的指针;

(4)选择合适的子节点作为当前节点,反复执行第

(2)步和第(3)步,在此期间需要多次调用可解标记过程或不可解标记过程,直到初始节点被标记为可解节点或不可解节点为止。

1)盲目搜索

?

广度优先搜索

?

深度及有界深度优先搜索

2)有序搜索

(特殊情况)----》博弈问题:

极大极小分析法:

计算出端节点的估值,再推算出父节点的得分。

推算的方法是:

对“或”节点,选其子节点中一个最大的得分作为父节点的得分,这是为了使自己在可供选择的方案中选一个对自己最有利的方案;对“与”节点,选其子节点中一个最小的得分作为父节点的得分,这是为了立足于最坏的情况。

这样计算出的父节点的得分称为倒推值。

(提高搜索效率的方法)-----》α-β剪枝技术:

对于一个“与”节点来说,它取当前子节点中的最小倒推值作为它倒推值的上界,称此值为β值。

对于一个“或”节点来说,它取当前子节点中的最大倒推值作为它倒推值的下界,称此值为α值。

其一般规律为:

(1)任何“或”节点x的α值如果不能降低其父节点的β值,则对节点x以下的分枝可停止搜索,并使x的倒推值为α。

这种剪枝成为β剪枝。

(2)任何“与”节点x的β值如果不能升高其父节点的α值,则对节点x以下的分枝可停止搜索,并使x的倒推值为β。

这种剪枝成为α剪枝。

第二部分:

人工智能在电子信息科学与技术当中的应用人工智能与电子信息科学之间的关系:

在实现人工智能的过程中,需要用到很多功能强大且独特的电子专用设备。

而电科的一些研究成果则需要通过人工智能中的虚拟与仿真技术才能比较简单清晰的呈现在人们面前。

电子设计EDA软件中应用:

EDA是电子设计自动化(Electronic

DesignAutomation)以计算机为工作平台,融合了应用电子技术、计算机技术、信息处理及智能化技术的最新成果,进行电子产品的自动设计。

利用EDA工具,电子设计师可以从概念、算法、协议等开始设计电子系统,大量工作可以通过计算机完成,并可以将电子产品从电路设计、性能分析到设计出IC版图或PCB版图的整个过程的计算机上自动处理完成。

在电子设计当中现在越来越依赖与运用人工智能设计出来的软件。

运用其可以帮助我们电子设计者可以在没有的设备的时候就可以进行验证电路和对电路进行调试,减小成本,缩短开发周期。

一下是一些常用EDA软件。

(1)AltiumDesigner:

AltiumDesigner提供了唯一一款统一

的应用方案,其综合电子产品一体化开发所需的所有必须技

术和功能。

AltiumDesigner在单一设计环境中集成板级和FPGA系统设计、基于FPGA和分立处理器的嵌入式软件开发

以及PCB版图设计、编辑和制造。

并集成了现代设计数据管

理功能,使得AltiumDesigner成为电子产品开发的完整解

决方案-一个既满足当前,也满足未来开发需求的解决方

案。

(2)Proteus在电子设计初期当中的仿真是非常强大的,

Proteus是世界上著名的EDA工具(仿真软件),从原理图布

图、代码调试到单片机与外围电路协同仿真,一键切换到

PCB设计,真正实现了从概念到产品的完整设计。

是目前世

界上唯一将电路仿真软件、PCB设计软件和虚拟模型仿真软

件三合一的设计平台,其处理器模型支持8051、PIC10、

AVR、ARM、8086和MSP430等,2021年又增加了Cortex和

DSP系列处理器,并持续增加其他系列处理器模型。

在编译

方面,它也支持IAR、Keil和MPLAB等多种编译器。

(3)MATLAB:

它的一大特性是有众多的面向具体应用的工具箱和

仿真块,包含了完整的函数集用来对图像信号处理、控制系

统设计、神经网络等特殊应用进行分析和设计。

它具有数据

采集、报告生成和MATLAB语言编程产生独立C/C++代码等功能。

MATLAB产品族具有下列功能:

数据分析;数值和符号计算、工程与科学绘图;控制系统设计;数字图像信号处理;

财务工程;建模、仿真、原型开发;应用开发;图形用户界

面设计等。

MATLAB产品族被广泛应用于信号与图像处理、控制系统设计、通讯系统仿真等诸多领域。

物联网中应用:

物联网是指通过信息传感设备,按照约定的协议,把任何物品与互联网连接起来,进行信息交换和通信,以实现智能化识别、定位、跟踪、监控和管理的一种网络。

它是在互联网基础上延伸和扩展的网络。

而物联网需要人工智能的研究成功如问题求解,逻辑推理证明、专家系统、数据挖掘、模式识别、自动推理、机器学习、智能控制等技术。

通过这些技术的应用使物联网有人工机器的特

篇二:

人工智能论文

浅谈人工神经网络学习

1、简介

作为动态系统辨识、建模和控制的一种新的、令人感兴趣的工具,人工神经网络(ArtificialNeuralNetworks,ANN)提供了一种普遍而且实用的方法从样例中学习值为实数、离散值或向量的函数。

像反向传播(BACKPROPAGATION)这样的算法,使用梯度下降下来调节网络参数以最佳拟合由输入—输出对组成的训练集合。

ANN学习对于训练数据中的错误健壮性很好,且已被成功的应用到很多领域,例如视觉场景分析、语音识别以及机器人控制等。

神经网络学习方法对于逼近实数值、离散值或向量的目标函数提供的一种健壮性很强的方法。

对于某些类型的问题,如学习解释复杂的现实世界中的传感器数据,人工神经网络是目前知道的最有效的学习方法。

例如,反向传播算法已在很多问题中取得了惊人的成功,比如学习识别手写字符、学习识别口语、学习识别人脸等。

1.1人工神经网络学习发展简史:

对人工神经网络的研究可以追溯到计算机科学的早期。

McCullochPitts(1943)提出了一个相当于感知器的神经元模型,20世纪60年代他们的大量工作探索了这个模型的很多变体。

20世纪60年代早期WidrowHoff(1960)探索了感知器网络(他们称为“adelines”)和delta法则。

Rosenblatt(1962)证明了感知器训练法则的收敛性。

然而,直到20世纪60年代晚期,人们才开始清楚单层的感知器网络的表现能力很有限,而且找不到训练多层网络的有效方法。

MinskyPapert(1969)说明即使是像XOR这样简单的函数也不能用单层的感知器网络表示或学习,在整个20世纪70年代ANN的研究衰退了。

在20世纪80年代中期ANN的研究经历了一次复兴,主要是因为训练多层网络的反向传播算法的发明(RumelhartMcClelland1986;Parker1985)。

这些思想可以被追溯到有关的早期研究(例如,Werbos1975)。

自从20世纪80年代,反向传播算法就成为应用最广泛的学习方法,而且人们也积极探索出了很多其他的ANN方法。

在同一时期,计算机变得不在贵重,这允许人们试验那些在20世纪60年代不可能被完全探索的计算密集型的算法。

2、人工神经网络学习的国内外研究状况

随着人工神经网络20世纪80年代在世界范围内的复苏,国内也逐步掀起了研究热潮。

l989年10月和11月分别在北京和广州召开了神经网络及其应用讨论会和第一届全国信号处理—神经网络学术会议;l990年2月由国内八个学会(中国电子学会、人工智能学会、自动化学会、通信学会、物理学会、生物物理学会和心理学会)联合在北京召开“中国神经网络首届学术会议”。

这次大会以“八学会联盟,探智能奥秘为主题收到了300多篇学术论文,开创了中国人工神经网络及神经计算机方面科学研究的新纪元。

经过十几年的发展,中国学术界和工程界在人工神经网络的理论研究和应用方面取得了丰硕成果,学术论文、应用成果和研究人员逐年增加.

在国际上,1987年,在美国加洲召开了第一届国际神经网络学会.此后每年召开两次国际联合神经网络大会(IJCNN).不久,该学会创办了刊物JournalNeuralNetworks,另有十几种国际著名的神经网络学术刊物相继问世,至此,神

经网络理论研究在国际学术领域获得了其应有的地位。

作为人工神经网络学习的典型算法反向传播(BP)算法,近年来国内外学者对这一算法提出了一些改进。

其中,由宋绍云、仲涛提出的BP人工神经网络网络的新算法【1】解决了传统算法的局部极小及收敛速度慢的问题。

该算法是在BP神经网络现有的基础上提出的一种新的算法,该算法的基本原理是任选一组自由权,通过解线性方程组求得隐层权,将选定的自由权与求得的权合在一起,就得到所需的学习权值。

而BP人工神经网络自适应学习算法的建立则解决了BP神经网络结构参数、学习速率与初始权值的选取问题,并对传统的BP算法进行了改进,提出了BP神经网络自适应学习算法【2】,又将其编制成计算机程序,使得输入节点、隐层节点和学习速率的选取全部动态实现,减少了人为因素的干预,改善了学习速率和网络的适应能力。

计算结果表明:

BP神经网络自适应学习算法较传统的方法优越,训练后的神经网络模型不仅能准确地拟合训练值,而且能较精确的预测未来趋势。

基于遗传算法的人工神经网络学习【3】避免了BP算法易陷入局部极小值、训练速度慢、误差函数必须可导、受网络结构的限制等缺陷。

人工神经网络的研究同样在实践中也有所发展。

比如,基于人工神经网络的并行强化学习自适应路径规划【4】,可以很好的应用于机器人蔽障系统。

BP算法在雷达目标识别中的应用以及在超声检测中的应用等都是在BP算法改进的基础上实现的。

3、所选专题的研究意义与研究方法

从1946年第一台电子数字计算机问世以来直到现在,大多数信息处理都采用程序式计算方式。

这种方式解题需要设计算法或规则,并正确的编制成软件,然后才能进行问题求解。

这种解题方式必须考虑3个因素:

①问题的形式化;

②可进行计算的算法;

③计算的复杂性。

比较计算机和人的处理能力,其差别是惊人的。

一方面,一个人能很容易识别面孔理解语言,而一台巨型机却很难识别出一棵树来。

另一方面,用计算机进行计算,可以很快的得到,其计算能力大大超过了人。

那么数字计算和辨识物体之间究竟有哪些差别呢?

辨识物体是不能简单明确的加以定义的。

要识别一棵树,就必须给出树的全部定义。

做出这样一种定义,等于要描述树的每一个可以想到的变量。

这类问题构成了随机问题。

所谓随机问题,就是那些需要具备某一系统的实际上每种可能状态的知识才能解答的问题。

因此,为解决一个随机问题,就要求记忆所有可能的解答,当给定输入数据时,从所有可能的解答的集合中迅速的选出最合适的答案。

而像数学一类的计算问题,其解答通常可以用一种算法简洁地表示出来,也就是说,可以用一个精确的指令系列来表示,该指令系列规定了如何处理输入数据以得到答案。

信息处理的一种新方法并不需要开发算法和规则,极大的减少了软件的工作量,这种方法称为神经网络。

神经网络是一门崭新的信息处理学科,它从神经生理学和认知科学研究成果出发,应用数学方法研究并行分布的、非程序的、适应性的、大脑风格的信息处理的本质和能力。

神经网络中主要的信息处理结构是人工神经网络。

神经信息处理是介于常规处理形式和人脑处理形式的中间处理形式。

一方面,神经网络企图模仿人脑的功能,而另一方面许多实现技术又是常规的。

表1-1给出了这3种信息处理范型的主要特点。

神经信息处理许多特性与人脑相似,诸如联想、概括、并行搜索、学习和灵活性。

表1-13种信息处理范型

人脑处理信息的特点如下:

①大规模并行处理。

人脑神经元之间传递神经冲动是以毫秒计的,比普通的电子计算机慢得多。

但人们通常能在1ms内对外界事物作出判断和决策。

这对传统的计算机或人工智能是做不到的。

由此可知,人脑的“计算”必定是建立在大规模并行处理的基础上。

人善于在复杂环境下作出判断,从整体上识别事物。

神经网络的大规模并行处理与多处理机构成的并行系统是不同的。

②具有很强的容错性,善于联想、概括、类比和推广。

每天有大量神经细胞正常死亡,但不影响大脑正常的功能;大脑局部损伤会引起某些功能衰退,但不是功能突然丧失。

在计算机中,元器件的局部损坏,或者程序中的微小错误都可能引起严重的后果,即表现出极大的脆弱性。

人脑与计算机信息处理的巨大差别在于对信息的记忆和处理方式不同。

计算机的模式是信息局部储存,按程序提取有关的信息,送到运算器处理。

大脑中信息的记忆,特别是长期记忆是通过改变突触的效能实现的,即信息存储在神经元间连接强度的分布上,信息的记忆和处理是合二为一的。

这一点,神经网络与大脑信息处理方式及其相似。

③具有很强的自适应能力。

人脑功能受先天因素制约,但后天因素,如经历、训练、学习等也起重要作用。

这表明人脑具有很强的自适应性和自组织性。

神经网络与符号处理不同,前者强调系统的自适应或学习过程,同一网络因学习方法及内容不同,可具有不同的功能;符号处理强调程序编写,系统的功能取决于编写者的知识和能力。

由上可知,脑是最复杂、最完美、最有效的一种信息处理装置,人们正以极大的兴趣研究它的结构和机理。

这种研究与20世纪初的物理学和20世纪50年代的分子生物学一样,正酝酿着重大的突破,而这一突破将给整个科学的发展带来巨大而深远的影响。

人们对大大脑的认识已深入到探索脑的核心问题,鉴定出

了一系列涉及脑工作的重要分子,在感知、行为、学习和记忆方面都取得了重要进展。

这表明人们将有可能最终揭开大脑这个人体最复杂系统的奥秘,为现代科技发展寻找新的道路。

借助大脑工作原理,有可能使信息处理获得新的突破。

正因为如此,神经科学受到世界各发达国家的高度重视。

美国国会通过决议将1990年1月5日开始的10年定为“脑的十年”。

国际脑研究组织号召它的成员国将“脑的十年”变为全球行动。

美国国防部高级研究计划局(DARPA)制定的8年研究计划中,神经网络是重要的方向。

1986年日本政府提出了“人类前沿科学计划”(HFSP)研究计划,1992年提出“真实世界计算”(RWC)研究计划。

德国人从1988年开始执行“神经信息论”的研究计划。

脑科学、神经生理学、病理学主要研究神经网络的生理机理,如神经元、突触、化学递质、脑组织等的构成和工作过程。

而认知科学、计算机科学主要探索人脑信息处理的微结构理论,寻求新的途径,解决当前计算机和传统人工智能难以处理的问题。

以此为背景,以人工神经网络为基础,形成了神经网络的新学科。

目前,对大脑思维的过程了解仍然很肤浅,人工神经网络模拟的研究还很不充分,人们面临的是一个充满未知的新领域。

神经网络将在基本原理方面进行更深刻的探索。

神经网络的发展与神经科学、认知科学、计算机科学、人工智能、信息科学机器人学、微电子学、光计算、分子生物学等有关,是一门新兴的边缘交叉学科。

神经网络研究的主要目的如下:

①理解脑系统为何具有智能。

这些计算与符号表示的形式操作处理不同,人脑是如何组织和实施这些计算的。

②研究各种强调“计算能力”的神经网络模型,并不着重于这些模型的生物学保真程度

③研究大规模并行自适应处理机理。

④研究神经计算机的体系结构和实现技术。

4、适合神经网络学习的问题

人工神经网络学习非常适合于这样的问题:

训练集合为含有噪声的复杂传感器数据,例如来自摄像机和麦克风的数据。

它也适用于需要较多符号表示的问题,例如决策树学习任务。

这种情况下ANN和决策树学习经常产生精度大体相当的结果。

反向传播算法是最常用的ANN学习技术。

它适合具有以下特征的问题:

(1)实例是用很多“属性-值”对表示的:

要学习的目标函数是定义在可以用向量描述的实例之上的,向量由由预先定义的特征组成。

这些输入属性之间可以高度相关,也可以相互独立。

输入值可以是任何实数。

目标函数的输出可能是离散值、实数值或者由若干实数属性或离散属性组成的向量:

例如在ALVINN(Pomerleau(1993)的ALVINN系统是ANN学习的一个典型实例,这个系统使用一个学习到的ANN以正常的速度在高速公路上驾驶汽车。

(2)系统中输出的是30属性向量,每一个分量对应一个建议的驾驶方向。

每个输出值是0和1之间的某个实数,对应于在预测相应驾驶方向时的置信度。

我们也可以训练一个单一网络,同时输出行驶方向和建议的加速度,这只要简单的把编码这两种输出预测的向量连接在一起就可以了。

(3)训练数据可能包含错误:

ANN学习算法对于训练数据中的有非常好的健壮性。

(4)可容忍长时间的训练:

网络训练算法通常比像决策树学习这样的算法需

要更长的训练时间。

训练时间可能从几秒到几小时,这要看网络中权值的数量、要考虑的训练实例的数量以及不同学习算法参数的设置等因素

(5)可能需要快速求出目标函数值:

尽管ANN的学习时间相对较长,但对学习到的网络求值以便把网络应用到后续的实例通常是非常快速的。

例如,Alvinn在车辆向前行驶时,每秒应用它的神经网络若干次,以不断的更新驾驶方向。

(6)人类能否理解学到的目标函数是不重要的:

神经网络学习方法学习到得权值经常是人类难以解释的。

学到的神经网络比学到的规则难以传达给人类。

5、我对人工神经网络学习研究的认识及观点

5.1人工神经网络学习的几种算法

1.有监督Hebb算法

2.单层感

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 自然科学 > 物理

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2