毕业设计论文译文.docx
《毕业设计论文译文.docx》由会员分享,可在线阅读,更多相关《毕业设计论文译文.docx(23页珍藏版)》请在冰点文库上搜索。
毕业设计论文译文
发展一个微创约束图像识别神经网络
摘要:
人工神经网络的应用还没有达到的承诺在他们的行政法理论的时期,已经有许多小型应用,和技术已被广泛地应用,但还没有真正的自治系统显示,能够真正复杂的学习或复杂的行为。
多次失败的原因将在更早的承诺,原因,因此人工神经网络是不再像从前作为时尚,则是约束,是放在神经网络模型的设计师,拥有固定建筑、动力学和学习规则被应用在方式,来防止除了一小部分的全面最合适的潜力成为的处境。
这里的神经网络模型,论证了生长和活动是为了将有限的设计和使用演化法发展工作系统最适合特定的任务。
网络模型的设计是生产线,广泛生物似是而非的吸收与释放,模块化、激素和行为的模型selfdetection允许行为发展阶段的反馈。
该方法仍在发展,但是有效的工作已经被证实,当应用于一个测试的例子。
constraint-minimisation方法的应用问题的光学字符识别中,并且开发能力,论证了快速、准确的能力在该地区。
设计开发的系统对模拟相结合的视觉和音频输入,如何回应这些输入通过音频输出,用来开发反馈机制。
通过这个方法,演化的网络已经成为能模仿音频输入和经过一段时间的训练、正确地回应的视觉输入没有声音提示。
被认为是不可避免的,有些设计规范,因此约束,是为了发展网络。
问题就在于识别网络组件和设计参数,这是必需的关系,不同形式的系统。
一旦这种已经达到这样一种方式,系统的设计那样灵活是可行的,然后是由的初始设计使用的定义与健身的能力并做出反应的受体(模仿音频输入输出视觉正确。
该系统的组成及参数,已经被认定为必要的系统包括下列事项:
·节点(参数包括节点位置、内部化学物质含量,输入活化和输出激活)
·突触(参数包括输入和输出节点识别、接权、类型和内部化学物质含量)
·建筑(包括考虑模块化、连接、模块维空间和模块数量)
·节点发展(因素包括节点增长和节点播放)
·突触的发展(因素包括突触的增长和突触播放)
·激素密度(这是受扩散率、密度不均,节点和突触的激素分泌)
在这里开发的应用还不利用所有这些的考虑(明确地,节点和突触的增长和去除不进行)。
网络的发展进化发生在四个时期先后更复杂的输入和输出的要求。
系统的最终目标是提供了一种基地半自治的进一步发展神经网络学习系统能够与现实世界的相互作用的。
关键字:
图像识别;神经元网络;模块化,演化计算。
1.简介
设计一个成功的神经网络演化系统却让人捉摸不透,为解决与系统的具体问题,但还没能提供一般的解决方案。
Nolfi和帕里(2002)讨论各种各样的方法,在进化可采用人工神经网络的认识,从变异连接权的发展个人的体系结构和学习策略。
特别是,任何系统,能提供一个网络,可以generalise必须避开制约的设计以满足这个问题。
因此,研究人员必须参数识别每内意义的神经网络,然后识别哪些其它因素会影响他们。
然后就可以的关系的方式表达允许的进化而来的,和网络可以作为初始化的模块化体系和形成网络输入可以处理。
Dinerstein孙俐。
(2003)强调需要有模块化在神经网络能够执行复杂的工作
光学字符识别技术(OCR)中是一个共同的目标,人工智能,阅读能力的手写的文件里的角色或鉴定了真实的情况,如汽车number-plates,非常有用。
Avi-Itzhak(1995),Guyon(1991),Gatos孙俐。
(1993)和LeCun孙俐。
(1990)在别人,应用神经网络光学字符识别中。
OCR技术能力的发展就是用在这里展示作为目标的能力,神经网络方法使用。
此外模仿,一种行为中常见的动物,将会是别人的系统的目标。
培训方法,用于必须尽可能灵活,允许不同类型的学习。
为了建立一套系统,能避免或至少最小化设计约束的条件下,灵活性的程度内的内在系统必须足以包含广泛范围的设计为可能。
比较不同的神经网络算法用于OCR技术(的问题Smagt货车德国,1990)表明,学习和确诊率较敏感的网络结构和变化的训练方法。
然而,它是不可能避免提及方面之设计,所以这个规格必须十分普遍。
一造型方法提供了已经被认定为实现能力的非常广泛的数学函数是利用前馈神经网络建立对象。
在这部作品中,相互作用的参数利用神经网络,这是模仿演变提供一个系统,能学习。
参数,有或没有关系及地点,这些参数输入输出部分是唯一给设计规范系统。
其余保持灵活。
2.方法
必须使用好几个因素在设计一种基于神经网络的体系,通过进化。
这些通常可以广泛分成零件设计、组件动力学、网络体系结构,演化法和网络训练算法。
2.1网络零件设计
尽管网络设计必须尽可能总必须给予一定的设计规范,以便开始从某些地方冒出来。
下面的系统组成、参数和功能已经被认定为必要和积分系统的设计,每个组件受到一系列其他:
节点
•位置—固定
•内部因素—受节点内部因素激活,输入输出活化、当地的激素密度
•输入激活—影响突触连接,激活
•输出活化—影响密封输入活化、节点内在因素、地方激素密度
突触
•输入节点—不变
•输出节点—不变
•体重—按重量影响、类型、内在因素
•类型—受类型、内在因素
•内部因素—受类型、重量、信号就打发人去,内在因素
初步设计
•模块化-初始化
•连接-初始化
•模块大小-初始化
•模块人口-初始化
节点发展
•节点的增长——受当地激素密度、局部节点密度
•节点,受到当地激素去除密度、局部节点密度、当地的突触的密度、内在因素
突触的发展
•突触的增长——受当地激素密度、局部节点密度、当地的突触的密度
•突触影响去除,当地激素密度、局部节点密度、当地的突触的密度、内在因素
激素密度
•密度的影响,邻里密度差、扩散速率、局部节点的激活情况、类型
这儿有一个明显的渴望系统弹性越好。
每一个因素识别、编号和有价值的因素和一系列发现,能够影响它。
当一个新因素被创造出来,比如用你的节点的增长,一个子程序创建一个相应的表,和当一个因素被删除它另一个程序。
一套特定的因素形成输入节点激活,另一个形式输出节点的激活。
为每个细胞在空间的数组包含网络,有一组数字节点和数量的突触的细胞,这一计数的调整,以处理额外的节点和突触。
为每个节点有共有十因素要考虑,并为每个突触,有十因素。
2.2二次网络
对于每一种上述参数认定为一个项目要求的网络的组成部分,有initialisation设置,而次要的神经网络之间的关系,它所提供的因素和所有这些因素都会影响到他们。
这些次要的神经网络的是相对简单的和小,并须经演化的initialisation设置一样。
激素的数量类型在三、数量和突触类型三个。
也有三种内部因素,三节点突触的内在因素,为各类型。
这意味着一共有二十网络每一个都有数量的输入范围从1(节点输入激活)到8(几个因素)。
每个二次网有一个隐藏层,每个有十节点。
所以大约有1000值描述系统的动力学,可能initialisation200附加价值。
尽管这是大量的因素,这是一个很好的范围内的进化方法据优化而言,是相对小有制度相比,连接都是自己的权重进化而来的。
2.3网络模块化
内部结构的网络是已知有严重影响其性能与行为。
模块化、或分裂成几sub-compartments网络,已被证明有效的生成方法栩栩如生的行为,有层次模式的不同反应个人行动,他们的组合,既能在很多方面。
这是网络设计模块化,与特定部分网络的具体行动被定义相应标准的大小和位置,并与其他模块受变更的演变过程。
输入模块相应的视力占有y=0表面或“墙'的球队一个正方体的长度,音频输入1的中心是位于z=1的表面及音频输出在中心的z=0的表面。
剩下的模块占领了这个立方体内部空间,如图1所示。
图一:
模块化设计的神经网络
在神经网络各参数的直接联系的模块化的制度。
这些包括了各模块的人口,其规模(这是固定的输入与输出模块),连接两者之间节点内节点之间一个模块,在不同的模块。
每个模块的人口是有限的使用最大值与最小值,尺寸范围的限制[0,1]。
连接节点之间,包括国内一个模块之间以及不同模块,是指使用两种参数。
第一(X),很有可能两个节点连接如果没有距离,第二连接(Y)为本”既是一种价值进行一个指数率随着距离的这个概率衰退。
1给出了方程的概率定义的关系两个节点的连接警:
使用这些参数。
P=Xe-Y(eqn.1)
2.4演化法
一个标准的进化的方法是应用,与网络的健身水平有关是否有被测量和用来决定基因突变则被接受。
有一个小退火津贴的能力提供网络与全局最优跳出对应于内的温度模拟的一种退火的物质。
证明测量的网络的健身,该适应度值比较了获得最佳值,到目前为止。
如果当前的适应度值比最好的球队,或在退火津贴,然后最新的突变是保持。
如果不是,那么这种突变被废弃。
2.5网络训练和设计
在每个进化的阶段,有一个单人网络受过训练。
训练以形式的一系列的一定数量的时间片(1000),每一套架有一套固定长度和被称为“一步”。
在每一步分10个‘量子’。
在一个单独的activation-adjustment周期。
每一个步骤包括网络被给了一个输入接受军事训练,并给适当的输出。
这意味着每个网络将总共约为10000培训广达电脑,每一个量子涉及激活神经元都在网络和突触。
据估计,每个突触需要1000赫兹的处理时间,最大数量的突触将有大约2000年。
这意味着数量的加工周期每一代要求将在2x1010加工周期,在高端桌面PC大约要20秒。
这里的问题在于平衡数量的进化的步骤与网络的尺寸,以优化制度的发展。
如果网络就不用再进化,然后有可能逃脱,有多达10万突触全速运行,这将允许大约10000节点,因此更复杂的行为。
2.6输入数据
2005年ICDAR场景文本的网站(http:
//algoval.essex.ac.uk8080/icdar2005/index.jsp)是这个地点从数据集的结果。
对应两个加数,共有50图像为被试,采用神经网络训练。
一切从这个网站是可得到的在那一刻数字。
第一步涉及翻译所有的图像处理成ascii文件。
这样做,每个的形象,现在占据一个文本文件具有8x8灰度值。
2.7发展时期
网络发展的几个时期结束发生组成,每一种都先后更复杂的训练数据。
在第一个时代,只有两个输入给了网络,拥有输入的活性,另一个消极的。
连续的训练集被使用在每一代培养网络来模拟单输入,这是正在给予的。
这种发育时期,继续与网络的发展,才能成功地意向,它重复给定的输入(例如,培训的结束会议上,如果输入节点1是活跃和输入节点2是不活跃的,那么网络会给一个输出的同类)。
3.测试结果
初期结果显示,在第一个时代的网络也在不断进步,而且在某种意义上,不这么做,导致性能优于一致随机initialisation。
健身价值的范围得到大幅度提高,从最初的设置,但是也同样可能低于原健身价值较高。
这个发现是由于整体的系统设计,输出反馈到听觉声音输入模块为了干扰的外部提供听觉讯息。
不过,这是发现的情况只有在音频输入和输出节点调整活动提供恒定的总激活(即总产量是常量)。
调整后的网络设计、第一个时代只使用两个输入进化到健身水平452375%的后代,在此情况下该第二阶段才起步。
图二显示的健身水平发展在刚开始的时期。
图二:
健身进化在第一次进化时期
第二个和第三个时期于1894至7747代了分别以达到75%健身阈值所需的时代延续。
实现了四个时期共10000代人的时间内,月末的时候,是最伟大的健身水平达到54%。
这一水平的健身似乎是高原,从中我们可以看到图3。
图三:
健身演化在第四进化时期
在为网络训练的最后一一代的时代四、具体考核的准确性水平和能力表扬特色是如何进行的。
定义使用精度哈明距离的一种量度的实际输出音频输入方法。
哈明距离的是用甚麽量器量给每种可能的音频输入,通常的程度的音频输出给最接近目标输出。
结果表明,网络的正确反应可以获得使用这些标准6的10个字符(1、2、4、5、7、8),哈明距离目标输出以下第二名的3至6个人物,第三名的角色0和最坏的地位正在第5地方的角色,第9章。
4.讨论
发展进化神经网络的方法利用一个相对constraint-free设计已被证明可能在这项工作。
发达网络能够学习模仿模拟音频输入从一个虚拟讲师,同时提供能识别光学字符输出对应于给定的音频输入。
非常灵活的设计的这种机制意味着可将其用于广泛的情况有关神经网络的训练,并提供潜在的更复杂的神经网络发展进行了这里。
初步尝试发展网络没能证明一样有效,必要被调整的目的,以促进企业的演化算法的输入/输出反馈的概念。
这些修正系统表明,还有要求考虑设计,在使用时,最初的设想约束网络能力的进化和满足健身需求放在它。
5.参考文献:
[1]Avi-Itzhak,H.I.,Diep,T.A.,Garland,H.(1995),Highaccuracyopticalcharacterrecognitionusingneuralnetworkswithcentroiddithering.IEEETransactionsonPatternAnalysisandMachineIntelligenceVolume17,Issue2(February1995),pages218–224.
[2]Chowdhury,A.A.,Ahmed,E.,Ahmed,S.,Hossain,S.,Rahman,C.M.(2002),OpticalcharacterrecognitionofBanglacharactersusingneuralnetwork:
abetterapproach.2ndInternationalConferenceonElectricalEngineering(ICEE2002),Khulna,Bangladesh.
[3]Dinerstein,J.,Dinerstein,N.,deGaris,H.(2003),Automaticmulti-moduleneuralnetworkevolutioninanartificialbrain.NASA/DoDConf.onEvolvableHardware,Chicago,Illinois,USA,July9-11,2003.
[4]García-Pedrajas,N.,Sanz-Tapia,E.,Ortiz-Boyer,D.,Hervás-Martínez,C.(2001),IntroducingMulti-objectiveOptimizationinCooperativeCoevolutionofNeuralNetworks.Proceedingsofthe6thInternationalWork-ConferenceonArtificialandNaturalNeuralNetworks:
ConnectionistModelsofNeurons,LearningProcessesandArtificialIntelligence-PartIPages:
645–652.
[5]Gatos,B.,Karras,D.,Perantonis,S.(1993),Opticalcharacterrecognitionusingnovelfeatureextraction&neuralnetworkclassificationtechniques.InP.J.G.LisboaandM.J.Taylor(eds.)ProceedingsoftheWorkshoponNeuralNetworkApplicationsandTools(Liverpool,UK,13-14September1993),65-72.IEEEComputerSocietyPress.
[6]Guyon,I.(1991),Applicationsofneuralnetworkstocharacterrecognition.InternationalJournalofPatternRecognitionandArtificialIntelligence5,353-382,1991.
[7]LeCun,Y.,Boser,B.,Denker,J.S.,Henderson,D.,Howard,R.E.,Hubbard,W.,Jackel,L.D.(1990),Handwrittendigitrecognitionwithaback-propagationnetwork.AdvancesinNeuralInformationProcessingSystems2(D.S.Touretzky,ed.),pp.598-605,SanMateo,CA,MorganKaufmann,1990.
[8]Nolfi,S,Parisi,D.(2002),Evolutionofartificialneuralnetworks.InHandbookofbraintheoryandneuralnetworks,MITPress,pp.418--421.
[9]Stanley,K.O.,Miikkulainen,R.(2002),Efficientevolutionofneuralnetworktopologies,Proceedingsofthe2002CongressonEvolutionaryComputation(CEC'02).Piscataway,NJ:
IEEE,2002.
[10]VanderSmagt,P.(1990),Acomparativestudyofneuralnetworkalgorithmsappliedtoopticalcharacterrecognition.ProceedingsofthethirdinternationalconferenceonIndustrialandengineeringapplicationsofartificialintelligenceandexpertsystems-Volume2.Charleston,SouthCarolina,UnitedStatesPages:
1037–1044.
EvolvingaMinimallyConstrainedImageRecognitionNeuralNetwork
Abstract:
-Artificialneuralnetwork-basedapplicationshaveyettoliveuptothepromisesmadeduringtheirearliertheoreticalperiod.Therehavebeenmanysmall-scaleapplications,andthetechnologyhasbeenwidelyappliedbutasyettherehavebeennorealautonomoussystemsdemonstratedthatarecapableoftrulysophisticatedlearningor
complexbehaviour.Thereasonforthisapparentfailuretodeliveronearlierpromises,andthereasonthereforethatartificialneuralnetworksarenolongerasfashionableastheyoncewere,ispostulatedtobetheconstraintsthatareplaceduponneuralnetworkmodelsbytheirdesigners,withfixedarchitecture,dynamicsandlearningrulesbeingappliedinwaysthatpreventallbutasmallproportionofNNs’fullpotentialtobe
realised.
Here,amodelofneuralnetworkgrowthandactivityisdescribedthatisintendedtominimisetheconstraintsofdesignandwhichusesevolutionarymethodstodevelopaworkingsystemmostsuitedtoaspecifiedtask.Thedesignofthenetworkmodelfollowsbroadlybiologicallyplausiblelines,withmodularity,uptakeandreleaseofhormones,andselfdetectionofthemodel’sactionsallowingbehaviouraldevelopmentthroughfeedback.Themethodisstillundergoingdevelopment,buthasbeendemonstratedtoworkeffectivelywhenappliedtoatestcase.
Theconstraint-minimisationmethodologyisappliedtotheproblemofopticalcharacterrecognition,anddemonstratestheabilitytodeveloprapidandaccurateabilitiesinthearea.Thesystemdevelopedisdesignedtoreacttoacombinationofsimulatedvisualandaudioinputs,respondingtotheseinputsthroughaudiooutputthatisusedtodevelopafeedbacksystem.Throughthismethod,theevolvednetworkbecomescapableofmimickingtheaudioinputsandfollowingaperiodoftraining,ofrespondingcorrectlytothevisualinputswithoutaudioprompting
Itisseenasunavoidablethatsomedesignspecification,andthereforeconstraint,isnecessaryinordertodevelopthe