1、第7章 智能系统概述,概述智能系统的特点智能系统的发展,.智能系统,智能系统(Intelligent systems)是指能产生人类智能行为的机器(计算机)系统。智能是人类大脑的较高级活动的体现,那么什么是人类智能?有哪些表现特征?,人类智能,人类在认识和改造自然的过程中表现出来的智力活动的能力,表现在以下方面:通过视觉,听觉,触觉等感官接受图像,文字,声音等各种自然信息去认识外界环境的能力。将感性知识加工成理性知识的能力。也就是说,经过分析,推理,判断等思维过程而形成概念,建立方法和做出决策的能力。经过教育,训练,学习,不断提高认识与改造客观环境的能力。对外界环境的变化和干扰做出适应性反应的
2、能力。,智能系统应具备自动地获取和应用知识的能力、思维与推理的能力、问题求解的能力和自动学习的能力。设计实现一个完全具有人类智能的智能系统,是人类追求的终极目标,还有很长的路。但是,实现部分功能,或一定程度上实现部分功能的智能系统已经出现。,智能系统的特点,处理对象智能系统处理的对象,不仅有数据,而且还有知识。表示、获取、存取和处理知识的能力是智能系统与传统系统的主要区别之一。处理结果智能系统往往采用人工智能的问题求解模式来获得结果。它与传统的系统所采用的求解模式相比,有三个明显特征,即其问题求解算法往往是非确定型的;其问题求解在很大 程度上依赖知识;求解的问题往往具有指数型的计算复杂 性。具
3、有环境适应能力在与环境交互的中,通过感知、学习、推理、判断然后做出相应的动作,即自组织性与自适应性。,三.智能系统的发展,谷歌公司在国际顶尖期刊自然杂志发文宣布,其人工智能研究团队研发的围棋电脑软件“阿尔法围棋”(Alpha Go),以5比0的比分战胜了欧洲围棋冠军、原中国职业围棋二段选手樊麾。这是电脑在完全公平(没有让子)的情况下,首次打败围棋职业棋手。,自然杂志封面,三.智能系统的发展,2016年3月9日,AlphaGo对战 世界围棋冠军李世石,李世石投 子认输;3月10日,“围棋人机 大战”第二局在韩国首尔的开赛,AlphaGo执黑战胜李世石;3月 12日,AlphaGo执白再次战胜 李
4、世石;3月13日,李世石战胜 阿尔法电脑,比分扳成1-3;3月 15日,AlphaGo战胜李世石,总比分定格在1比4。,自然杂志封面,这一战果让围棋界和科技界都震惊不已:围棋一直以来被视为人工智能无法超越人类智慧的证据。围棋被世界公认为是最深奥、最难下、变化最复杂的棋类运动。近几十年来,围棋游戏一直是计算机难以涉足的领域。尽管1997年IBM公司开发的“深蓝”在国际象棋的人机大战上击败了世界棋王卡斯帕罗夫,但上世纪90年代获得世界计算机围棋锦标赛冠军的电脑软件,如果跟人类对局,竟然可被初段棋手让到17个子。,为什么电脑在国际象棋能打败人类,而在围棋却与人类不成对手呢?,这是因为“深蓝”凭借强大
5、 的计算能力,借助穷举法穷 尽了国际象棋对弈的所有变 化。国际象棋整个对弈过程,在当时已经被电脑软件拆解 到每一步都有最佳应手。也 就是说,电脑下国际象棋,步步都是正着,而人类棋手 因受精力、体能和情绪等因 素的影响,难以避免会走出“昏招”,故最终一定会输 给不会犯错的电脑。,棋盘由64个黑白相间的格子组成,每方16个棋子,平均每回合有35种可能,一盘棋可以有80回合;,棋盘横竖19道,共有361个点,其走法大于10的80次方,有3的361次方的局面。围棋每回 合有250种可能,一盘棋可以长达150回合。这一巨大的计算量,用穷举 法是不可能的。除此之 外,围棋还需要有布局、形势判断等整体形象思
6、 维的能力。因此围棋一直被认为是人工智能难以攻克的堡垒。,“阿尔法围棋”是怎么做到的?,“阿尔法围棋”的关键在于使用的深度神经网络。在这样的网络中,如果你将足够多的关于树木的 照片输入进去,它们就能学会识别出一棵树。如果输入足够多的对话,它们就能学会如何进行一段得体的对话。如果输入足够多的围棋走法,它们就能学会下围棋。,深度学习神经网络,采用了目前人工智能领域最热门的卷积神经网络技术,它能模拟人脑神经元,具有深度学习、主动识别、自适应等功能,其核心是成功应用了两种深度神经网络“策略网络”和“价值网络”:前者,将围棋盘面落子选点从几百、几十个大大缩减为三五个,逐渐接近职业棋手;后者,也是最难的,
7、在盘面形势判断上,通过职业棋手棋谱的验证、筛选,给出下一步的正确预判。也就是说,“策略网络”负责减少搜索的宽度,“价值网络”负责减少搜索的深度,它们合作“挑选”出那些比较正确的棋着,抛弃明显不该走的臭着,其本质上和人类棋手所做的是完全一样的。“阿尔法围棋”利用这两个工具来分析局面,判断每种下子策略的优劣,就像人类棋手会判断当前局面以及推断未来的局面一样。这样“阿尔法围棋”在分析了比如未来20步的情况下,就能判断在哪里下子赢的概率会高。,自然杂志将“阿尔法围棋”的成果归功于“深度学习”(Deep Learning)。深度学习是目前人工智能领域中最热门的科目,它能完成笔迹识别,面部识别,驾驶自动汽
8、车,自然语言处理,识别声音,分析生物信息数据等非常复杂的任务。2006年之后,深度学习实际使用多于三层的神经网络,即深度神经网络。这是复杂的非线性模型,拥 有复杂的结构和大量的参数,有非常强的表示能力,特别适合于复杂的模式识别问题。这种能力在“阿尔法围棋”上就得到了很充分的体现。,对于任何一个神经网络,谁也不能保证输入是2,输出一定是第二个数字最大,要保证这个结果,需要对网络进行训练使其学习。学习的过程就是:输入大量的图片,如果结果不是想要的结果,则对网络参数进行调整。如何调整呢?每个神经元的权值都向目标进行微调。权值调整算法(后面介绍BP算法),人工智能技术发展,2017年10月19日,在国际学术期刊自然(Nature)上发表的一篇研究论文中,谷歌下 属公司Deepmind报告新版程序AlphaGo Zero:从空白状态学起,在无任何人类输入的条件下,它能够迅速自学围棋,它经过3天的训练便以100:0的战绩击败了他的哥哥AlphoGo Lee,经过40天的训练便击败了它的另一个哥哥 AlphoGo Master。,
copyright@ 2008-2023 冰点文库 网站版权所有
经营许可证编号:鄂ICP备19020893号-2