一张图看懂人工智能Ai.docx

上传人:b****8 文档编号:13082408 上传时间:2023-06-10 格式:DOCX 页数:21 大小:36.63KB
下载 相关 举报
一张图看懂人工智能Ai.docx_第1页
第1页 / 共21页
一张图看懂人工智能Ai.docx_第2页
第2页 / 共21页
一张图看懂人工智能Ai.docx_第3页
第3页 / 共21页
一张图看懂人工智能Ai.docx_第4页
第4页 / 共21页
一张图看懂人工智能Ai.docx_第5页
第5页 / 共21页
一张图看懂人工智能Ai.docx_第6页
第6页 / 共21页
一张图看懂人工智能Ai.docx_第7页
第7页 / 共21页
一张图看懂人工智能Ai.docx_第8页
第8页 / 共21页
一张图看懂人工智能Ai.docx_第9页
第9页 / 共21页
一张图看懂人工智能Ai.docx_第10页
第10页 / 共21页
一张图看懂人工智能Ai.docx_第11页
第11页 / 共21页
一张图看懂人工智能Ai.docx_第12页
第12页 / 共21页
一张图看懂人工智能Ai.docx_第13页
第13页 / 共21页
一张图看懂人工智能Ai.docx_第14页
第14页 / 共21页
一张图看懂人工智能Ai.docx_第15页
第15页 / 共21页
一张图看懂人工智能Ai.docx_第16页
第16页 / 共21页
一张图看懂人工智能Ai.docx_第17页
第17页 / 共21页
一张图看懂人工智能Ai.docx_第18页
第18页 / 共21页
一张图看懂人工智能Ai.docx_第19页
第19页 / 共21页
一张图看懂人工智能Ai.docx_第20页
第20页 / 共21页
亲,该文档总共21页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

一张图看懂人工智能Ai.docx

《一张图看懂人工智能Ai.docx》由会员分享,可在线阅读,更多相关《一张图看懂人工智能Ai.docx(21页珍藏版)》请在冰点文库上搜索。

一张图看懂人工智能Ai.docx

一张图看懂人工智能Ai

一张图看懂人工智能Ai

一张图看懂人工智能Ai导读人工智能的目的是为了去创造有智力的电脑(可以假设其为机器人),我们希望这个电脑可以像有智力的人一样处理一个任务。

因此,理论上人工智能几乎包括了所有和机器能做的内容。

人工智能是一个广泛的概念,但是本质是用数据和模型去为现有的问题(existingproblems)提供解决方法(solutions)。

人工智能的定义可以分为两部分,即“人工”和“智能”。

“人工”比较好理解,争议性也不大。

“智能”的水平与直接反映出这系统的“智能”程度。

所以人工智能分为强人工智能和弱人工智能。

强人工智能是通过计算机来构造复杂的、拥有与人类智慧同样本质特性的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考,也就是电影里面的机器人。

弱人工智能(ANI)是指擅长于单个方面的人工智能。

垃圾邮件的自动识别,iPhone的助手siri,Pinterest上的图像分类,Facebook的人脸识别都属于弱人工智能,也就是我们现在大多是在从事的领域。

总的来说,人工智能的研究领域在不断扩大,各个分支主要包括专家系统、机器学习、进化计算、模糊逻辑、计算机视觉、自然语言处理、推荐系统等。

人工智能的三大法宝:

大数据,计算能力和算法。

了解人工智能原理也很简单,人工智能其实是通过不断的吃数据,自动的处理数据变聪明的,而且数据训练的越多,其准备度越高。

无论是个人企业都逃离不了上面的三大区域。

随着工业的现代化,人类的分工也越来越密切,一个人试图掌握一切知识的能力所付出的成本也越来越高。

使用场景举些例子:

机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,自动规划,智能搜索,定理证明,博弈,自动程序设计,智能控制,机器人学,语言和图像理解,遗传编程等。

这些都是属于大数据的具体实际运用。

给大家的建议如果你觉得你对数据的处理比较在行的话,就可以在大数据的获取和分类方面钻研的更深,其实也是投入了人工智能行业的怀抱的;

如果你或者贵公司是做硬件设备的,或者有大型分布式处理的设计和使用经验的话,在人工智能的计算方面进行拓展也是非常不错的;

如果你觉得你的算法和数学功底很好的话,那么可以在算法方面进行深入的造诣。

当然,肯定还有一部分人需要结合上面的三大法宝进行应用开发和参数调优,实际应用AI去解决生产生活的一些问题,这也是一个不错的转型的方向。

10分钟带你读完人工智能的三生三世本文从AI最基本的几个模块(计算机视觉、语音识别、自然语言处理、决策规划系统)着手,回顾其一路以来的发展脉络,以史为镜、正视未来。

AI作为2021年以来最热门的词汇,人们对之也持有不同的看法:

有人在怀疑泡沫即将破裂、有人坚信这场变革会带来巨大的机会、有人抛出威胁论。

本系列试图以通俗易懂的方式,让不同知识水平的读者都能从中获益:

让外行人对人工智能有一个清晰客观的理解,也帮助内行人更好地参与到AI带来这场产业变革中来。

本文将会从AI最基本的几个模块(计算机视觉、语音识别、自然语言处理、决策规划系统)着手,回顾其一路以来的发展脉络,以史为镜、正视未来。

1.计算机视觉的发展历史“看”是人类与生俱来的能力。

刚出生的婴儿只需要几天的时间就能学会模仿父母的表情,人们能从复杂结构的图片中找到关注重点、在昏暗的环境下认出熟人。

随着人工智能的发展,机器也试图在这项能力上匹敌甚至超越人类。

计算机视觉的历史可以追溯到1966年,人工智能学家Minsky在给学生布置的作业中,要求学生通过编写一个程序让计算机告诉我们它通过摄像头看到了什么,这也被认为是计算机视觉最早的任务描述。

到了七八十年代,随着现代电子计算机的出现,计算机视觉技术也初步萌芽。

人们开始尝试让计算机回答出它看到了什么东西,于是首先想到的是从人类看东西的方法中获得借鉴。

借鉴之一是当时人们普遍认为,人类能看到并理解事物,是因为人类通过两只眼睛可以立体地观察事物。

因此要想让计算机理解它所看到的图像,必须先将事物的三维结构从二维的图像中恢复出来,这就是所谓的“三维重构”的方法。

借鉴之二是人们认为人之所以能识别出一个苹果,是因为人们已经知道了苹果的先验知识,比如苹果是红色的、圆的、表面光滑的,如果给机器也建立一个这样的知识库,让机器将看到的图像与库里的储备知识进行匹配,是否可以让机器识别乃至理解它所看到的东西呢,这是所谓的“先验知识库”的方法。

这一阶段的应用主要是一些光学字符识别、工件识别、显微/航空图片的识别等等。

到了九十年代,计算机视觉技术取得了更大的发展,也开始广泛应用于工业领域。

一方面原因是CPU、DSP等图像处理硬件技术有了飞速进步;

另一方面是人们也开始尝试不同的算法,包括统计方法和局部特征描述符的引入。

在“先验知识库”的方法中,事物的形状、颜色、表面纹理等特征是受到视角和观察环境所影响的,在不同角度、不同光线、不同遮挡的情况下会产生变化。

因此,人们找到了一种方法,通过局部特征的识别来判断事物,通过对事物建立一个局部特征索引,即使视角或观察环境发生变化,也能比较准确地匹配上。

进入21世纪,得益于互联网兴起和数码相机出现带来的海量数据,加之机器学习方法的广泛应用,计算机视觉发展迅速。

以往许多基于规则的处理方式,都被机器学习所替代,自动从海量数据中总结归纳物体的特征,然后进行识别和判断。

这一阶段涌现出了非常多的应用,包括典型的相机人脸检测、安防人脸识别、车牌识别等等。

数据的积累还诞生了许多评测数据集,比如权威的人脸识别和人脸比对识别的平台——FDDB和LFW等,其中最有影响力的是ImageNet,包含1400万张已标注的图片,划分在上万个类别里。

到了2021年以后,借助于深度学习的力量,计算机视觉技术得到了爆发增长和产业化。

通过深度神经网络,各类视觉相关任务的识别精度都得到了大幅提升。

在全球最权威的计算机视觉竞赛ILSVR(ImageNetLargeScaleVisualRecognitionCompetition)上,千类物体识别Top-5错误率在2021年和2021年时分别为28.2%和25.8%,从2021年引入深度学习之后,后续4年分别为16.4%、11.7%、6.7%、3.7%,出现了显著突破。

由于效果的提升,计算机视觉技术的应用场景也快速扩展,除了在比较成熟的安防领域应用外,也有应用在金融领域的人脸识别身份验证、电商领域的商品拍照搜索、医疗领域的智能影像诊断、机器人/无人车上作为视觉输入系统等,包括许多有意思的场景:

照片自动分类(图像识别+分类)、图像描述生成(图像识别+理解)等等。

2.语音技术的发展历史语言交流是人类最直接最简洁的交流方式。

长久以来,让机器学会“听”和“说”,实现与人类间的无障碍交流一直是人工智能、人机交互领域的一大梦想。

早在电子计算机出现之前,人们就有了让机器识别语音的梦想。

1920年生产的“RadioRex”玩具狗可能是世界上最早的语音识别器,当有人喊“Rex”的时候,这只狗能够从底座上弹出来。

但实际上它所用到的技术并不是真正的语音识别,而是通过一个弹簧,这个弹簧在接收到500赫兹的声音时会自动释放,而500赫兹恰好是人们喊出“Rex”中元音的第一个共振峰。

第一个真正基于电子计算机的语音识别系统出现在1952年,AT&T贝尔实验室开发了一款名为Audrey的语音识别系统,能够识别10个英文数字,正确率高达98%。

70年代开始出现了大规模的语音识别研究,但当时的技术还处于萌芽阶段,停留在对孤立词、小词汇量句子的识别上。

上世纪80年代是技术取得突破的时代,一个重要原因是全球性的电传业务积累了大量文本,这些文本可作为机读语料用于模型的训练和统计。

研究的重点也逐渐转向大词汇量、非特定人的连续语音识别。

那时最主要的变化来自用基于统计的思路替代传统基于匹配的思路,其中的一个关键进展是隐马尔科夫模型(HMM)的理论和应用都趋于完善。

工业界也出现了广泛的应用,德州仪器研发了名为Speak&Spell语音学习机,语音识别服务商SpeechWorks成立,美国国防部高级研究计划局(DARPA)也赞助支持了一系列语音相关的项目。

90年代是语音识别基本成熟的时期,主流的高斯混合模型GMM-HMM框架逐渐趋于稳定,但识别效果与真正实用还有一定距离,语音识别研究的进展也逐渐趋缓。

由于80年代末、90年代初神经网络技术的热潮,神经网络技术也被用于语音识别,提出了多层感知器-隐马尔科夫模型(MLP-HMM)混合模型。

但是性能上无法超越GMM-HMM框架。

突破的产生始于深度学习的出现。

随着深度神经网络(DNN)被应用到语音的声学建模中,人们陆续在音素识别任务和大词汇量连续语音识别任务上取得突破。

基于GMM-HMM的语音识别框架被基于DNN-HMM的语音识别系统所替代,而随着系统的持续改进,又出现了深层卷积神经网络和引入长短时记忆模块(LSTM)的循环神经网络(RNN),识别效果得到了进一步提升,在许多(尤其是近场)语音识别任务上达到了可以进入人们日常生活的标准。

于是我们看到以AppleSiri为首的智能语音助手、以Echo为首的智能硬件入口等等。

而这些应用的普及,又进一步扩充了语料资源的收集渠道,为语言和声学模型的训练储备了丰富的燃料,使得构建大规模通用语言模型和声学模型成为可能。

3.自然语言处理的发展历史人类的日常社会活动中,语言交流是不同个体间信息交换和沟通的重要途径。

因此,对机器而言,能否自然地与人类进行交流、理解人们表达的意思并作出合适的回应,被认为是衡量其智能程度的一个重要参照,自然语言处理也因此成为了绕不开的议题。

早在上世纪50年代,随着电子计算机的出现,出现了许多自然语言处理的任务需求,其中最典型的就是机器翻译。

当时存在两派不同的自然语言处理方法:

基于规则方法的符号派和基于概率方法的随机派。

受限于当时的数据和算力,随机派无法发挥出全部的功力,使得规则派的研究略占上风。

体现到翻译上,人们认为机器翻译的过程是在解读密码,试图通过查询词典来实现逐词翻译,这种方式产出的翻译效果不佳、难以实用。

当时的一些成果包括1959年宾夕法尼亚大学研制成功的TDAP系统(TransformationandDiscourseAnalysisProject,最早的、完整的英语自动剖析系统)、布朗美国英语语料库的建立等。

IBM-701计算机进行了世界上第一次机器翻译试验,将几个简单的俄语句子翻译成了英文。

这之后苏联、英国、日本等国家也陆续进行了机器翻译试验。

1966年,美国科学院的语言自动处理咨询委员会(ALPAC),发布了一篇题为《语言与机器》的研究报告,报告全面否定了机器翻译的可行性,认为机器翻译不足以克服现有困难、投入实用。

这篇报告浇灭了之前的机器翻译热潮,许多国家开始消减在这方面的经费投入,许多相关研究被迫暂停,自然语言研究陷入低谷。

许多研究者痛定思痛,意识到两种语言间的差异不仅体现在词汇上,还体现在句法结构的差异上,为了提升译文的可读性,应该加强语言模型和语义分析的研究。

里程碑事件出现在1976年,加拿大蒙特利尔大学与加拿大联邦政府翻译局联合开发了名为TAUM-METEO的机器翻译系统,提供天气预报服务。

这个系统每小时可以翻译6-30万个词,每天可翻译1-2千篇气象资料,并能够通过电视、报纸立即公布。

在这之后,欧盟、日本也纷纷开始研究多语言机器翻译系统,但并未取得预期的成效。

到了90年代时,自然语言处理进入了发展繁荣期。

随着计算机的计算速度和存储量大幅增加、大规模真实文本的积累产生,以及被互联网发展激发出的、以网页搜索为代表的基于自然语言的信息检索和抽取需求出现,人们对自然语言处理的热情空前高涨。

在传统基于规则的处理技术中,人们引入了更多数据驱动的统计方法,将自然语言处理的研究推向了一个新高度。

除了机器翻译之外,网页搜索、语音交互、对话机器人等领域都有自然语言处理的功劳。

进入2021年以后,基于大数据和浅层、深层学习技术,自然语言处理的效果得到了进一步优化。

机器翻译的效果进一步提升,出现了专门的智能翻译产品。

对话交互能力被应用在客服机器人、智能助手等产品中。

这一时期的一个重要里程碑事件是IBM研发的Watson系统参加综艺问答节目Jeopardy。

比赛中Watson没有联网,但依靠4TB磁盘内200万页结构化和非结构化的信息,Watson成功战胜人类选手取得冠军,向世界展现了自然语言处理技术所能达到的实力。

机器翻译方面,谷歌推出的神经网络机器翻译(GNMT)相比传统的基于词组的机器翻译(PBMT),英语到西班牙语的错误率下降了87%,英文到中文的错误率下降了58%,取得了非常强劲的提升。

4.规划决策系统的发展历史人工智能规划决策系统的发展,一度是以棋类游戏为载体的。

最早在18世纪的时候,就出现过一台可以下棋的机器,击败了当时几乎所有的人类棋手,包括拿破仑和富兰克林等。

不过最终被发现机器里藏着一个人类高手,通过复杂的机器结构以混淆观众的视线,只是一场骗局而已。

真正基于人工智能的规划决策系统出现在电子计算机诞生之后,1962年,ArthurSamuel制作的西洋跳棋程序Checkers经过屡次改进后,终于战胜了州冠军。

当时的程序虽然还算不上智能,但也已经具备了初步的自我学习能力,这场胜利在当时还是引起了巨大的轰动,毕竟是机器首次在智力的角逐中战胜人类。

这也让人们发出了乐观的预言:

“机器将在十年内战胜人类象棋冠军”。

但人工智能所面临的困难比人们想象得要大很多,跳棋程序在此之后也败给了国家冠军,未能更上一层楼。

而国际象棋相比跳棋要复杂得多,在当时的计算能力下,机器若想通过暴力计算战胜人类象棋棋手,每步棋的平均计算时长是以年为单位的。

人们也意识到,只有尽可能减少计算复杂度,才可能与人类一决高下。

于是,“剪枝法”被应用到了估值函数中,通过剔除掉低可能性的走法,优化最终的估值函数计算。

在“剪枝法”的作用下,西北大学开发的象棋程序Chess4.5在1976年首次击败了顶尖人类棋手。

进入80年代,随着算法上的不断优化,机器象棋程序在关键胜负手上的判断能力和计算速度大幅提升,已经能够击败几乎所有的顶尖人类棋手。

到了90年代,硬件性能、算法能力等都得到了大幅提升,在1997年那场著名的人机大战中,IBM研发的深蓝(DeepBlue)战胜国际象棋大师卡斯帕罗夫,人类意识到在象棋游戏中已经很难战胜机器了。

到了2021年,硬件层面出现了基于GPU、TPU的并行计算,算法层面出现了蒙特卡洛决策树与深度神经网络的结合。

4:

1战胜李世石、在野狐围棋对战顶尖棋手60连胜、3:

0战胜世界排名第一的围棋选手柯洁,随着棋类游戏最后的堡垒——围棋也被AlphaGo所攻克,人类在完美信息博弈的游戏中已彻底输给机器,只能在不完美信息的德州扑克和麻将中苟延残喘。

人们从棋类游戏中积累的知识和经验,也被应用在更广泛的需要决策规划的领域,包括机器人控制、无人车等等。

棋类游戏完成了它的历史使命,带领人工智能到达了一个新的历史起点。

5.人工智能的现在时至今日,人工智能的发展已经突破了一定的“阈值”。

与前几次的热潮相比,这一次的人工智能来得更“实在”了,这种“实在”体现在不同垂直领域的性能提升、效率优化。

计算机视觉、语音识别、自然语言处理的准确率都已不再停留在“过家家”的水平,应用场景也不再只是一个新奇的“玩具”,而是逐渐在真实的商业世界中扮演起重要的支持角色。

6.语音处理的现在一个完整的语音处理系统,包括前端的信号处理、中间的语音语义识别和对话管理(更多涉及自然语言处理)、以及后期的语音合成。

总体来说,随着语音技术的快速发展,之前的限定条件正在不断减少:

包括从小词汇量到大词汇量再到超大词汇量、从限定语境到弹性语境再到任意语境、从安静环境到近场环境再到远场嘈杂环境、从朗读环境到口语环境再到任意对话环境、从单语种到多语种再到多语种混杂,但这给语音处理提出了更高的要求。

语音的前端处理中包含几个模块。

说话人声检测:

有效地检测说话人声开始和结束时刻,区分说话人声与背景声;

回声消除:

当音箱在播放音乐时,为了不暂停音乐而进行有效的语音识别,需要消除来自扬声器的音乐干扰;

唤醒词识别:

人类与机器交流的触发方式,就像日常生活中需要与其他人说话时,你会先喊一下那个人的名字;

麦克风阵列处理:

对声源进行定位,增强说话人方向的信号、抑制其他方向的噪音信号;

语音增强:

对说话人语音区域进一步增强,、环境噪声区域进一步抑制,有效降低远场语音的衰减。

除了手持设备是近场交互外,其他许多场景——车载、智能家居等——都是远场环境。

在远场环境下,声音传达到麦克风时会衰减得非常厉害,导致一些在近场环境下不值一提的问题被显著放大。

这就需要前端处理技术能够克服噪声、混响、回声等问题、较好地实现远场拾音。

同时,也需要更多远场环境下的训练数据,持续对模型进行优化,提升效果。

语音识别的过程需要经历特征提取、模型自适应、声学模型、语言模型、动态解码等多个过程。

除了前面提到的远场识别问题之外,还有许多前沿研究集中在解决“鸡尾酒会问题”。

“鸡尾酒会问题”显示的是人类的一种听觉能力,能在多人场景的语音/噪声混合中,追踪并识别至少一个声音,在嘈杂环境下也不会影响正常交流。

这种能力体现在两种场景下:

一是人们将注意力集中在某个声音上时,比如在鸡尾酒会上与朋友交谈时,即使周围环境非常嘈杂、音量甚至超过了朋友的声音,我们也能清晰地听到朋友说的内容;

二是人们的听觉器官突然受到某个刺激的时候,比如远处突然有人喊了自己的名字,或者在非母语环境下突然听到母语的时候,即使声音出现在远处、音量很小,我们的耳朵也能立刻捕捉到。

而机器就缺乏这种能力,虽然当前的语音技术在识别一个人所讲的内容时能够体现出较高的精度,当说话人数为二人或更多时,识别精度就会大打折扣。

如果用技术的语言来描述,问题的本质其实是给定多人混合语音信号,一个简单的任务是如何从中分离出特定说话人的信号和其他噪音,而复杂的任务则是分离出同时说话的每个人的独立语音信号。

在这些任务上,研究者已经提出了一些方案,但还需要更多训练数据的积累、训练过程的打磨,逐渐取得突破,最终解决鸡尾酒会问题。

考虑到语义识别和对话管理环节更多是属于自然语言处理的范畴,剩下的就是语音合成环节。

语音合成的几个步骤包括:

文本分析、语言学分析、音长估算、发音参数估计等。

基于现有技术合成的语音在清晰度和可懂度上已经达到了较好的水平,但机器口音还是比较明显。

目前的几个研究方向包括:

如何使合成语音听起来更自然、如何使合成语音的表现力更丰富、如何实现自然流畅的多语言混合合成。

只有在这些方向有所突破,才能使合成的语音真正与人类声音无异。

可以看到,在一些限制条件下,机器确实能具备一定的“听说”能力。

因此在一些具体的场景下,比如语音搜索、语音翻译、机器朗读等,确实能有用武之地。

但真正做到像正常人类一样,与其他人流畅沟通、自由交流,还有待时日。

7.计算机视觉的现在计算机视觉的研究方向,按技术难度的从易到难、商业化程度的从高到低,依次是处理、识别检测、分析理解。

图像处理是指不涉及高层语义,仅针对底层像素的处理;

图像识别检测则包含了语音信息的简单探索;

图像理解则更上一层楼,包含了更丰富、更广泛、更深层次的语义探索。

目前在处理和识别检测层面,机器的表现已经可以让人满意。

但在理解层面,还有许多值得研究的地方。

图像处理以大量的训练数据为基础(例如通过有噪声和无噪声的图像配对),通过深度神经网络训练一个端到端的解决方案。

有几种典型任务:

去噪声、去模糊、超分辨率处理、滤镜处理等。

运用到视频上,主要是对视频进行滤镜处理。

这些技术目前已经相对成熟,在各类P图软件、视频处理软件中随处可见。

图像识别检测的过程包括图像预处理、图像分割、特征提取和判断匹配,也是基于深度学习的端到端方案。

可以用来处理分类问题(如识别图片的内容是不是猫)、定位问题(如识别图片中的猫在哪里)、检测问题(如识别图片中有哪些动物、分别在哪里)、分割问题(如图片中的哪些像素区域是猫)等。

这些技术也已比较成熟,图像上的应用包括人脸检测识别、OCR(OpticalCharacterRecognition,光学字符识别)等,视频上可用来识别影片中的明星等。

当然,深度学习在这些任务中都扮演了重要角色。

传统的人脸识别算法,即使综合考虑颜色、形状、纹理等特征,也只能做到95%左右的准确率。

而有了深度学习的加持,准确率可以达到99.5%,错误率下降了10倍,从而使得在金融、安防等领域的广泛商业化应用成为可能。

OCR领域,传统的识别方法要经过清晰度判断、直方图均衡、灰度化、倾斜矫正、字符切割等多项预处理工作,得到清晰且端正的字符图像,再对文字进行识别和输出。

而深度学习的出现不仅省去了复杂且耗时的预处理和后处理工作,更将字准确率从60%提高到90%以上。

图像理解本质上是图像与文本间的交互。

可用来执行基于文本的图像搜索、图像描述生成、图像问答(给定图像和问题,输出答案)等。

在传统的方法下:

基于文本的图像搜索是针对文本搜索最相似的文本后,返回相应的文本图像对;

图像描述生成是根据从图像中识别出的物体,基于规则模板产生描述文本;

图像问答是分别对图像与文本获取数字化表示,然后分类得到答案。

而有了深度学习,就可以直接在图像与文本之间建立端到端的模型,提升效果。

图像理解任务目前还没有取得非常成熟的结果,商业化场景也正在探索之中。

可以看到,计算机视觉已经达到了娱乐用、工具用的初级阶段。

照片自动分类、以图搜图、图像描述生成等等这些功能,都可作为人类视觉的辅助工具。

人们不再需要靠肉眼捕捉信息、大脑处理信息、进而分析理解,而是可以交由机器来捕捉、处理和分析,再将结果返回给人类。

而往未来看,计算机视觉有希望进入自主理解、甚至分析决策的高级阶段,真正赋予机器“看”的能力,从而在智能家居、无人车等应用场景发挥更大的价值。

8.自然语言处理的现在自然语言处理中的几个核心环节包括知识的获取与表达、自然语言理解、自然语言生成等等,也相应出现了知识图谱、对话管理、机器翻译等研究方向,与前述的处理环节形成多对多的映射关系。

由于自然语言处理要求机器具备的是比“感知”更难的“理解”能力,因此其中的许多问题直到今天也未能得到较好的解决。

知识图谱是基于语义层面对知识进行组织后得到的结构化结果,可以用来回答简单事实类的问题。

包括语言知识图谱(词义上下位、同义词等)、常识知识图谱(“鸟会飞但兔子不会飞”)、实体关系图谱(“刘德华的妻子是朱丽倩”)。

知识图谱的构建过程其实就是获取知识、表示知识、应用知识的过程。

举例来说,针对互联网上的一句文本“刘德华携妻子朱丽倩出席了电影节”,我们可以从中取出“刘德华”、“妻子”、“朱丽倩”这几个关键词,然后得到“刘德华-妻子-朱丽倩”这样的三元表示。

同样地,我们也可以得到“刘德华-身高-174cm”这样的三元表示。

将不同领域不同实体的这些三元表示组织在一起,就构成了知识图谱系统。

语义理解是自然语言处理中的最大难题,这个难题的核心问题是如何从形式与意义的多对多映射中,根据当前

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 医药卫生 > 基础医学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2