ImageVerifierCode 换一换
格式:DOCX , 页数:38 ,大小:6.57MB ,
资源ID:7229878      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bingdoc.com/d-7229878.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(人工智能行业深度分析报告.docx)为本站会员(b****5)主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(发送邮件至service@bingdoc.com或直接QQ联系客服),我们立即给予删除!

人工智能行业深度分析报告.docx

1、人工智能行业深度分析报告(此文档为word格式,可任意修改编辑!)正文目录图目录表目录1. 人工智能即将进入产业爆发的拐点 自从2016年3月AlphaGo大战李世石以来,人们对人工智能的关注度空前火热,人工智能无疑会带来下一代科技革命,国内外互联网巨头Google、微软、亚马逊、XX、腾讯、阿里巴巴等在人工智能领域跑马圈地,各国也将人工智能上升到国家战略,企图抢占下一代技术革命的制高点。 这一波人工智能的兴起源于深度学习算法的突破,深度学习算法突破过去人工提取特征的低效率、深层模型难以训练的局限,大大提高了算法的性能;其次,摩尔定律揭示了计算速度和内存容量能够每十八个月翻一番,之前计算性能上

2、的基础障碍被逐渐克服,进入新时期,云计算、GPU的使用为人工智能提供新的可能;互联网、物联网的普及,数据积累呈爆发式积累,为训练算法,实现人工智能提供原料。1.1. 深度学习技术使人工智能达到商用化水平 在深度学习出现之前,机器学习领域的主流是各种浅层学习算法。初期的人工智能研究的重点是以机器学习为代表的统计方法。机器学习是人工智能的一个分支,是目前实现人工智能的一个重要途径。机器学习使机器从数据中自动分析习得规律,再利用规律对未知数据进行预测。机器学习浅层算法如神经网络的反响传播算法(BP算法)、支撑向量机(SVM)、Boosting、Logistic Regression等。这些算法的局限

3、性在于对有限样本和计算单元的情况下对复杂函数的表示能力有限,对复杂数据的处理受到制约。图 1:深度学习与机器学习的关系图 2:机器学习原理图 3:机器学习的思路 传统的机器学习需要人工提取特征,其思路是,从开始的通过传感器来获取数据,然后经过预处理、特征提取、特征选择、再到推理、预测或者识别,最后一部分也就是机器学习的部分。中间三部分概况起来就是特征表达,是靠人工提取特征。良好的特征表达对最终算法的准确性起到了非常关键的作用。然而手工地选取特征既耗费时间又不能保证选取好,深度学习彻底解决了这个问题。 深度学习突破人工智能算法瓶颈。2016年,Hinton等人提出深度学习神经网络,掀起了深度学习

4、的浪潮。 “深度”某种意义上是指人工神经网络的层数,旨在建立可以模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据,例如,图像、声音和文本。在短短几年内,深度学习颠覆了语音识别、图像分类、文本理解等众多领域的算法设计思路,创造了一种从数据出发,经过一个端到端(end-to-end)最后得到结果的新模式。由于深度学习是根据提供给它的大量的实际行为(训练数据集)来自调整规则中的参数,进而调整规则,因此在和训练数据集类似的场景下,可以做出一些很准确的判断。图 4:深度学习与传统计算模式的区别 Hinton发表在Science上的文章中指出深度学习具有如下特征:1)多隐层的神经网络具有优异的特征

5、学习能力,其习得的特征对于数据具有更本质的刻画,从而有利于进一步可视化或者分类;2)通过”逐层初始化“克服训练上的困难。首先是优异的特征刻画能力。特征是计算机能够理解的输入信号,不同粒度的特征输入对最终模型的影响巨大,例如,给模型输入原始像素点,模型很难从中得到有用的信息,更无法从中做出有关图形的进一步判断等操作。合适的特征对实现功能至关重要。表 1:传统深度学习提取特征方法 传统的提取特征的方法是通过大量的工程技术和专业领域知识手工设计特征提取器,因此在处理加工数据时能力有限。深度学习把原始数据通过一系列非线性变换得到更高层次、更加抽象的表达,其复杂的结构、海量的参数设置,能够更好的完成特征

6、提取。对于很多训练任务来说,特征具有天然的结构层次。以图像识别任务为例,图像的初始输入为像素,相邻像素组成线条、线条组成纹理,进一步组图案,图案组成物体的局部,直到形成整个物体的样子。 以计算机视觉为例,深度学习出现之前,基于寻找合适的特征来让机器辨识物体状态的方式几乎代表了计算机视觉的全部。尽管对多层神经网络的探索已经存在,然而实践效果并不好。深度学习出现之后,计算机视觉的主要识别方式发生重大转变,自学习状态成为视觉识别主流。即,机器从海量数据库里自行归纳物体特征,然后按照该特征规律识别物体。图像识别的精准度也得到极大的提升,从70%+提升到95%。图 5:深度学习对图像识别的提升 深度学习

7、在人脸识别中应用的最为成熟。深度神经网络算法将人脸的图画信息内容提炼为逐个单元特征,并组合为更高级的复杂特征,如面部器官,进而实现对人脸识别。科大讯飞的 RNN深度学习算法在语音识别中的误识率为0.7%,旷世科技、格灵深瞳的人脸识别算法误识率为0.001%,满足商用的需求。表 2:语音识别、人脸识别技术程度图 6:深度学习在人脸识别中的应用1.2 运算力和数据量为人工智能提供引擎 深度学习对于运算速度和数据量提供了新要求。例如斯坦福大学的交通指示牌识别实验,用传统的线性模型,识别准确率为92%,所需训练时间为13s,而采用深度神经网络模型的识别准确率高达98.8%,其所需的训练时间也提升到78

8、3s。图 7:线性模型用于交通指示牌识别实验图 8:深度神经网络模型用于交通指示牌识别实验1.2.1 海量数据为人工智能发展提供燃料 数据量和算法可以分别比作人工智能的燃料和发动机。数据集的丰富和大规模性对深度学习算法训练尤为重要。实现精准识别的第一步,就是获取海量而优质的应用场景数据。以人脸识别为例,训练该算法模型的图片数据量至少应为百万级别。图 9:数据在深度学习中的应用 2000年以来,得益于互联网、社交媒体、移动设备和廉价的传感器以及物联网的发展,世界上产生并存储的数据量急剧增加,为通过深度学习的方法来训练各种模型。IDC数据显示,从2011年起,全球所产生的数据量已达到ZB级别(1Z

9、B约为10亿GB),海量的数据为深度学习提供源源不断的素材。而数据量对提高算法准确率具有重要的作用,对于人工智能公司而言,数据是最大的壁垒。图 10:人工智能决策过程图 11:数据在深度学习中的应用1.2.2 运算力提升和运算成本下降大幅推动人工智能发展 深度学习算法需要强大的计算能力支撑,深度模型参数多,计算量大,数据的规模更大,需要消耗很多计算资源。Google大脑项目,使用包含16000个CPU核的并行计算平台训练超过10亿个神经元的深度神经网络。AI芯片的出现让大规模的数据效率大大提升,加速了深层神经网络的训练迭代速度,极大的促进了人工智能行业的发展。 AI算法的处理需要大量的矩阵计算

10、操作,因此特别适合使用并行运算芯片进行数据处理。而传统的CPU一次只能做一两个加减法运算,无法满足并行运算的需求。目前出现了GPU、NPU、FPGA和各种各样的AI-PU专用芯片。而其中,出现最早的GPU为人工智能的发展做出了巨大贡献。 擅长并行计算的GPU大幅提升机器学习效率。深度模型训练是一件比较复杂的事情,很多事项需要注意,如网络结构的选择,神经元个数的设定,权重参数的初始化,学习率的调整,Mini-Batch的控制等,具体实践中还需要反复尝试、多次训练。在GPU出现之前,算法运行的速度是很慢的,即使一个简单的神经网络数据的培训,也得花费几天、甚至几周时间。1999年,NVIDIA公司提

11、出了GPU(图像处理器)概念。GPU是专为执行复杂的数学和集合计算而设计的数据处理芯片。它的出现让并行计算成为可能,对数据处理规模、数据运算速度带来了指数级的增长,极大的促进了人工智能行业,尤其是计算机视觉领域的发展。图 12:人工智能芯片 GPU与传统CPU相比,在处理海量数据方面有压倒性的优势。据RajatRaina 与吴恩达的合作论文“用GPU 进行大规模无监督深度学习”显示,在运行大规模无监督深度学习模型时,使用GPU 和使用传统双核CPU 在运算速度上的差距最大会达到近七十倍。在一个四层,一亿个参数的深度学习网络上,使用 GPU 将程序运行时间从几周降低到一天。图 13:人工智能芯片

12、 今天,数据处理速度不再成为制约计算机视觉发展的主要瓶颈。想要发挥专用芯片的计算优势,需要芯片结构和软件算法两者相匹配。目前的趋势是,随着对人工智能各类应用需求的不断增强,专门用于加速人工智能应用的AI-PU或将成为计算机另一个标配组件。 目前GPU已经发展到了较为成熟的阶段。谷歌、微软、Facebook、XX等公司都在使用GPU分析图片、视频和音频文件,改进搜索和图像标签等应用功能。VR/AR产业也在使用GPU,同时很多汽车生产商也在使用GPU作为传感器芯片发展无人车技术。研究公司Tractica LLC预计,到2024年深度学习项目在GPU上的花费将从2015年的4360万增长到41亿美元

13、,在相关软件上的花费将从1.09亿增长到104亿。 除了使用GPU之外,很多公司都在研究用其他的芯片来替代GPU,如Nvidia TeslaP100芯片,谷歌的TPU,微软研发FPGA、寒武纪芯片、IBM TrueNorth等。其中由中科院研发的寒武纪芯片是国际首个专注于深度学习加速的芯片,2012年中科院计算所和法国Inria等机构共同提出了国际上首个人工神经网络硬件的基准测试集benchNN,提升了人工神经网络处理速度,有效加速通用计算,此后,中科院计算式和法国Inria研究人员共同推出一系列不同结构的DianNao神经网络硬件加速器结构,2016年3月,中科院计算所,陈云霁、陈天石课题组

14、、寒武纪公司提出的寒武纪深度学习处理器指令集Cambricon 被计算机体系结构领域顶级国际会议ISCA 2016 接收,在所有近300 篇投稿中排名第一,在深度学习处理器指令集方面取得了开创性进展。目前寒武纪芯片产业化在即,预计2018年上市,市场表现值得期待。 此外,Nvidia Tesla P100 芯片是NVIDIA 2016年新推出的专门用于加速深度学习的芯片;TPU为Google tensorflow平台专用;IBM 推出的脉冲神经网络芯片TrueNorth,走“类脑计算”路线,但离商用可能仍有一段距离;FPGA以其低能耗、高性能以及可编程等特性,十分适合感知计算,微软、XX、IB

15、M等都有专门做FPGA的团队为服务器加速,未来前景可观。图 14:寒武纪芯片1.3 资本持续投入催化产品化进程与产业链的构建 人工智能领域投资额逐年增长,5年增长12倍。从2006年提出深度学习之后,人工智能才有了实质性的进展。该领域的创业公司逐渐增加,2011年开始投资额度飞速增加,据Venture Scanner统计,截止到2016年Q2,全球人工智能公司已突破1000家,跨越13个子门类,融资金额高达48亿美元。图 15:AI行业全球投资额图 16:2000-2015年成立的人工智能公司数量 深度学习、自然语言处理和计算机视觉是创业最火热的领域。目前受到关注度最高的AI应用有自然语言处理

16、、图像识别的深度学习、计算机视觉、自动驾驶、聊天机器人等。其中研究深度学习应用的公司最多,自然语言处理和计算机视觉的公司其次。同时,深度学习和自然语言处理获得的融资额也是最多的。应用型的深度学习公司融资额最高为2.1亿美元,自然语言处理类的公司总融资额为7000万美元,位居第二位。图 17 AI公司融资额及相应公司数量 国内获投最多领域为NLP、机器人和计算机视觉。从1996年至今,国内至今仍在运营的人工智能公司有366家。通过数据分析可以看出,计算机视觉、机器人、自然语言处理是创业最热门的领域。2015-2016 年人工智能领域获投金额在90亿人民币左右。可以看出,获投最多的细分领域有自然语

17、言处理、机器人、计算机视觉,均在10亿以上人民币的级别。图 18:国内各领域人工智能公司数量图 19:国内人工智能公司获投金额 智能安防、智能家居为平均单个公司获投金额最高的领域,平均获投金额在一亿元以上。智能安防领域的获投企业均是人工智能领域的明星企业,如旷世科技、商汤科技等。图 20:国内平均单个公司获投金额(万元) 随着资本持续投入,人工智能相关的产品不断催化,产业链不断构建。1.4 政策加码,加速人工智能发展 AI的重要意义是它对每一个行业和领域带来指数级的效率推动作用。AI作为推动社会生产力的技术,必然会造成社会分工的一次重大变革。作为第四次工业革命中重要一项,AI已经成为国与国之间

18、角逐的要点。1.4.1 国内人工智能首次写入政府工作报告,政策不断落地 国内近两年相继出台扶植人工智能发展的政策,积极推动人工智能在各个细分领域的渗透。,2017年两会上,人工智能更是首次写入政府工作报告, 2016年5月,国家四部委更是颁布“互联网+”人工智能三年行动实施方案,明确提出要培育发展人工智能新兴产业、推进重点领域智能产品创新、提升终端产品智能化水平。表 3:人工智能相关国家政策1.4.2 国外人工智能政策 各国均在政策层面强调和推动人工智能的发展。其中,美国侧重于研发新型脑研究技术;欧盟主攻以超级计算机技术来模拟脑功能;日本则聚焦以动物为模型研究各种脑功能和脑疾病的机理。表 4:

19、人工智能相关国家政策 随着资本持续不断的投入,人工智能产品不断催化及形成产业链,进而使得计算效率进一步提升,数据量不断积累,巨头在人工智能各个方面布局,技术随着迭代不断成熟,人工智能即将进入产业爆发点。2. 人工智能产业链明晰,科技巨头卡位布局2.1. 产业链可分为基础支撑层、技术应用层和产品层 从产业链来看,人工智能可以分为基础支撑层、技术应用层和产品层。 基础支撑层主要由算法模型(软件)和关键硬件(AI芯片、传感器)两部分构成。传感器负责收集数据,AI芯片(GPU、FPGA、NPU等)负责运算,算法模型复杂训练数据。技术应用层主要由感知类技术和其他深度学习应用构成。感知技术主要用于让机器完

20、成对外界的探测,即看懂、听懂、读懂世界,由计算机视觉、语音识别、语义理解构成,是人工智能产品或方案不可或缺的重要部分。只有看懂、听懂、读懂才能够做出分析判断,进而采取行动,让更复杂层面的智慧决策、自主行动成为可能。方案集成是集成一类或多类基础应用技术而面向应用场景特定需求的产品或方案。人工智能作为一类技术,应用在多种多样的应用场景中;而在各类产品中人工智能的比重或有区别,但其本质都是让机器更好的服务于我们的生产和生活。图 21:人工智能产业链2.2. 巨头打造开源平台、布局AI芯片和核心技术 人工智能被认为是引爆下一代产业革命的技术,国内外巨头纷纷布局人工智能产业链,主要有三种方式:打造开源平

21、台、布局AI芯片、布局AI核心技术。从产业链角度来讲,无论是开源平台、AI芯片还是AI核心技术,都是偏产业链上游的基础设施。2.2.1. 打造人工智能开源平台,“开放”谋求大生态 开源是科技巨头在人工智技术层的共同选择。开放的安卓系统在手机中获得成功,份额高达87%。科技巨头通过推出算法平台吸引开发者,希望能够实现快速的产品迭代、活跃的社区、众多的开发者,从而打造开发者生态,成为行业标准,实现持续获利。谷歌、Facebook、IBM、微软等科技巨头相继推出并开源自家的人工智能平台。 Google开源人工智能系统TensorFlow和训练平台DeepMindLab。TensorFlow是谷歌基于

22、DistBelief研发的第二代机器学习系统。是一个能处理多种语音理解和认知任务的开源软件库。DeepMindLab是针对基于代理的AI研究而开发的平台,为学习代理提供了一系列颇具挑战的三维探索和解谜任务。旨在为AI研究,尤其是深度强化学习提供试验田。DeepMindLab具有高度可定制、可扩展性。 微软开源CNTK。CNTK是一个“统一的深度学习工具箱” 它把神经网络描述为通过有向图进行的一系列计算步骤,最初用在语音识别方面,现在已成为通用的、独立于平台的深度学习系统,支持对常用深度神经网络架构的结构性执行,支持多个计算设备以及多个GPU的计算。CNTK具有商用级别的质量,Skype、微软小

23、冰、必应搜索、Xbox和业内顶级的数据科学家已经在使用 CNTK 来开发商用 AI。 IBM开源SystemML。SystemML为使用大数据的机器学习提供了一个理想的环境,可运行于ApacheSpark之上,是一个机器学习算法的解码器,帮助开发者创建用于不同工业领域预测分析的机器学习模型。旨在帮助数据科学家把算法转化到生产环境,而不需要重新编写底层代码。因次,IBM号称能把数据分析从笔记本电脑扩展到大数据中心。使专业领域或专门行业的机器学习成为可能,给开发者带来一系列的帮助,从底层代码到定制应用。 Facebook开源Universe和文本分析工具FastText。 2015年11月,fac

24、ebook投资的OpenAI公司宣布对旗下AI训练平台“Universe”开源,这是一个与DeepMind十分类似的平台,目标也是给开发者们训练,测试AI代理提供平台。Universe包含上千种不同的训练环境,希望能开发出一个单个AI代理,能灵活的把其过去经验应用于Universe场景中,来迅速掌握陌生、困难的环境,这是走向通用智能的关键一步。AlphaGo能在围棋上轻松赢你,但是你无法教会它其他棋牌游戏,然后让它跟你玩。Universe 使得 AI 能够处理多种类型的任务,让它发展出“关于世界的知识和解决问题的战术,并能有效应用于新任务。” XX开源PaddlePaddle机器学习框架:XX

25、深度学习PaddlePaddle是一个云端托管的分布式学习平台,对于序列输入、稀疏输入和大规模数据的模型训练有着良好的支持,支持GPU运算,支持数据并行和模型并行,仅需少量代码就能训练深度学习模型,大大降低了用户使用深度学习技术的成本。 AI开源平台是一个深度学习的工具箱,用户可以在其开放的平台上使用其算法系统,获取开源代码。自从深度学习取得突破性进展后,巨头们频频开源。根本原因在于,尽管算法是竞争的一个障碍,但数据和应用场景的甄别才是真正要攀登的高峰。当AI公司使用开源平台进行算法的迭代时,开源平台可以获取数据,以及市场对应用场景热度的反馈。大量的创业公司会采用开源做垂直领域的业务,并试错验

26、证,最终返回到开源,在算法被优化的同时,平台也可以通过用户行为的反馈甄别哪些是更有市场潜力的应用场景。 我们认为,开源平台是人工智能技术层的发展方向,更高效的开源平台将孕育更庞大的场景应用生态,也将带来更大的市场价值。长期看,开源平台将向优势公司集中。表 5:人工智能产业链2.2.2. 布局AI芯片,抢占技术制高点 人工智能基层芯片作为重要的底层架构,具有极强的战略意义。目前并行运算的GPU广泛应用于AI领域,NVIDIA在该市场份额超过 80%。其他科技巨头希望研发新一代芯片提升计算性能并打破垄断。谷歌专为其深度学习算法TensorFlow设计专用集成芯片TPU,IBM推出神经元芯片,降低功

27、耗,微软研发基于FPGA的A-eye芯片,赋予摄像头视觉理解力。英特尔将于2017年推出为AI深度学习设计的Intel Xeon Phi处理器,强度与CPU协调工作的GPU技术,能快速计算,并根据概率和联系做决策。中科院推出专门面向深度学习技术的处理器芯片“寒武纪”。 NVIDIAGPU行业领袖,成人工智能芯片领头军 英伟达的GPU是图像处理的行业龙头,GPU芯片的同步并行运算非常适用于人工智能的深度学习神经网络。事实证明,在浮点运算、并行计算等部分计算方面,GPU 可以提供数十倍乃至于上百倍于CPU 的性能。目前国际GPU市场被NVIDIA 和AMD 两大公司瓜分。截至2015 年第二季度,

28、NVIDIA 市场份额已达到82%。谷歌无人驾驶汽车所采用的技术部件中,就采用了NVIDIA 的移动终端处理器Tegra(4 核CPU+256 核GPU)。 英伟达将人工智能作为公司的发展方向,推出一系列深度学习GPU:Titan X,Jetson,Tesla以及无人驾驶专用平台DRIVEPX。GPU在仅仅三年内便将深度神经网络(DNN)的训练速度提高到50倍,预计未来几年还要再提高数倍。 2016 年8 月,英伟达推出首台深度学习超级计算机NVIDIA DGX-1。DGX-1包含由NVIDIA Pascal 技术支持的Tesla P100 GPU 加速器,并采用NVIDIA NVLink 互

29、联技术,软件堆栈包含主要深度学习框架、NVIDIA 深度学习 SDK、DIGITS GPU 训练系统、驱动程序和 CUDA,能够快速设计深度神经网络 (DNN)。 ,NVIDIA宣布全新数据中心加速器Tesla P100已经供货,Tesla P100计算卡面向人工智能、自动驾驶、气候预测、医药开发等专业领域。图 22:2013-2015年GPU市场份额图 23:NVIDIA的DGX-1提升运算能力图 24:NVIDIA的DGX-1提升深度学习训练速度 Intel基于Nervana技术的AI芯片& FPGA 2016年英特尔花费4亿元收购一家创业公司Nervana, Nervana一直在研究将深

30、度学习算法嵌入到计算芯片之中,而不是简单的打造能够在大量图形处理器上运行的软件,这个逻辑和英特尔发力人工智能芯片的思路不谋而合。英特尔称,与图形芯片相比,Nervana技术可以使深度学习系统运行速度提升100倍,计划2017年销售集成Nervana技术的芯片,在深度学习市场挑战英伟达优势,英特尔计划在至强处理器中整合Nervana芯片和软件。同时,英特尔收购FPGA生产商巨头Altera,研发基于FPGA技术的人工智能芯片。图 25:英特尔Nervana产品组合 Google定制化TPU芯片+量子计算机。谷歌为其深度学习神经网络打造基于ASIC的专用TPU芯片(张量处理器)。该TPU芯片也用于

31、AlphaGo的系统中。ASIC是专用集成电路,具有体积更小、功耗更低、性能提高、保密性增强、成本低等优点。TPU目前在谷歌主要用于:1)、机器学习系统RankBrain,用于帮助谷歌处理搜索结果;2)、街景StreetView,用于提高地图与导航的准确性;3)、围棋人工智能AlphaGo,其最初版本使用48个CPU+8 GPU,对战樊麾时升级到1202CPU+176 GPU,对战李世石时升级至TPU版本。谷歌同时致力于量子计算机的研究,2013年从加拿大公司D-Wave购买一台量子计算机,佐证“量子退火”算法。2014年谷歌、NASA与美国大学太空研究协会联合成立了谷歌量子人工智能实验室。谷

32、歌指出了早期量子计算最可行的三个商业用途:量子模拟,量子辅助优化和量子采样。采用这些技术,可以让材料、金融、保健等行业从中受益。,谷歌量子AI实验室的三名科学家在nature上发表文章指出:小型的量子计算机会在5年内逐渐兴起。图 26:Google TPU板卡 微软:重点研发FPGA人工智能芯片,推出基于FPGA的视觉芯片 在谷歌、亚马逊开始研发硬件芯片时,微软也在做出改变,把重心放在FPGA人工智能芯片上,目前FPGA已经被应用在Bing搜索的支持上,基于神经网络推动新的搜索算法,执行速度比传统的芯片会快很多倍,只需要24ms就可以实现搜索,规避了以往长达四秒搜索空白的尴尬。其FGPA同样能够支持微软的云计算服务Azure,未来微软全球的数百万部的服务器将会用FPGA。 同时微软推出基于FPGA技术的视觉芯片A-eye,使得摄像头具有视觉理解能力。FPGA 的输入到输出之间并

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2