人工智能行业深度分析报告.docx

上传人:b****5 文档编号:7229878 上传时间:2023-05-11 格式:DOCX 页数:38 大小:6.57MB
下载 相关 举报
人工智能行业深度分析报告.docx_第1页
第1页 / 共38页
人工智能行业深度分析报告.docx_第2页
第2页 / 共38页
人工智能行业深度分析报告.docx_第3页
第3页 / 共38页
人工智能行业深度分析报告.docx_第4页
第4页 / 共38页
人工智能行业深度分析报告.docx_第5页
第5页 / 共38页
人工智能行业深度分析报告.docx_第6页
第6页 / 共38页
人工智能行业深度分析报告.docx_第7页
第7页 / 共38页
人工智能行业深度分析报告.docx_第8页
第8页 / 共38页
人工智能行业深度分析报告.docx_第9页
第9页 / 共38页
人工智能行业深度分析报告.docx_第10页
第10页 / 共38页
人工智能行业深度分析报告.docx_第11页
第11页 / 共38页
人工智能行业深度分析报告.docx_第12页
第12页 / 共38页
人工智能行业深度分析报告.docx_第13页
第13页 / 共38页
人工智能行业深度分析报告.docx_第14页
第14页 / 共38页
人工智能行业深度分析报告.docx_第15页
第15页 / 共38页
人工智能行业深度分析报告.docx_第16页
第16页 / 共38页
人工智能行业深度分析报告.docx_第17页
第17页 / 共38页
人工智能行业深度分析报告.docx_第18页
第18页 / 共38页
人工智能行业深度分析报告.docx_第19页
第19页 / 共38页
人工智能行业深度分析报告.docx_第20页
第20页 / 共38页
亲,该文档总共38页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

人工智能行业深度分析报告.docx

《人工智能行业深度分析报告.docx》由会员分享,可在线阅读,更多相关《人工智能行业深度分析报告.docx(38页珍藏版)》请在冰点文库上搜索。

人工智能行业深度分析报告.docx

人工智能行业深度分析报告

 

 

(此文档为word格式,可任意修改编辑!

 

正文目录

 

图目录

 

表目录

1.人工智能即将进入产业爆发的拐点

自从2016年3月AlphaGo大战李世石以来,人们对人工智能的关注度空前火热,人工智能无疑会带来下一代科技革命,国内外互联网巨头Google、微软、亚马逊、XX、腾讯、阿里巴巴等在人工智能领域跑马圈地,各国也将人工智能上升到国家战略,企图抢占下一代技术革命的制高点。

这一波人工智能的兴起源于深度学习算法的突破,深度学习算法突破过去人工提取特征的低效率、深层模型难以训练的局限,大大提高了算法的性能;其次,摩尔定律揭示了计算速度和内存容量能够每十八个月翻一番,之前计算性能上的基础障碍被逐渐克服,进入新时期,云计算、GPU的使用为人工智能提供新的可能;互联网、物联网的普及,数据积累呈爆发式积累,为训练算法,实现人工智能提供原料。

1.1.深度学习技术使人工智能达到商用化水平

在深度学习出现之前,机器学习领域的主流是各种浅层学习算法。

初期的人工智能研究的重点是以机器学习为代表的统计方法。

机器学习是人工智能的一个分支,是目前实现人工智能的一个重要途径。

机器学习使机器从数据中自动分析习得规律,再利用规律对未知数据进行预测。

机器学习浅层算法如神经网络的反响传播算法(BP算法)、支撑向量机(SVM)、Boosting、LogisticRegression等。

这些算法的局限性在于对有限样本和计算单元的情况下对复杂函数的表示能力有限,对复杂数据的处理受到制约。

图1:

深度学习与机器学习的关系

图2:

机器学习原理

图3:

机器学习的思路

传统的机器学习需要人工提取特征,其思路是,从开始的通过传感器来获取数据,然后经过预处理、特征提取、特征选择、再到推理、预测或者识别,最后一部分也就是机器学习的部分。

中间三部分概况起来就是特征表达,是靠人工提取特征。

良好的特征表达对最终算法的准确性起到了非常关键的作用。

然而手工地选取特征既耗费时间又不能保证选取好,深度学习彻底解决了这个问题。

深度学习突破人工智能算法瓶颈。

2016年,Hinton等人提出深度学习神经网络,掀起了深度学习的浪潮。

“深度”某种意义上是指人工神经网络的层数,旨在建立可以模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据,例如,图像、声音和文本。

在短短几年内,深度学习颠覆了语音识别、图像分类、文本理解等众多领域的算法设计思路,创造了一种从数据出发,经过一个端到端(end-to-end)最后得到结果的新模式。

由于深度学习是根据提供给它的大量的实际行为(训练数据集)来自调整规则中的参数,进而调整规则,因此在和训练数据集类似的场景下,可以做出一些很准确的判断。

图4:

深度学习与传统计算模式的区别

Hinton发表在Science上的文章中指出深度学习具有如下特征:

1)多隐层的神经网络具有优异的特征学习能力,其习得的特征对于数据具有更本质的刻画,从而有利于进一步可视化或者分类;2)通过”逐层初始化“克服训练上的困难。

首先是优异的特征刻画能力。

特征是计算机能够理解的输入信号,不同粒度的特征输入对最终模型的影响巨大,例如,给模型输入原始像素点,模型很难从中得到有用的信息,更无法从中做出有关图形的进一步判断等操作。

合适的特征对实现功能至关重要。

表1:

传统深度学习提取特征方法

传统的提取特征的方法是通过大量的工程技术和专业领域知识手工设计特征提取器,因此在处理加工数据时能力有限。

深度学习把原始数据通过一系列非线性变换得到更高层次、更加抽象的表达,其复杂的结构、海量的参数设置,能够更好的完成特征提取。

对于很多训练任务来说,特征具有天然的结构层次。

以图像识别任务为例,图像的初始输入为像素,相邻像素组成线条、线条组成纹理,进一步组图案,图案组成物体的局部,直到形成整个物体的样子。

以计算机视觉为例,深度学习出现之前,基于寻找合适的特征来让机器辨识物体状态的方式几乎代表了计算机视觉的全部。

尽管对多层神经网络的探索已经存在,然而实践效果并不好。

深度学习出现之后,计算机视觉的主要识别方式发生重大转变,自学习状态成为视觉识别主流。

即,机器从海量数据库里自行归纳物体特征,然后按照该特征规律识别物体。

图像识别的精准度也得到极大的提升,从70%+提升到95%。

图5:

深度学习对图像识别的提升

深度学习在人脸识别中应用的最为成熟。

深度神经网络算法将人脸的图画信息内容提炼为逐个单元特征,并组合为更高级的复杂特征,如面部器官,进而实现对人脸识别。

科大讯飞的RNN深度学习算法在语音识别中的误识率为0.7%,旷世科技、格灵深瞳的人脸识别算法误识率为0.001%,满足商用的需求。

表2:

语音识别、人脸识别技术程度

图6:

深度学习在人脸识别中的应用

1.2运算力和数据量为人工智能提供引擎

深度学习对于运算速度和数据量提供了新要求。

例如斯坦福大学的交通指示牌识别实验,用传统的线性模型,识别准确率为92%,所需训练时间为13s,而采用深度神经网络模型的识别准确率高达98.8%,其所需的训练时间也提升到783s。

图7:

线性模型用于交通指示牌识别实验

图8:

深度神经网络模型用于交通指示牌识别实验

1.2.1海量数据为人工智能发展提供燃料

数据量和算法可以分别比作人工智能的燃料和发动机。

数据集的丰富和大规模性对深度学习算法训练尤为重要。

实现精准识别的第一步,就是获取海量而优质的应用场景数据。

以人脸识别为例,训练该算法模型的图片数据量至少应为百万级别。

图9:

数据在深度学习中的应用

2000年以来,得益于互联网、社交媒体、移动设备和廉价的传感器以及物联网的发展,世界上产生并存储的数据量急剧增加,为通过深度学习的方法来训练各种模型。

IDC数据显示,从2011年起,全球所产生的数据量已达到ZB级别(1ZB约为10亿GB),海量的数据为深度学习提供源源不断的素材。

而数据量对提高算法准确率具有重要的作用,对于人工智能公司而言,数据是最大的壁垒。

图10:

人工智能决策过程

图11:

数据在深度学习中的应用

1.2.2运算力提升和运算成本下降大幅推动人工智能发展

深度学习算法需要强大的计算能力支撑,深度模型参数多,计算量大,数据的规模更大,需要消耗很多计算资源。

Google大脑项目,使用包含16000个CPU核的并行计算平台训练超过10亿个神经元的深度神经网络。

AI芯片的出现让大规模的数据效率大大提升,加速了深层神经网络的训练迭代速度,极大的促进了人工智能行业的发展。

AI算法的处理需要大量的矩阵计算操作,因此特别适合使用并行运算芯片进行数据处理。

而传统的CPU一次只能做一两个加减法运算,无法满足并行运算的需求。

目前出现了GPU、NPU、FPGA和各种各样的AI-PU专用芯片。

而其中,出现最早的GPU为人工智能的发展做出了巨大贡献。

擅长并行计算的GPU大幅提升机器学习效率。

深度模型训练是一件比较复杂的事情,很多事项需要注意,如网络结构的选择,神经元个数的设定,权重参数的初始化,学习率的调整,Mini-Batch的控制等,具体实践中还需要反复尝试、多次训练。

在GPU出现之前,算法运行的速度是很慢的,即使一个简单的神经网络数据的培训,也得花费几天、甚至几周时间。

1999年,NVIDIA公司提出了GPU(图像处理器)概念。

GPU是专为执行复杂的数学和集合计算而设计的数据处理芯片。

它的出现让并行计算成为可能,对数据处理规模、数据运算速度带来了指数级的增长,极大的促进了人工智能行业,尤其是计算机视觉领域的发展。

图12:

人工智能芯片

GPU与传统CPU相比,在处理海量数据方面有压倒性的优势。

据RajatRaina与吴恩达的合作论文“用GPU进行大规模无监督深度学习”显示,在运行大规模无监督深度学习模型时,使用GPU和使用传统双核CPU在运算速度上的差距最大会达到近七十倍。

在一个四层,一亿个参数的深度学习网络上,使用GPU将程序运行时间从几周降低到一天。

图13:

人工智能芯片

今天,数据处理速度不再成为制约计算机视觉发展的主要瓶颈。

想要发挥专用芯片的计算优势,需要芯片结构和软件算法两者相匹配。

目前的趋势是,随着对人工智能各类应用需求的不断增强,专门用于加速人工智能应用的AI-PU或将成为计算机另一个标配组件。

目前GPU已经发展到了较为成熟的阶段。

谷歌、微软、Facebook、XX等公司都在使用GPU分析图片、视频和音频文件,改进搜索和图像标签等应用功能。

VR/AR产业也在使用GPU,同时很多汽车生产商也在使用GPU作为传感器芯片发展无人车技术。

研究公司TracticaLLC预计,到2024年深度学习项目在GPU上的花费将从2015年的4360万增长到41亿美元,在相关软件上的花费将从1.09亿增长到104亿。

除了使用GPU之外,很多公司都在研究用其他的芯片来替代GPU,如NvidiaTeslaP100芯片,谷歌的TPU,微软研发FPGA、寒武纪芯片、IBMTrueNorth等。

其中由中科院研发的寒武纪芯片是国际首个专注于深度学习加速的芯片,2012年中科院计算所和法国Inria等机构共同提出了国际上首个人工神经网络硬件的基准测试集benchNN,提升了人工神经网络处理速度,有效加速通用计算,此后,中科院计算式和法国Inria研究人员共同推出一系列不同结构的DianNao神经网络硬件加速器结构,2016年3月,中科院计算所,陈云霁、陈天石课题组、寒武纪公司提出的寒武纪深度学习处理器指令集Cambricon被计算机体系结构领域顶级国际会议ISCA2016接收,在所有近300篇投稿中排名第一,在深度学习处理器指令集方面取得了开创性进展。

目前寒武纪芯片产业化在即,预计2018年上市,市场表现值得期待。

此外,NvidiaTeslaP100芯片是NVIDIA2016年新推出的专门用于加速深度学习的芯片;TPU为Googletensorflow平台专用;IBM推出的脉冲神经网络芯片TrueNorth,走“类脑计算”路线,但离商用可能仍有一段距离;FPGA以其低能耗、高性能以及可编程等特性,十分适合感知计算,微软、XX、IBM等都有专门做FPGA的团队为服务器加速,未来前景可观。

图14:

寒武纪芯片

1.3资本持续投入催化产品化进程与产业链的构建

人工智能领域投资额逐年增长,5年增长12倍。

从2006年提出深度学习之后,人工智能才有了实质性的进展。

该领域的创业公司逐渐增加,2011年开始投资额度飞速增加,据VentureScanner统计,截止到2016年Q2,全球人工智能公司已突破1000家,跨越13个子门类,融资金额高达48亿美元。

图15:

AI行业全球投资额

图16:

2000-2015年成立的人工智能公司数量

深度学习、自然语言处理和计算机视觉是创业最火热的领域。

目前受到关注度最高的AI应用有自然语言处理、图像识别的深度学习、计算机视觉、自动驾驶、聊天机器人等。

其中研究深度学习应用的公司最多,自然语言处理和计算机视觉的公司其次。

同时,深度学习和自然语言处理获得的融资额也是最多的。

应用型的深度学习公司融资额最高为2.1亿美元,自然语言处理类的公司总融资额为7000万美元,位居第二位。

图17AI公司融资额及相应公司数量

国内获投最多领域为NLP、机器人和计算机视觉。

从1996年至今,国内至今仍在运营的人工智能公司有366家。

通过数据分析可以看出,计算机视觉、机器人、自然语言处理是创业最热门的领域。

2015-2016年人工智能领域获投金额在90亿人民币左右。

可以看出,获投最多的细分领域有自然语言处理、机器人、计算机视觉,均在10亿以上人民币的级别。

图18:

国内各领域人工智能公司数量

图19:

国内人工智能公司获投金额

智能安防、智能家居为平均单个公司获投金额最高的领域,平均获投金额在一亿元以上。

智能安防领域的获投企业均是人工智能领域的明星企业,如旷世科技、商汤科技等。

图20:

国内平均单个公司获投金额(万元)

随着资本持续投入,人工智能相关的产品不断催化,产业链不断构建。

1.4政策加码,加速人工智能发展

AI的重要意义是它对每一个行业和领域带来指数级的效率推动作用。

AI作为推动社会生产力的技术,必然会造成社会分工的一次重大变革。

作为第四次工业革命中重要一项,AI已经成为国与国之间角逐的要点。

1.4.1国内人工智能首次写入政府工作报告,政策不断落地

国内近两年相继出台扶植人工智能发展的政策,积极推动人工智能在各个细分领域的渗透。

,2017年两会上,人工智能更是首次写入政府工作报告,2016年5月,国家四部委更是颁布《“互联网+”人工智能三年行动实施方案》,明确提出要培育发展人工智能新兴产业、推进重点领域智能产品创新、提升终端产品智能化水平。

表3:

人工智能相关国家政策

1.4.2国外人工智能政策

各国均在政策层面强调和推动人工智能的发展。

其中,美国侧重于研发新型脑研究技术;欧盟主攻以超级计算机技术来模拟脑功能;日本则聚焦以动物为模型研究各种脑功能和脑疾病的机理。

表4:

人工智能相关国家政策

随着资本持续不断的投入,人工智能产品不断催化及形成产业链,进而使得计算效率进一步提升,数据量不断积累,巨头在人工智能各个方面布局,技术随着迭代不断成熟,人工智能即将进入产业爆发点。

2.人工智能产业链明晰,科技巨头卡位布局

2.1.产业链可分为基础支撑层、技术应用层和产品层

从产业链来看,人工智能可以分为基础支撑层、技术应用层和产品层。

基础支撑层主要由算法模型(软件)和关键硬件(AI芯片、传感器)两部分构成。

传感器负责收集数据,AI芯片(GPU、FPGA、NPU等)负责运算,算法模型复杂训练数据。

技术应用层主要由感知类技术和其他深度学习应用构成。

感知技术主要用于让机器完成对外界的探测,即看懂、听懂、读懂世界,由计算机视觉、语音识别、语义理解构成,是人工智能产品或方案不可或缺的重要部分。

只有看懂、听懂、读懂才能够做出分析判断,进而采取行动,让更复杂层面的智慧决策、自主行动成为可能。

方案集成是集成一类或多类基础应用技术而面向应用场景特定需求的产品或方案。

人工智能作为一类技术,应用在多种多样的应用场景中;而在各类产品中人工智能的比重或有区别,但其本质都是让机器更好的服务于我们的生产和生活。

图21:

人工智能产业链

2.2.巨头打造开源平台、布局AI芯片和核心技术

人工智能被认为是引爆下一代产业革命的技术,国内外巨头纷纷布局人工智能产业链,主要有三种方式:

打造开源平台、布局AI芯片、布局AI核心技术。

从产业链角度来讲,无论是开源平台、AI芯片还是AI核心技术,都是偏产业链上游的基础设施。

2.2.1.打造人工智能开源平台,“开放”谋求大生态

开源是科技巨头在人工智技术层的共同选择。

开放的安卓系统在手机中获得成功,份额高达87%。

科技巨头通过推出算法平台吸引开发者,希望能够实现快速的产品迭代、活跃的社区、众多的开发者,从而打造开发者生态,成为行业标准,实现持续获利。

谷歌、Facebook、IBM、微软等科技巨头相继推出并开源自家的人工智能平台。

Google开源人工智能系统TensorFlow和训练平台DeepMindLab。

TensorFlow是谷歌基于DistBelief研发的第二代机器学习系统。

是一个能处理多种语音理解和认知任务的开源软件库。

DeepMindLab是针对基于代理的AI研究而开发的平台,为学习代理提供了一系列颇具挑战的三维探索和解谜任务。

旨在为AI研究,尤其是深度强化学习提供试验田。

DeepMindLab具有高度可定制、可扩展性。

微软开源CNTK。

CNTK是一个“统一的深度学习工具箱”它把神经网络描述为通过有向图进行的一系列计算步骤,最初用在语音识别方面,现在已成为通用的、独立于平台的深度学习系统,支持对常用深度神经网络架构的结构性执行,支持多个计算设备以及多个GPU的计算。

CNTK具有商用级别的质量,Skype、微软小冰、必应搜索、Xbox和业内顶级的数据科学家已经在使用CNTK来开发商用AI。

IBM开源SystemML。

SystemML为使用大数据的机器学习提供了一个理想的环境,可运行于ApacheSpark之上,是一个机器学习算法的解码器,帮助开发者创建用于不同工业领域预测分析的机器学习模型。

旨在帮助数据科学家把算法转化到生产环境,而不需要重新编写底层代码。

因次,IBM号称能把数据分析从笔记本电脑扩展到大数据中心。

使专业领域或专门行业的机器学习成为可能,给开发者带来一系列的帮助,从底层代码到定制应用。

Facebook开源Universe和文本分析工具FastText。

2015年11月,facebook投资的OpenAI公司宣布对旗下AI训练平台“Universe”开源,这是一个与DeepMind十分类似的平台,目标也是给开发者们训练,测试AI代理提供平台。

Universe包含上千种不同的训练环境,希望能开发出一个单个AI代理,能灵活的把其过去经验应用于Universe场景中,来迅速掌握陌生、困难的环境,这是走向通用智能的关键一步。

AlphaGo能在围棋上轻松赢你,但是你无法教会它其他棋牌游戏,然后让它跟你玩。

Universe使得AI能够处理多种类型的任务,让它发展出“关于世界的知识和解决问题的战术,并能有效应用于新任务。

XX开源PaddlePaddle机器学习框架:

XX深度学习PaddlePaddle是一个云端托管的分布式学习平台,对于序列输入、稀疏输入和大规模数据的模型训练有着良好的支持,支持GPU运算,支持数据并行和模型并行,仅需少量代码就能训练深度学习模型,大大降低了用户使用深度学习技术的成本。

AI开源平台是一个深度学习的工具箱,用户可以在其开放的平台上使用其算法系统,获取开源代码。

自从深度学习取得突破性进展后,巨头们频频开源。

根本原因在于,尽管算法是竞争的一个障碍,但数据和应用场景的甄别才是真正要攀登的高峰。

当AI公司使用开源平台进行算法的迭代时,开源平台可以获取数据,以及市场对应用场景热度的反馈。

大量的创业公司会采用开源做垂直领域的业务,并试错验证,最终返回到开源,在算法被优化的同时,平台也可以通过用户行为的反馈甄别哪些是更有市场潜力的应用场景。

我们认为,开源平台是人工智能技术层的发展方向,更高效的开源平台将孕育更庞大的场景应用生态,也将带来更大的市场价值。

长期看,开源平台将向优势公司集中。

表5:

人工智能产业链

2.2.2.布局AI芯片,抢占技术制高点

人工智能基层芯片作为重要的底层架构,具有极强的战略意义。

目前并行运算的GPU广泛应用于AI领域,NVIDIA在该市场份额超过80%。

其他科技巨头希望研发新一代芯片提升计算性能并打破垄断。

谷歌专为其深度学习算法TensorFlow设计专用集成芯片TPU,IBM推出神经元芯片,降低功耗,微软研发基于FPGA的A-eye芯片,赋予摄像头视觉理解力。

英特尔将于2017年推出为AI深度学习设计的IntelXeonPhi处理器,强度与CPU协调工作的GPU技术,能快速计算,并根据概率和联系做决策。

中科院推出专门面向深度学习技术的处理器芯片“寒武纪”。

NVIDIA—GPU行业领袖,成人工智能芯片领头军

英伟达的GPU是图像处理的行业龙头,GPU芯片的同步并行运算非常适用于人工智能的深度学习神经网络。

事实证明,在浮点运算、并行计算等部分计算方面,GPU可以提供数十倍乃至于上百倍于CPU的性能。

目前国际GPU市场被NVIDIA和AMD两大公司瓜分。

截至2015年第二季度,NVIDIA市场份额已达到82%。

谷歌无人驾驶汽车所采用的技术部件中,就采用了NVIDIA的移动终端处理器Tegra(4核CPU+256核GPU)。

英伟达将人工智能作为公司的发展方向,推出一系列深度学习GPU:

TitanX,Jetson,Tesla以及无人驾驶专用平台DRIVEPX。

GPU在仅仅三年内便将深度神经网络(DNN)的训练速度提高到50倍,预计未来几年还要再提高数倍。

2016年8月,英伟达推出首台深度学习超级计算机NVIDIADGX-1。

DGX-1包含由NVIDIAPascal技术支持的TeslaP100GPU加速器,并采用NVIDIANVLink互联技术,软件堆栈包含主要深度学习框架、NVIDIA深度学习SDK、DIGITS™GPU训练系统、驱动程序和CUDA,能够快速设计深度神经网络(DNN)。

,NVIDIA宣布全新数据中心加速器TeslaP100已经供货,TeslaP100计算卡面向人工智能、自动驾驶、气候预测、医药开发等专业领域。

图22:

2013-2015年GPU市场份额

图23:

NVIDIA的DGX-1提升运算能力

图24:

NVIDIA的DGX-1提升深度学习训练速度

Intel—基于Nervana技术的AI芯片&FPGA

2016年英特尔花费4亿元收购一家创业公司Nervana,Nervana一直在研究将深度学习算法嵌入到计算芯片之中,而不是简单的打造能够在大量图形处理器上运行的软件,这个逻辑和英特尔发力人工智能芯片的思路不谋而合。

英特尔称,与图形芯片相比,Nervana技术可以使深度学习系统运行速度提升100倍,计划2017年销售集成Nervana技术的芯片,在深度学习市场挑战英伟达优势,英特尔计划在至强处理器中整合Nervana芯片和软件。

同时,英特尔收购FPGA生产商巨头Altera,研发基于FPGA技术的人工智能芯片。

图25:

英特尔Nervana产品组合

Google—定制化TPU芯片+量子计算机。

谷歌为其深度学习神经网络打造基于ASIC的专用TPU芯片(张量处理器)。

该TPU芯片也用于AlphaGo的系统中。

ASIC是专用集成电路,具有体积更小、功耗更低、性能提高、保密性增强、成本低等优点。

TPU目前在谷歌主要用于:

1)、机器学习系统RankBrain,用于帮助谷歌处理搜索结果;2)、街景StreetView,用于提高地图与导航的准确性;3)、围棋人工智能AlphaGo,其最初版本使用48个CPU+8GPU,对战樊麾时升级到1202CPU+176GPU,对战李世石时升级至TPU版本。

谷歌同时致力于量子计算机的研究,2013年从加拿大公司D-Wave购买一台量子计算机,佐证“量子退火”算法。

2014年谷歌、NASA与美国大学太空研究协会联合成立了谷歌量子人工智能实验室。

谷歌指出了早期量子计算最可行的三个商业用途:

量子模拟,量子辅助优化和量子采样。

采用这些技术,可以让材料、金融、保健等行业从中受益。

,谷歌量子AI实验室的三名科学家在nature上发表文章指出:

小型的量子计算机会在5年内逐渐兴起。

图26:

GoogleTPU板卡

微软:

重点研发FPGA人工智能芯片,推出基于FPGA的视觉芯片

在谷歌、亚马逊开始研发硬件芯片时,微软也在做出改变,把重心放在FPGA人工智能芯片上,目前FPGA已经被应用在Bing搜索的支持上,基于神经网络推动新的搜索算法,执行速度比传统的芯片会快很多倍,只需要24ms就可以实现搜索,规避了以往长达四秒搜索空白的尴尬。

其FGPA同样能够支持微软的云计算服务Azure,未来微软全球的数百万部的服务器将会用FPGA。

同时微软推出基于FPGA技术的视觉芯片A-eye,使得摄像头具有视觉理解能力。

FPGA的输入到输出之间并

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 人文社科 > 法律资料

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2