人工智能+量子计算行业展望调研投资分析报告.docx

上传人:b****2 文档编号:17095580 上传时间:2023-07-21 格式:DOCX 页数:15 大小:1.84MB
下载 相关 举报
人工智能+量子计算行业展望调研投资分析报告.docx_第1页
第1页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第2页
第2页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第3页
第3页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第4页
第4页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第5页
第5页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第6页
第6页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第7页
第7页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第8页
第8页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第9页
第9页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第10页
第10页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第11页
第11页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第12页
第12页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第13页
第13页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第14页
第14页 / 共15页
人工智能+量子计算行业展望调研投资分析报告.docx_第15页
第15页 / 共15页
亲,该文档总共15页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

人工智能+量子计算行业展望调研投资分析报告.docx

《人工智能+量子计算行业展望调研投资分析报告.docx》由会员分享,可在线阅读,更多相关《人工智能+量子计算行业展望调研投资分析报告.docx(15页珍藏版)》请在冰点文库上搜索。

人工智能+量子计算行业展望调研投资分析报告.docx

人工智能+量子计算行业展望调研投资分析报告

 

 

(此文档为word格式,可任意修改编辑!

 

正文目录

一、人工智能的瓶颈之一:

数据庞大,算力有限4

1、人工智能的突破为各个产业带来翻天覆地的变化4

2、三驾马车:

人工智能高速发展的基础是算法、数据和硬件算力6

3、木桶效应:

现有瓶颈集中于大数据的爆发与硬件算力的有限7

3.1、大数据迎来爆发式增长,现有算力无法匹配7

3.2、摩尔定律趋于极限,经典计算瓶颈需要被打破8

二、量子计算:

人工智能的革命性算力9

1、量子计算的算力呈指数级增长10

2、量子计算机的全球商业化进程加速11

3、量子人工智能算法相比经典算法节省大量时间13

三、量子计算提升人工智能效率,拓展应用场景14

1、服务器、云计算、量子计算是人工智能算力发展的必经阶段15

2、实际应用:

量子计算可用于大数据搜索16

3、量子计算时代将拓展人工智能应用场景17

3.1、量子芯片可实现人工智能的小型化18

3.2、量子计算可高速处理大数据,实现人工智能移动化19

相关建议20

风险提示:

20

 

图表目录

图1、人工智能、机器学习、深度学习关系4

图2、人工智能技术影响的产业5

图3、人工智能的三要素:

算法、数据和硬件算力6

图4、全球数据总量发展趋势(EB)8

图5、现有芯片设计工艺发展趋势9

图6、商用级非通用型量子计算机计算能力增长趋势11

图7、量子计算发展历史12

图8、量子算法与经典算法比较14

图9、人工智能算力需求三阶段16

图10、人工智能应用场景18

一、人工智能的瓶颈之一:

数据庞大,算力有限

1、人工智能的突破为各个产业带来翻天覆地的变化

人工智能的爆发是近两年才开始的,主要原因是使用效果上取得了突破。

人工智能是一门计算机技术,主要让计算机去去替代人来完成部分工作。

现如今主流的技术主要是指使用深度学习等算法,来实现替代人工,完成大量简单重复性劳动。

虽然人工智能的概念提出已有将近60年了。

但之前的发展速度一直偏慢。

主要原因是无论方法如何进步,实际使用效果依旧强差人意。

从2015年起,人工智能迎来了真正的大爆发,这很大程度上与GPU的广泛应用有关。

基于GPU,很多人工智能的算法,尤其是深度学习算法,实现了更快的处理速度,计算时间实现了数量级上的缩减。

这也各类大数据的蓬勃发展密切相关,数据的快速积累为人工智能这台马达提供了充足的燃料。

图1、人工智能、机器学习、深度学习关系

人工智能的高速发展为各个产业带来翻天覆地的变化。

目前很多商业领域已经采用人工智能,尤其是在Google、XX这样的公司,在他们的搜索、推荐、广告等领域都已使用了类似机器学习的技术,社交媒体营销,互联网广告,这都是几十亿几百亿的规模。

在股票领域中,很多新的创业公司重点在智能投顾,或者辅助交易,股票本身就是个数字,股票如何组合能够降低风险带来利润。

目前应用最为广泛的是在人脸识别领域。

人脸识别引入人工智能技术后,识别率大幅提升,其中核心的突破是在算法层面。

人脸识别中,人工智能能做到97%的识别正确率,超过了人类95%的识别率,这意味着大规模商业应用具备了价值的基础,尤其是安防领域、金融领域等,机器做的比人更好,就可以大规模使用机器来提高效果。

我们认为,人工智能最先涉及的领域包括但不限于:

安防、金融、教育、医疗、汽车等。

图2、人工智能技术影响的产业

2、三驾马车:

人工智能高速发展的基础是算法、数据和硬件算力

算法、数据和硬件算力组成了人工智能高速发展的三要素。

人工智能实现所需要具备的基础,第一个是优秀的人工智能算法,比如现在最流行的深度学习算法,就是近期人工智能领域中最大的突破之一,为人工智能的商业化带来了希望;第二个是被收集的大量数据,数据是驱动人工智能取得更好的识别率和精准度的核心因素;第三个是大量高性能硬件组成的计算能力,以前的硬件算力并不能满足人工智能的需求,当GPU和人工智能结合后,人工智能才迎来了真正的高速发展。

图3、人工智能的三要素:

算法、数据和硬件算力

三要素缺一不可。

为什么人工智能到近两年才开始呈现爆发?

主要是因为直到今日,人工智能的算法、数据和硬件才满足了人工智能的基本需求。

算法方面,以人脸识别为例,在2013年深度学习应用到人脸识别之前,各种方法的识别成功率只有不到93%,低于人眼的识别率95%,因此不具备商业价值。

而随着算法的更新,深度学习使得人脸识别的成功率提升到了97%。

这才为人脸识别的应用奠定了商业化基础。

第二,在数据方面,进入互联网时代后,才出现了大数据的高速发展与积累,这为人工智能的训练学习过程奠定了良好的基础。

比如,在AlphaGo的学习过程中,核心数据是来自互联网的3000万例棋谱,而这些数据的积累是历经了十多年互联网行业的发展。

所以直到今年,基于深度学习算法的AlphaGo才取得突破性进展。

离开了这些棋谱数据的积累,机器战胜人是无法实现的。

第三点是硬件的算力。

在二十年前,一个机器人,当时是用32个CPU,达到120MHz的速度。

现在的人工智能系统使用的是成百上千个GPU来提升的计算能力。

这使得处理学习或者智能的能力得到比较大的增强。

之前用CPU一个月才能出结果,然后再去调整参数,一年只能调整12次,也就是有12次迭代。

GPU产生后大幅提升了计算量,现在用GPU可以一天就出结果,这样可以迭代的更快,这是技术大幅发展的条件。

3、木桶效应:

现有瓶颈集中于大数据的爆发与硬件算力的有限

3.1、大数据迎来爆发式增长,现有算力无法匹配

互联网时代下的大数据高速积累,现有计算能力无法匹配。

全球的数据总量正以飞快的速度增长。

根据IDC的数字宇宙报告,全球所有信息数据中90%产生于近几年,数据总量正在以指数形式增长。

从2003年的5EB,到2013年4.4ZB,并将于2020年达到44ZB。

也就是说2020年每个人可以均摊到5200GB以上的数据量。

并且,到2020年,将近40%的信息都可能会被云提供商“触摸到”,约三分之一的数据,即超过13000EB的数据将具有大数据价值。

基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的人工智能,因为数据量以及超出了内存和处理器的承载上限,这将极大限制人工智能的发展和应用。

图4、全球数据总量发展趋势(EB)

3.2、摩尔定律趋于极限,经典计算瓶颈需要被打破

摩尔定律趋于失效,经典计算机的计算能力趋于瓶颈。

对于目前的经典计算机,处理器的计算性能已渐渐远离摩尔定律,因为CPU中晶体管的数量无法实现每两年翻一番的预期。

顶级科学期刊《自然》杂志认为,主要原因是现有芯片设计工艺已达到10纳米,预计2020年到达2纳米。

这个级别上的晶体管只能容纳10个原子,电子的行为将不再服从传统的半导体理论,此时晶体管将变得不再可靠。

图5、现有芯片设计工艺发展趋势

摩尔定律到达瓶颈后,提升算力的方式只能靠增加芯片数量。

目前,面对单个芯片的算力瓶颈,人们普遍的做法是做加法,即增加计算集群中芯片的总数量,来提升运算处理能力。

比如:

要计算1+1和2+2两个任务,对于单个芯片而言,就需要消耗两单位的计算时间,逐个完成这两个任务。

而同时使用两个芯片的话,经过一定程序上的优化,可以实现一个单位的计算时间内,完成这两项计算任务。

二、量子计算:

人工智能的革命性算力

量子计算机有望提供更强的计算能力。

量子计算机提供了另一条增强计算能力的思路。

它的并行计算的特性,使得它可以一次同时处理多个任务,有望实现计算能力上的超越。

1、量子计算的算力呈指数级增长

量子计算的核心优势是可以实现高速并行计算。

在计算机科学中,无论经典计算还是量子计算,他们的计算功能的实现都可以分解为简单的逻辑门的运算,包括:

“与”门,“或”门,“非”门,“异或”门等。

简单来讲,每一次逻辑门的运算(简称操作)都是都要消耗一个单位时间来完成。

经典计算机的运算模式通常是一步一步进行的。

它的每一个数字都是单独存储的,而且是逐个运算。

所以对于4个数字进行同一个操作时,要消耗4单位时间。

而量子计算中,一个2个量子比特的存储器可以同时存储4个数字,这里一个量子态可以代表所有存储的数字。

科学家通过特定设计对量子态进行一次变换,即可对4个数字同时操作,而且只消耗1单位时间。

这种变换相当于经典计算的逻辑门,实现了对存储器中的数字并行运算,这被称为量子并行计算。

可以看到,当量子比特数量越大时,这种运算速度的优势将越明显。

它可以达到经典计算机不可比拟的运算速度和信息处理功能。

量子计算机的量子比特数量以指数形式增长,算力将以指数的指数增长。

对于量子计算机,在半导体材料和超导材料等领域,科学家也已经积累了数十年的理论与经验。

现有的最有希望的量子计算机方案之一就是低温超导系统,它涉及了半导体材料与超导材料的应用,主要是基于硅晶体,掺杂一定量的超导材料,实现量子计算。

而现有的技术积累将极大促进该方案的发展与快速突破,用更短的时间(相比与经典计算机)实现大规模的商业化应用。

可以看到,量子计算机的量子比特数量以指数增长的形式快速上升,从2003年起的1位量子比特,到2013年512位量子比特的计算机,再到2015年实现1000位量子比特。

目前,非通用型量子计算机的已经实现了1000位量子比特,在特定算法上(比如模拟退火,一种优化方法),计算效率比经典计算机要快一亿倍。

图6、商用级非通用型量子计算机计算能力增长趋势

2、量子计算机的全球商业化进程加速

量子计算机经过近40年的时间的理论研究阶段,在2007年首次实现硬件方面商业化。

目前发展迅速的是非通用型量子计算机,而通用型量子计算机还处于起步阶段。

我们认为,通用型量子计算机和非通用型量子计算机最终将在市场上共存,并最终共同向经典计算机的市场份额发起挑战。

图7、量子计算发展历史

2007年,D-waveSystems实现了历史上第一台商用量子计算机。

宣布研制成功量子比特的量子计算机——“猎户座”(Orion)。

D-wave公司的量子计算机是用超导量子器件做成的。

所使用量子计算机方式是绝热量子计算,是将量子计算体系放置在体系的基态,而最终的计算结果就是最后的量子体系的基态。

2011年5月11日,该公司正式发布了全球第一款商用型量子计算机“D-WaveOne”,实现了128位量子比特。

它不是通用量子计算机,并不能运行所有的量子算法。

D-wave实际上是一台量子退火机(quantumannealingmachine),在图像搜索方面确实具有优势。

Google和NASA花1000万美金买一台D-wave,共同建立了QuantumAILab。

2013年它研制出的产品D-waveTwo,实现了512位量子比特,并将其销售给了Google,用于Google内部的量子计算的相关研发。

截止到2014年,该公司的累计融资总额达到1.6亿美元。

“十三五”规划期间,量子计算机被我国列为重点研究方向之一。

国内已有不少科研团队关注于量子计算领域。

包括中国科学技术大学的潘建伟教授,清华大学的应明生教授,中国科学技术大学的杜江峰教授等团队,主要关注点在于量子算法和量子计算机的实现上。

另有一些研究团队关注在高温新型超导材料(指接近室温的温度下,实现超导)等基础研究领域。

这些基础研究的突破也能大力促进量子计算产业的高速发展。

2016年8月,我国量子计算机研究取得突破性进展,中国科技大学量子实验室宣布成功研发了半导体量子芯片。

相关研究成果已在国际权威科研期刊上发表。

3、量子人工智能算法相比经典算法节省大量时间

与经典计算机不同,量子计算机使用经典算法,将无法实现并行计算。

经典计算机的计算核心使用的是中央处理器,是一种基于半导体理论设计的电子芯片,用于串行运算。

而量子计算机中,它的计算核心是量子芯片,通过量子的叠加性带来了并行运算的能力,替代传统的电子芯片。

可以看到,量子计算机与经典计算机的物理实现的完全不同,如果在量子计算机中使用经典算法的话,那么量子芯片将和普通电子芯片发挥基本相同的功能,只能实现串行计算。

这是由于设计经典算法时,其设计思想是基于串行运算而得到的,这是经典算法自身的局限性。

需要设计相应的量子人工智能算法,才能实现量子计算的超强算力。

这种专门面向量子计算设计的人工智能算法被称为量子人工智能算法。

近些年,在量子人工智能算法研究放面,谷歌开始建立量子人工智实验室,包括微软等在做一些人工智能方面的东西。

这几年开始,甚至在AlphaGo出来之前,在学界就已经有一些研究成果。

人工智能里面的分类问题,是大数据中常见的任务,根据已有的数据体现规律,判断新数据是属于哪一类。

MIT的研究小组在这方面已经取得了理论进展,实现了相应的量子人工智能算法。

相比于经典算法,该量子算法实现了指数级的加速效果。

图8、量子算法与经典算法比较

三、量子计算提升人工智能效率,拓展应用场景

在很多应用领域,人工智能需要拥有快速处理数据、快速响应的能力。

比如智能驾驶等应用场景,对于人工智能的反应速度要求很高。

再比如手机上的人工智能系统,对于数据的处理能力要求非常高,没法做到这么大量的数据快速传输到服务器端。

这些应用场景中,亟需人工智能的硬件系统实现可移动化和快速响应能力。

1、服务器、云计算、量子计算是人工智能算力发展的必经阶段

随着人工智能对硬件计算能力的需求不断提升,人工智能从单机或者小型服务器模式,逐步转型为云计算模式。

目前,随着人工智能应用的发展,单机或者小型服务器模式的两个劣势逐渐显现。

一方面,这种模式可提供的算力达到了一个瓶颈阶段,已无法满足人工智能对算力的需求;另一方面,这种模式是一次性采购的,对于用户的资金压力较大,并且后期维护成本不低,需要自己搭建相应的软件环境。

现阶段一种主要的解决方案思路是将人工智能应用或者服务放在云端,运用云计算平台提供更加优质廉价的人工智能服务。

主要的优点是可以按照实际需求来购买计算能力,随时满足现阶段的应用需求。

另一方面是付费模式相对弹性,按照使用状况来逐次结算费用,减轻资金压力。

图9、人工智能算力需求三阶段

随着数据量的急剧增长,量子计算的革命性算力才能满足人工智能的需求。

数据量的增长速度是呈指数级变化的。

在摩尔定律近乎失效的情况下,基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的功能。

而量子计算机的量子比特数量以指数形式增长,也就是每两年翻一番。

又因为量子计算的特点,其计算能力是量子比特数量的指数级,所以最终随着不断发展,其算力将以指数的指数增长。

这个增长速度将远远大于数据量的增长,为数据爆发时代的人工智能带来了强大的硬件基础。

2、实际应用:

量子计算可用于大数据搜索

在大数据中进行快速搜索,这是一项适用于量子计算的计算任务。

经典算法只能是一个接一个地搜寻,直到找到所要的目标为止。

比如从N个未分类的客户中寻找出某个特定的客户,这种算法平均地讲要寻找N/2次,才能以1/2的概率找到。

然而这样的搜索效率十分低下,对于各种大数据的应用场景基本不存在应用价值。

格洛弗(Grover)构造了量子搜索算法,实现了大数据的快速搜索。

具体而言,Gover量子搜索算法对无序数据库进行搜索可以平方根的程度加速实现。

例如,要从有着100万个号码的电话本中找出某个指定号码,经典方法是一个个找,平均要找50万次,才能以一般的可能性找到所要电话号码。

Grover的量子算法是每查询一次可以同时检查所有100万个号码。

由于量子计算的特殊性,这种搜索操作运算重复1000(即N的平方根)次后,获得正确答案的几率为1/2。

但若再多重复操作几次之后,找到需要的电话号码的概率近似于1。

Grover算法的用途很广,可以寻找最大值、最小值、平均值等,也可以用于下棋,这就具有了广阔的实际应用价值。

3、量子计算时代将拓展人工智能应用场景

从服务器到云计算,人工智能的应用场景得到了极大的拓展,我们认为量子计算也将拓展人工智能的应用场景。

我们认为,人工智能的发展存在三个阶段:

服务器时代、云计算时代、量子计算时代。

其中量子计算时代为人工智能带来的颠覆,除了计算能力方面,更重要的是极大地增加了应用场景。

图10、人工智能应用场景

3.1、量子芯片可实现人工智能的小型化

无论是服务器还是云计算,这些硬件系统都需要成百上千的处理器来实现。

现在的人工智能系统使用的是成百上千个GPU来提升的计算能力。

这使得处理学习或者智能的能力得到比较大的增强。

然而这套系统也需要庞大的硬件机柜和相配套的硬件机房。

较大型的人工智能的硬件系统需要将近半个足球场的占地空间。

这无疑是对人工智能发展的一个重要限制。

随着大数据时代的不断进步,数据将呈现指数级增长,而基于CPU或者GPU的云计算的数据中心将无法满足数据爆发的需求。

而未来一块量子计算芯片的算力足够人工智能的算力需求,实现小型化。

当量子芯片中的量子比特数量达到一定数量后,计算能力将足够人工智能的运算能力需求。

当量子比特数量越大时,这种运算能力的优势将越明显。

它可以达到经典计算机不可比拟的运算速度和信息处理功能。

目前,非通用型量子计算机的已经实现了1000位量子比特,在特定算法上(比如模拟退火,一种人工智能领域的优化方法),计算效率比经典计算机要快一亿倍。

也就是如果想要实现人工智能,原来需要一千台,或者需要一万台计算机的规模,现在用量子计算机的话一台就可以了。

而且这个量子计算的计算能力完全能够满足人工智能对速度的要求。

也就是人工智能将不再依赖于大型服务器集群,或者庞大的云计算中心。

3.2、量子计算可高速处理大数据,实现人工智能移动化

目前,量子计算较为成功的应用集中在大数据快速搜索。

这主要是因为这个应用领域中,诞生了相应的优秀的量子计算算法,使得经典计算体系中无解或者趋近无解的问题(需要消耗几百年甚至上千万年的时间),在量子计算的环境中,转化为了可解并且能快速求解的状态(只需要不到一秒或者几分钟的时间),使得这个领域成为目前量子计算的重要应用方向。

量子芯片的大数据处理能力将实现人工智能的移动化。

主要的应用场景包括:

车载智能系统,无人机的智能系统,或者手机上的人工智能系统。

主要可行的方案有两种。

第一是他们在实时的收集大量信息和传感器数据。

之后传输给云端的量子计算系统,在云端实现超短时间内的快速运算,然后再将结果反馈给相应移动端,实现对移动端的控制。

这种方案的优势在于他可以极大节省计算的时间,提高智能系统的响应速度。

另一种方案是通过自身携带的量子计算系统,他们可以在本地处理大量的数据,并且得到实时响应,指导汽车自动驾驶或者对手机终端反馈信息。

这个系统的优势是不只节省了计算时间,还完全省去了上传和下传数据的时间。

但是这种方案的不确定性在于量子芯片能否在日常环境中直接使用,比如不再要求超低温的环境等。

总而言之,这些应用场景对于数据的处理能力要求非常高。

而量子计算通过节省大量的计算时间,实现可移动化的人工智能系统,提供数据的快速响应能力。

相关建议

人工智能已被认为是继互联网之后新一代革命性技术及应用方向。

新产业突破需要借助相关产业链的进一步完善,量子计算的超强算力有望加速人工智能的突破和商业化应用,我们建议提前布局量子计算产业相关标的。

建议从中科院与中科大的技术导入产业的途径中寻找投资机会,首推:

中科曙光。

推荐:

神州信息、浙江东方(中小盘覆盖)、亨通光电(通信覆盖)

风险提示:

1、技术难以突破,产业落地较难;

2、被其他技术替代。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 自然科学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2