清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

文/中国建设银行电子银行业务中心 於学松

(本文为“2020金融文字节——银行数字化创新主题征文大赛”投稿文章。)

摘要:过去几年,人工智能在金融领域的应用取得成功,金融服务模式正在被智能应用改变。随着全球数据快速增长,以及摩尔定律趋于失效,智能金融的持续发展面临困难。量子计算具有强大的并行计算能力,量子计算与机器学习的交叉研究已成为近年来的热点研究方向之一,未来有望重塑智能金融的发展水平。不过,量子计算与智能金融的结合还需要应对一些困难,基于此,本文从三个方面提出一些发展建议。

关键词:量子计算;人工智能;智能金融;大数据

一、引言

2017年7月,国务院印发《新一代人工智能发展规划》,针对金融业提出“要创新智能金融产品和服务,发展金融新业态”。与此同时,随着大数据、云计算和互联网等信息技术发展,泛在感知数据和GPU等推动以深度神经网络为代表的人工智能技术快速发展,让人工智能得以广泛地投入各类应用中(谭铁牛等,2018)。目前,人工智能在金融领域比较典型的应用包括生物识别、智能客服、智能营销、智能信贷等,这些领域的应用相对较为成熟。除此之外,人工智能在金融监管、风险防控、量化交易、信用评级、智能投顾等领域也取得了一定突破。

不过,智能金融的快速发展也遇到诸多难题,计算资源匮乏、技术风险溢出、监管体制落后等都是必须正视的挑战(傅强,2018;陶峰和万轩宁,2019),其中尤以数据快速增长引发的计算资源匮乏最为棘手。随着摩尔定律逐渐失效,全球数据总量呈几何式增长,使得传统计算资源在大数据处理方面变得越来越乏力(王书浩和龙桂鲁,2015)。不少中外学者和科技企业将目光聚向量子计算领域,量子计算具有完全不同于经典计算的技术机制,在解决一些特定问题上具有显著优势,在智能化应用领域前景广阔(黄一鸣等,2018)。量子计算的原理是什么,当前的发展现状和趋势怎样,与人工智能的结合能够迸出怎样的火花,如何发挥在金融领域的价值,正是接下来要探讨的问题。

二、量子计算与智能金融:逻辑关联性

金融业与各行业、各部门的生产经营紧密连接,又与千家万户和社会成员的生活息息相关,在错综复杂的资金链、产业链和供应链中,大量的数据信息被金融业记录和存储,金融业已经成为典型的信息密集型产业部门。与此同时,现代金融体系又是一个时刻产生大量微观数据的动态系统,每时每刻都有大量新的数据产生,金融对数据处理的“高精度”要求,使得传统方法很难有效对这些数据进行准确分析和预测。人工智能的发展,尤其是机器学习、深度学习技术的突破,为解决这一问题找到了可靠的途径,在金融市场预测、文本信息处理、交易策略改进等方向上取得一定成效(苏治等,2017)。

虽然智能金融取得的成绩值得肯定,但整体来看,智能金融发展还处于初级阶段,无论是智能金融的应用规模,还是表现出来的智能化程度,都有巨大提升空间,计算资源约束是限制智能化发展的主要因素之一(王书浩和龙桂鲁,2015)。进一步提升智能金融发展水平,突破经典计算的局限,需要从技术手段上寻找新突破口。不少中外学者将视线聚焦到了量子信息技术领域,探索量子计算能够带来的解决方案。本章在分析智能金融技术机制和面临难题的基础上,引入量子计算的概念,并从原理上分析量子计算在智能金融中的应用潜力。

(一)智能金融技术实现机制

数据、算法和硬件算力是构成人工智能技术的三要素(曾毅等,2016;尹首一等,2018),也是推动智能金融发展的“三驾马车”。

首先,信息技术快速发展使得产业数据呈爆发式增长,这里既包括数据总量的增长,也包括数据种类、结构和增速的增长,这些数据为机器学习奠定了重要的物质基础(黄一鸣等,2018)。信息化推动金融与互联网络深度融合,金融核心系统、关键流程、客户关系、业务往来等要素均建立在信息技术基础之上,并依托于信息网络产生大量可用数据。

其次,计算机技术发展产生了许多优秀算法,让大量的碎片化数据得以转化为有用信息。特别是以深度学习为代表的数据处理技术,让人工智能发展步入加速通道(尹首一等,2018)。这种模拟人脑神经网络的计算处理技术,有效克服了以往局部最优难题,让人工智能的性能表现大幅提升(梁迎丽和梁英豪,2019),也催进了智能技术的商用水平,基于深度学习算法的应用在价格预测、量化投资等金融领域取得了显著成效(尹首一等,2018;李斌等,2019)。

最后,人工智能规模化商用还必须有强大的算力支持,芯片技术的推陈出新是关键。从CPU到GPU、FPGA、DSP再到ASIC,芯片的性能越来越强,可靠性越来越高,而相应的能耗越来越低,体积越来越小(曾毅等,2016)。作为人工智能的硬件基础,AI芯片备受各国重视,谷歌、IBM、因特尔、中国科学院等都在积极发展AI芯片技术。

(二)智能金融面临的难题

如前所述,金融业有着海量的复杂、高纬度、低价值纯度的数据,这些数据对机器学习本身就是一个巨大挑战。而随着5G时代到来,将推动万物互联的物联网蓬勃发展,金融泛在化使得金融与各类生产和生活场景深度融合,智能金融所依赖的物料基础即大数据将迎来新一轮爆发,很多传统机器学习算法将无法适应如此庞大的数据处理工作(黄一鸣等,2018)。

与此同时,摩尔定律逐渐失效使得传统计算机发展遇到根本性困难。从1965年摩尔定律首次被提出以来,计算机科学一直遵循集成电路芯片上可容纳的电路数每隔约18个月翻一番的规律,相应地计算机性能也会翻倍。不过近几年这一规律逐渐被打破,经典电子线路模型变得不再可靠,拓展计算集群芯片数量成为提升算力的主要方法,包括单机多核、多服务器等方案(张长水,2013)。不过,这一方法的弊端也显而易见,即需要配备庞大的硬件机房和机柜,并引发无法克服的能耗和散热问题。

既然大数据增长和摩尔定律趋于失效成为不可逆趋势,化解智能金融发展难题就需要解决两方面问题:一是提升数据归类和存储能力,二是优化机器学习算法应用(李佳等,2018;麻斯亮和魏福义,2018)。量子系统具有区别于经典计算的特质,量子计算的强大并行计算能力,能够实现对经典计算的加速,在提升数据分析能力方面优势明显。关于量子计算的原理、发展现状及在智能金融中的应用潜力,将在后续展开叙述。

(三)量子计算的概念和原理

1982年,Feynman提出了量子计算的概念(Feynman,1982),并指出以量子力学为基础的计算机在处理特定问题时,具有远超经典计算机的能力优势。这一概念提出后,引起了计算机领域的广泛关注,并在90年代先后诞生了著名的Shor算法、Grover算法,为后来量子计算技术发展奠定了重要的理论基础。

量子计算的主要原理就是利用了量子态的叠加性和纠缠性。比特作为计算的基本信息处理单元,具有0和1两种逻辑态,且在经典计算模式只能处于0或1的一种,而量子比特却能够处于0和1的叠加态。换言之,每个经典存储器仅能存储0或1其中一个,而量子存储器却能同时存储0和1。因此,当计算机有n个存储器时,经典计算模式每操作一次只能变化一个数据,而量子计算模式每操作一次则变化了2^n个数据,量子计算的数据处理能力是经典模式的2^n倍。当n足够大时,量子计算的优势将十分明显。

(四)量子计算发展现状

量子计算分为通用量子计算和专用量子计算两类,前者具有通用性能够解决各类计算难题,后者则是专门针对某类计算难题。目前,科研学术主要集中于专用量子计算领域,如包含128量子比特的D-Wave one在2011年就被用于先进武器设计和雷达开发测试等领域。从国内外发展进程来看,我国在量子计算领域起步较晚,主要研究阵营为高校和科研机构,商业化应用研究滞后。西方国家凭借基础学科优势,在研究成果和商用进程方面领先国内,主要研究团队集中在一些科技型企业中。

1.国外方面。以美国为代表的西方国家在过去几年加速推进量子计算的实用化研究进展,并取得一系列重大突破。2009年,美国国家标准与技术研究院率先推出首个量子计算小型设备,拉开量子计算机实用化序幕。2011年,加拿大D-Wave公司在推出全球首款基于量子退火算法的商用量子计算机,用于解决最优解问题。2016年,IBM推出全球首个量子计算云平台。2017年,因特尔研发出包含17量子比特的超导芯片,并交付给荷兰QuTech量子计算实验室。2019年,Arute等在世界顶级期刊《Nature》上发表Google的研究成果(Arute, F. et al,2019),其包含54 Qubit的量子处理器Sycamore在执行特定任务方面,远超最先进的传统计算机运算速度。

2.国内方面。近几年,随着国家政策支持力度加大,我国的量子计算技术在研发布局方面加速前进,并取得了一些重要的阶段性成果。2017年5月,中科大和中科院物理所共同研发出全球首台光量子计算机,实现至少2.4万倍的实验加速。2018年2月,中科院阿里云一同宣布实现11量子比特云接入超导服务,成为全球第二家实现10量子比特以上的超导量子计算云服务的系统。同年10月,华为的量子计算云服务平台问世。此外,包括腾讯、百度等互联网企业也在布局量子计算应用,成立相应的研究机构。不过整体而言,我国的量子计算商业化介入仍显著落后于欧美,主要研究阵营集中在中科院、清华大学、浙江大学、中国科学技术大学等机构和高校。

(五)量子计算在智能金融中的应用潜力

量子计算与人工智能作为信息科技的两个主流应用,在逻辑上存在着天然联系,人工智能因数据增长和摩尔定律趋于失效将面临算力瓶颈,而量子计算又有着远超经典计算的超强计算能力,二者的结合能否带来人工智能发展的又一次飞跃?事实上,量子力学与人工智能的融合正是当前热门研究方向之一,并取得了许多重要进展,国内外关于量子计算与人工智能(机器学习)的研究证明了量子机器学习算法的可行性和优势(Wiebe N, et al,2015;范桁,2018)。可以肯定的是,金融业作为人工智能发展的一个重要应用领域,借力量子计算突破算力瓶颈、升级智能水平具有重要现实意义。

三、量子计算在智能金融中应用探讨

上一章提到,智能金融持续发展需要解决两个问题:一是提升数据归类和存储能力,二是优化机器学习算法应用。而国内外将量子力学与机器学习结合的研究,主要致力于解决两方面问题:一是想通过量子计算提升机器学习的数据处理能力,二是基于量子力学性质寻找更加高效的机器学习算法(黄一鸣等,2018)。已有研究已经开发很多相较于经典算法有显著提速的量子算法,本章将列举几类典型的量子算法,分析它们在智能金融领域的应用价值,在此基础上,展望量子计算发展趋势及对智能金融发展带来的潜在影响。

(一)几类典型算法及在智能金融中的应用价值

1.量子聚类算法。聚类是一种无监督机器学习技术,根据相似性指标对数据进行分类,同一类内数据相似度高,反之则相似度低。聚类算法是预测的重要工具,也是模式识别的核心算法,在金融业被广泛应用于人脸识别、声音识别和欺诈监测等领域(Orús R et al,2019)。然而,随着近年数据快速增长,海量数据为聚类算法带来巨大挑战。以聚类算法中经典的k-means算法为例,在处理海量数据时主要采用大规模集群进行并行聚类,但随之而来的巨大能耗成为新难题。Lloyd等提出量子最近中心算法,基于量子态叠加原理实现多态并行操作,对经典k-means算法的过程进行优化,实现了指数级的提速(S. Lloyd et al,2013)。

2.量子分类算法。所谓分类,通俗地说,就是根据文本属性与特征的不同,划分至相应类别中。常见的分类算法包括最近邻算法、支持向量机、决策树算法、神经网络法等(黄一鸣等,2018)。分类算法在市场预测、信用风险评估等领域取得成功应用,这主要得益于这些算法具备判别能力。不过在大数据时代,这些算法也面临着各种约束。以神经网络法为例,虽然目前已有上百种不同模型,但普遍存在训练时间长、效率低和代价高等问题(Orús R et al,2019)。近年来,随着深度学习技术兴起,基于玻尔兹曼机的神经网络受到关注,它能被目前的D-Wave量子计算机训练。量子玻尔兹曼机受量子退火器或可编程量子光学开关阵列等特殊硬件的支持,实现了超过传统计算机的采样速度来调节模型参数,加速训练过程的收敛(陈佳临和王伶俐,2019),从而在提升机器学习效率的同时,降低所需的代价。

3.量子主成分分析算法。主成分分析法是一种通过数学变化进行变量简化的降维方法,目的是通过较少的变量解释原始变量。主成分分析通常用来处理复杂、高维数据,在降维过程中提取有效信息,摒弃无效或重复的信息,从而简化数据处理,是量化投资等金融领域常用的数据处理手段(Orús R et al,2019)。然而,在高维的数据空间中,主成分分析相当于要找出一个巨大矩阵的特征值和特征向量,其代价非常高。譬如,在投资组合分析中,需要根据大量的数据来预判股票收益率走势,大数据的快速增长使得更多数据被纳入影响股价走势的因子中,过多的因子不仅让预测变得极为复杂,还大大抬高了分析成本。Lloyd等提出了量子主成分分析算法,使用量子系统的多个密度矩阵副本构造对应特征值较大的特征向量,实现指数级的计算提速(S. Lloyd et al,2013)。理论上来说,这种方法在量化投资领域的应用,将使得风险和最大化收益评估提升到经典计算难以企及的水平。

除上述几种研究比较集中的算法外,还有很多其他算法,这些研究聚焦的问题,或基于量子计算的高并行性提升数据挖掘和分析能力,或基于量子力学原理产生新的算法,在推动人工智能升级上给了我们无限想象空间。

(二)量子计算对智能金融的潜在影响

科技上的重大突破和国家地区的战略支持,使得量子计算领域的发展和竞争日趋白热化,全球范围内的量子计算之争正在激烈进行。未来,随着量子计算技术的不断突破,它的发展或将带来一场新的产业革命,并对人工智能应用带来颠覆性影响。聚焦金融领域,量子计算技术预期将为智能金融带来以下改变:

首先,量子计算将显著提升金融的智能水平。严格意义上来说,目前的智能金融发展仍处于初级水平,智能风控、智能营销、智能信贷、智能监管等智能化应用只是“半截子”产品,究其原因就是缺乏强大计算能力支持,进而导致对数据的应用不充分。在可预见的未来,随着全球数据体量的快速增长,以及数据资源的渠道壁垒被打破,掌握更多数据资源的金融业在智能金融方面将面临更加严峻的算力约束,量子计算升级智能水平的算力优势也将更加明显。

其次,量子计算将大幅提升金融服务的智能化响应速度。众所周知,在金融领域,包括反欺诈、反洗钱、授信审批、支付清算等业务对时滞水平具有很高要求,不仅直接关乎金融资金安全,还将带来客服体验和声誉风险等一系列影响。5G时代的到来,开启了万物互联的闸门,更多碎片化和非结构化的数据将大量产生,并成为升级智能金融水平的原始物料,如何保障计算资源处理海量数据的速度,是金融机构必须面对的重大挑战。相对于经典计算,量子计算具有强大的并行计算能力,实现指数级的计算加速,在金融领域具有十分重要的应用价值。

最后,量子计算将节省大量能耗和设备空间。经典计算的有两个很显著的缺陷:一方面,经典计算的信息处理为不可逆的过程,会伴随大量的能耗产生,数据显示,2017年我国境内数据中心产生的能耗高达1200多亿千瓦时,预计到2025年将达到3840亿千瓦时。另一方面,随着单机计算能力趋于瓶颈,经典计算的算力提升需要靠增加服务器架构中的GPU来实现,如此以来就需要不断扩大机房规模,并由此为金融机构的系统维护带来巨大的硬件购置及维护成本(冯昭奎,2018)。量子计算则能很好地规避这两方面的缺陷,单台量子计算机所具备的强大计算能力足以媲美经典计算集群,而量子计算机的幺正变换又具备可逆计算能力,规避了经典计算无法克服的能耗问题(黄一鸣等,2018),从而降低智能金融发展所需的能源负担。

此外,量子计算技术有望推进人工智能在金融业的纵深发展,将更加“全能”的智能化应用推向市场,智能金融不再局限于智能客服、智能投顾和智能风控等前端的垂直应用,而是贯穿于金融体系生态链的各个环节。依靠量子计算的强大计算能力,实现数据驱动机制下沉,从前端业务条线渗透至中后台业务,形成整个系统闭环的决策智能化和流程自动化模式,即真正实现“All in AI”。

四、量子计算应用于智能金融的挑战

量子计算技术让智能金融的未来前景可期,但要实现量子计算在金融领域的规模化商用,还需要克服许多挑战,这里既包括量子计算本身需要解决的技术挑战,也包括量子计算与金融跨领域交叉带来的难题。

(一)技术上的挑战

量子退相干是实现量子计算主要难题。量子计算机高效并行计算的关键在于量子相干性,但事实上,量子比特与环境之间相互作用使得量子相干性很难持久,即相干性衰减,这就是量子退相干。退相干限定了量子计算机的运算时间,超出退相干时限,量子处理器中量子相干性丧失,量子算法的优势也将不复存在,这是量子计算机区别于经典计算机的显著特征。因此,攻克硬件难关,降低周围环境对量子电路元件的影响,提高量子位保真度,是延长退相干可靠解决方案之一。也有学者提出使用误差校正法校正退相干,通过在多个量子位上对量子态进行冗余编码来实现,但面临的障碍是操作一个容错的量子比特可能需要数千个物理量子比特(Earl C et al,2019),考虑到纠错方案所需的物理操作,这一方法并不可行,误差校正的方法必须开发新的更加可行的纠错方案。

信息转化为量子态是量子计算面临的另一难题。量子计算的过程,必须将经典信息转化为量子信息,Giovannetti等(2008)提出用量子随机处理器将经典信息编码到量子概率幅,但目前为止,我们还没有一个量子随机处理器能够有效地将这些信息编码为量子状态,并可靠地将其存储较长时间,这是量子计算面临的最大硬件挑战之一。

(二)跨领域交叉带来的挑战

一方面,量子计算属于量子力学和计算机科学的交叉学科,涉及不同学科领域专家协作问题,而推进量子计算落地到金融行业,还要解决技术与实用之间的结合问题。譬如,拥有1000量子比特的量子退火计算机解决最优化问题比经典计算快1亿倍,在量化投资领域应用潜力巨大,但这并非一蹴而就的事情,真正落地需要严格的规划与设计,包括软硬件、模型、数据的对接和转换等,过程十分复杂。因此,推进量子计算在智能金融中的实用,必须解决二者“无缝对接”的难题。

另一方面,智能金融的覆盖面十分广泛,不同业务种类的机器学习原理大相径庭,基于经典计算的智能应用场景已经形成比较完备的理论框架。但目前国内金融业尚未触及量子计算领域,一切必须从零开始。这也就意味着,要推进量子计算在金融业的发展和应用,必须投入必要的资源支持,包括基础设施的购置和搭建、专业的复合型人才引进和培养、与科研院校的交流和合作、持续的研发资金投入等,对于非技术见长的金融业来说,这些并非易事。

五、相关建议

2018年,波士顿咨询公司在篇名为《The Coming Quantum Leap in Computing》的研究报告中预测,2030年之前量子计算将取代经典计算,成为机器学习的主要算力支撑。在这一趋势下,既要正视挑战,又要积极应对和拥抱,基于金融业应用量子计算技术存在的挑战,本文提出以下发展建议。

(一)密切关注量子计算发展动态

过去几年,我国的量子保密通信技术发展迅速,在国际中处于领先优势,“京沪干线”的开通和“墨子号”的成功发射为量子保密通信的商业化应用奠定基础,包括工商银行、交通银行等金融机构已经开启量子保密通信的实用。与之相对的是,国内在量子计算方面发展相对滞后,当前正处于奋起直追的状态,并取得了科研领域的一些突破性成果。以阿里巴巴、腾讯为代表的互联网企业已经涉足量子计算领域,并取得了先发优势。在此形势下,传统金融机构有必要密切关注量子计算的发展动态,对量子机器学习发展进行合理化评估,适时制定量子计算应用的发展规划,为新一轮的数据爆发提前做好准备。值得一提的是,以工商银行、建设银行为代表的传统国有大型商业银行已经在关注量子计算的发展,为量子计算在金融领域的应用释放了积极信号。

(二)加速推进量子计算商业化研究

我国的量子计算研究主要集中于高校和科研院所,商业化滞后是导致我国量子计算发展进程缓慢的主要原因之一。目前,美国在量子计算领域处于绝对领先优势,这一方面得益于国家战略层面的支持,另一方面也受益于商业化的竞争机制。以谷歌、IBM、因特尔、微软为代表的互联网巨头企业纷纷斥重资投入量子计算研发序列,并与美国科研机构和高校形成良好的合作关系,共同组建研发团队和搭建基础设施,你追我赶的竞争态势催生了一系列重大成果。与此同时,以美国摩根大通、巴克莱银行和澳大利亚联邦银行为代表的金融机构也加入了量子计算研究阵营,并提供大量的资金支持。金融机构的优势是资金充足,能够满足技术攻坚所需的资金需求,对加速孵化软硬件基础具有重要推动作用。因此,我国的金融机构也可以效仿欧美国家,以商业化应用为驱动,参与到量子计算的研发阵列中,推动量子机器学习应用尽快商业化落地。

(三)深度参与量子计算的技术攻关

金融机构参与量子计算技术研发,最终目的是实现在智能金融领域的应用,克服大数据爆发带来的算力瓶颈难题,让智能客服、智能风控、智能投顾等金融服务迸发出更大的能量。因此,金融机构在密切关注量子计算发展动态和推进商业化研究基础上,还应以落地金融服务场景为目标,探索量子计算在金融不同领域的应用价值及需具备的条件。因此,有实力的金融机构一方面可积极联合政府、高校、科研机构建立“政产学研”联合研发体系,以实际应用为落脚点攻关克难,推动量子计算技术在金融业的应用落地。另一方面积极引进和培养复合型人才,在金融科技的大趋势下,向技术型人才适当倾斜,打造一批具备量子计算研发能力的高端人才队伍,专门致力于探索量子机器学习的研发。

六、结语

量子计算的快速发展让我们看到了新的曙光,在大数据加速爆发和摩尔定律趋于失效的形势下,新的计算资源开发显得尤为必要。随着世界各国对量子计算技术的重视度越来越高,以及一些重大难题的攻克,未来几年至十几年将迎来量子计算加速发展的机遇期。智能金融搭载人工智能技术,与量子计算在原理上具有契合性,二者的结合必将为智能金融的发展带来颠覆性变化,这也使得金融业积极加入量子计算研发阵营显得尤为必要和迫切。

参考文献:

[1]  陈佳临,王伶俐. 量子并行神经网络[J]. 计算机学报,2019,42(06):1205-1217.

[2]  范桁. 量子计算与量子模拟[J]. 物理学报,2018,67(12):16-25.

[3]  冯昭奎. 信息技术发展趋势与半导体产业增长点[J]. 国际经济评论,2018(04):46-66+5.

[4]  傅强.监管科技理论与实践发展研究[J].金融监管研究,2018(11):32-49.

[5]  黄一鸣,雷航,李晓瑜. 量子机器学习算法综述[J]. 计算机学报,2018(01):145-163.

[6]  李斌,邵新月,李玥阳. 机器学习驱动的基本面量化投资研究[J]. 中国工业经济, 2019 (08):61-79.

[7]  李佳,钱晨,黄之豪. 大数据时代 :人工智能与商业银行创新[J]. 新金融,2018((12):31-36.

[8]  梁迎丽,梁英豪. 人工智能时代的智慧学习:原理、进展与趋势[J]. 中国电化教育,2019(02):16-21.

[9]   麻斯亮,魏福义. 人工智能技术在金融领域的应用:主要难点与对策建议[J]. 南方金融,2018(04):78-84.

[10]  苏治,卢曼,李德轩. 深度学习的金融实证应用:动态、贡献与展望[J].金融研究, 2017(5):111-126.

[11]  谭铁牛,孙哲南,张兆翔. 人工智能:天使还是魔鬼?[J]. 中国科学:信息科学,2018,48(9): 1257-1263.

[12]  陶峰,万轩宁.监管科技与合规科技:监管效率和合规成本[J].金融监管研究,2019(07):68-81.

[13]  王书浩,龙桂鲁. 大数据与量子计算[J]. 科学通报,2015,60(Z1):499-508.

[14]  尹首一,郭珩,魏少军. 人工智能芯片发展的现状及趋势[J]. 科技导报,2018,36(17):45-51.

[15]  曾毅,刘成林,谭铁牛. 类脑智能研究的回顾与展望[J]. 计算机学报,2016,39(1):212-222.

[16]  张长水.机器学习面临的挑战[J].中国科学:信息科学,2013,43(12):1612-1623.

[17]  Arute, F., Arya, K., Babbush, R. et al. Quantum supremacy using a programmable superconducting processor. Nature,2019( 574): 505–510.

[18]  Earl C, Ankur K, Ashley M.Applying quantum algorithms to constraint satisfaction problems[EB/OL]. https://arxiv.org/abs/1810.05582. 2019-7-17.

[19]  Feynman R P. Simulating physics with computers[J]. International Journal of Theoretical Physics,1982,21(6/7):467-488.

[20]  Giovannetti V, Lloyd S, Maccone L. Quantum Random Access Memory[J]. Physical Review Letters,2008,100(16):160501.

[21]  Orús R, Mugel S, Lizaso E. Quantum computing for finance: overview and prospects[J]. Reviews in Physics, 2019(2):1-13.

[22]  S. Lloyd, M. Mohseni, and P. Rebentrost. Quantum algorithms for supervised and unsupervised machine learning,(2013), arXiv:1307.0411v2.

[23]  Wiebe N, Kapoor A, Granade C, et al. Quantum Inspired Training for Boltzmann Machines[J]. Computer Science, 2015(09):1-18.

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文版权归原作者所有,如有侵权,请联系删除。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。