adtop
当前位置: 首页 > 手机

我们是否可以将GAN与量子计算结合起来设计一种更高效的量子生成性对抗网络算法呢

作者:宋元明清    来源:C114通信网   发布时间:2021-12-18 20:05   阅读量:11243   

从中国科学院物理研究所获悉,最近几天,中国科学院物理研究所/北京凝聚态物理国家研究中心范桁,许凯课题组和郑东宁课题组等,联合南开大学田建国,刘智波课题组,浙江大学王浩华课题组和清华大学邓东灵课题组,首次将QGAN 算法推广到了更多的比特范畴并引入了多体纠缠,并首次在超导量子计算平台中实现了由量子梯度引导的QGAN训练。

我们是否可以将GAN与量子计算结合起来设计一种更高效的量子生成性对抗网络算法呢

根据消息显示,人工智能的核心是机器学习,而近几年,在机器学习领域冉冉升起了一枚新星,生成性对抗网络,由 Goodfellow 等人于2014年提出,目前在图像鉴别和视频生成等方面都有大量的应用实例。

但是,和机器学习的其它算法一样,GAN面临的最大问题就是所谓的维数灾难,即学习所需要的训练集数量是伴随着维数指数增长的如果我们面临的数据存在于高维空间,那么经典计算机将很快便不能有效处理现在拥有的量子计算可以解决经典计算机无法解决或者复杂度过高的诸多问题同时,相比其它体系,超导量子计算这一技术路线在实用化量子计算方向具有优势地位

那么,我们是否可以将GAN与量子计算结合起来,设计一种更高效的量子生成性对抗网络算法呢。作为IBMQuantum的合作伙伴,E.ON可以通过IBMCloud访问IBM的量子计算系统,以及IBM的量子专业知识和Qiski量子软件开发人员工具。凭借这些IBM量子资源,E.On将与IBMQuantum技术服务团队合作,使这一创新成为可能。。

这一概念最先由 Dallaire—Demers等人提出,其基本原理与GAN类似, 区别在于这里G和D是由量子电路或者量子网络构成,训练用的数据集也可以是量子数据 至今在超导量子计算平台关于QGAN 的展示局限于单比特量子态的学习,而且其梯度计算仍为经典的差分方式,使得计算精度受固有的差分误差影响,进而影响最后训练的收敛性与此同时,能够体现量子性质并且作为实现量子霸权的重要资源的量子纠缠并没有在已有的研究中体现

研究团队在针对QGAN的实验中,使用包含20个量子比特的全联通架构的量子芯片,在该芯片上已经实现了包括20比特薛定谔猫态制备,动力学相变的模拟等一些高水平工作本次实验用到了其中的 5个量子比特,相应的量子算法如图1所示,其中包括多个单比特量子门,多个多比特纠缠门以及多个两比特控制门,其线路深度超过20,实验中需要根据量子梯度引导去不断优化单比特量子门参数

图1. QGAN 流程图全联通样品芯片简易示意图QGAN 实际算法电路图,其中品红色部分为量子梯度计算电路

其次,为测试量子梯度的可行性,研究人员首先尝试训练了一个任意单比特混态,在经过140步左右的训练后,其生成的量子态相对于真实情况保真度为0.999, 见图2。

图2. 任意单量子比特混态训练结果训练得到的和真实密度矩阵的对比,其保真度可达0.999

在该基础上,他们将学习目标更改为更加复杂的两比特异或门,通过大约190步的训练,研究人员以 0.927的保真度重现了异或门的真值表,见图3这表明QGAN在复杂的量子过程学习方面有很大的潜力,随系统规模增大,它可以直接扩展到优化控制和自引导量子层析成像等领域

图3. 异或门训练结果训练的真值表保真度为0.927训练过程中两个特征单比特量子门参数的变化

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

adl03