您的位置:首页 >专题集锦 >

我国首次在超导量子计算平台中实现了由量子梯度引导的QGAN训练

2021-12-20 11:32:30    来源:C114通信网

从中国科学院物理研究所获悉,近日,中国科学院物理研究所/北京凝聚态物理国家研究中心范桁、许凯课题组和郑东宁课题组等,联合南开大学田建国、刘智波课题组,浙江大学王浩华课题组和清华大学邓东灵课题组,首次将QGAN 算法推广到了更多的比特范畴并引入了多体纠缠,并首次在超导量子计算平台中实现了由量子梯度引导的QGAN训练。

据了解,人工智能的核心是机器学习,而近几年,在机器学习领域冉冉升起了一枚新星,生成性对抗网络(GAN,Generative Adversarial Networks),由 Goodfellow 等人于2014年提出,目前在图像鉴别和视频生成等方面都有大量的应用实例。

但是,和机器学习的其它算法一样,GAN面临的最大问题就是所谓的“维数灾难”,即学习所需要的训练集数量是随着维数指数增长的。如果我们面临的数据存在于高维空间,那么经典计算机将很快便不能有效处理。现在拥有的量子计算可以解决经典计算机无法解决或者复杂度过高的诸多问题。同时,相比其它体系,超导量子计算这一技术路线在实用化量子计算方向具有优势地位。

那么,我们是否可以将GAN与量子计算结合起来,设计一种更高效的量子生成性对抗网络(QGAN,Quantum Generative Adversarial Networks)算法呢?

这一概念最先由 Dallaire-Demers等人提出,其基本原理与GAN类似, 区别在于这里G和D是由量子电路或者量子网络构成,训练用的数据集也可以是量子数据 (如量子态等)。至今在超导量子计算平台关于QGAN 的展示局限于单比特量子态的学习,而且其梯度计算仍为经典的差分方式,使得计算精度受固有的差分误差影响,进而影响最后训练的收敛性。与此同时,能够体现量子性质并且作为实现量子霸权的重要资源的量子纠缠并没有在已有的研究中体现。

研究团队在针对QGAN的实验中,使用包含20个量子比特的全联通架构的量子芯片,在该芯片上已经实现了包括20比特薛定谔猫态制备、动力学相变的模拟等一些高水平工作。本次实验用到了其中的 5个量子比特,相应的量子算法如图1所示,其中包括多个单比特量子门,多个多比特纠缠门以及多个两比特控制门,其线路深度超过20,实验中需要根据量子梯度引导去不断优化单比特量子门参数。

其次,为测试量子梯度的可行性,研究人员首先尝试训练了一个任意单比特混态,在经过140步左右的训练后,其生成的量子态相对于真实情况保真度为0.999, 见图2。

在该基础上,他们将学习目标更改为更加复杂的两比特异或门,通过大约190步的训练,研究人员以 0.927的保真度重现了异或门的真值表,见图3。这表明QGAN在复杂的量子过程学习方面有很大的潜力,随系统规模增大,它可以直接扩展到优化控制和自引导量子层析成像等领域。

此项成果已于近期发表,南开大学联合培养博士生黄凯旋,Q03组博士生王正安,以及浙江大学宋超特聘教授为论文的共同第一作者。合作团队还包括浙江大学博士后李贺康(量子芯片制备者)、浙江大学特聘教授王震、浙江大学杭州国际科创中心科创百人研究员郭秋江、浙江大学硕士生宋紫璇等。

除上述成果外,中科院物理研究所许凯副研究员、范桁研究员、郑东宁研究员等与福州大学郑仕标教授、杨贞标教授课题组合作,利用两个超导量子比特及其辅助能级实现了非阿贝尔几何受控非门;中科院物理研究所范桁研究员、博士生孙政杭与中国科学技术大学朱晓波研究员、潘建伟教授等合作,利用一维排列的12个超导量子比特,通过制备不同的初态,对应于不同的温度,实现了热化强弱程度不同现象的实验观测。

关键词: 量子 对抗网络 超导量子 计算研究

相关阅读

精彩推送