首页 理论教育 量子计算技术的新发展

量子计算技术的新发展

时间:2023-06-15 理论教育 版权反馈
【摘要】:对于量子计算机来说,也应该由类似的结构构成。这也是半导体量子芯片目前只有少数团队在进行研究的原因。2014年,澳大利亚新南威尔士大学A.S.Dzurak等人实现99.6%保真度的单个量子比特的操控。量子计算研制初期的时候,首先也是去构造量子的逻辑门。目前正在进行硅基电子自旋两量子比特逻辑门的实验。目前我们也做了24位的超导量子芯片,是基于可调耦合的固定频率量子比特架构来设计的。

量子计算技术的新发展

1)量子计算技术体系

回到技术本身,从技术体系上,我们可以看一下量子计算机与传统计算机有什么区别。传统计算机包括CPU、电源存储器等外围的硬件,从最底层的硬件到上层的操作系统和应用软件。对于量子计算机来说,也应该由类似的结构构成。首先是量子处理器,也就是通常所说的量子芯片(QCPU),怎么构成QCPU或者哪种物理体系适合做QCPU,目前还不能确定。但无论是哪一种物理体系去做量子处理器,都需要有QCPU、控制系统和相应的软件算法。我们团队主要聚焦于半导体量子芯片和超导量子芯片,对于这两种物理体系来说,目前还需要工作在10 mK左右的极低温环境下,需要极低温制冷系统来实现。未来的量子计算机可能采用与云计算类似的概念,至少不可能在短期内进入个人用户的手里,应该是通过提供量子云计算,把问题提交给量子计算器,由它处理完后再返回给用户。

2)半导体量子芯片

从半导体的角度来讲,量子处理器是把传统的载流子的集体导通/截止这种特性换一种思路来实现,用单个载流子如电子/空穴的量子状态来进行信息的编码。选择半导体芯片是因为我们看到Intel公司生产的半导体量子芯片,它跟传统的CMOS制作工艺基本上兼容。另外,量子芯片进行特定的量子操作,还需要各种各样的指令,而传统的芯片基本都是由半导体完成的。那么半导体量子芯片未来可以与传统半导体芯片在同一块片子上实现,甚至可以采用同一个工艺流程去统一设计,只是有的任务是通过调用QCPU来执行,有的任务还是在传统的芯片上进行。所以从机制及制造工艺的角度来讲,我们认为半导体量子芯片是未来的一个重要方向。但在国内做半导体量子芯片是有一些难度的,因为我们在传统半导体芯片的积累上相对落后。无论从高质量的材料、器件的设计以及制备工艺上,都与国外差距比较大,同时它对平台要求高,迭代周期长。这也是半导体量子芯片目前只有少数团队在进行研究的原因。

可以看一下国外在半导体量子芯片方面最近几年的进展情况。2014年,澳大利亚新南威尔士大学A.S.Dzurak等人实现99.6%保真度的单个量子比特的操控。2018年,日本东京大学S.Tarucha等人实现了99.9%保真度的单比特的逻辑门。同年,美国普林斯顿大学J.R.Petta等人实现了对两个比特的操控。事实上,量子计算过程跟传统的计算机过程类似,传统的计算机只要两个操作来构成所有操作过程,一个是0变1、1变0的非门操作,另一个是控制非门的操作,所有的运算过程实际上是由这样两个基本的逻辑门组合得到的。量子计算研制初期的时候,首先也是去构造量子的逻辑门。除单比特外,最重要的是两比特的逻辑门。普林斯顿大学实现的保真度是78%,代尔夫特理工大学将保真度提高到了85%,2019年澳大利亚新南威尔士大学实现两比特的保真度也达到80%。真实的量子计算过程可能需要成千上万个量子操控,以前的研究基本上实现了近邻的两比特的逻辑。但从实用化或可扩展的角度考虑,需要找到类似于经典计算机里的数据总线,使非近邻的量子比特也可以建立信息交换,实现量子相干性的长程耦合。2018年,普林斯顿大学实现了硅基的单量子比特与超导谐振腔之间的强耦合,到2020年,他们通过一个量子的数据总线即超导的微波谐振腔实现了两量子比特的长程耦合。

单个指标做完之后,更重要的一点就是要往上做,也就是集成。在2020年之前,半导体量子芯片的工作温度要求为10 mK,跟超导系统一样。2020年,在硅基半导体上的一个最重要进展是把工作温度大幅提高到了1.5 K,同时单比特和两比特的保真度依然可以达到90%以上。这降低了对制冷机的要求,在同一块片子上实现大规模集成难度也下降了很多。

下面简单汇报一下我们在做的半导体方面的进展。我们现在用到的硅基材料,包括前面提到的澳大利亚新南威尔士大学和代尔夫特理工大学所用的硅基材料,与传统的硅晶圆最大的差异是需要把自然界所包含的硅29这种同位素,在进行量子芯片的生产之前尽可能地剔除掉。现在我们已经可以做到百万分之六十八的纯度,可以完成高迁移率、低缺陷密度硅基量子芯片材料的设计、生长与制备,达到了国际同类水准。在此基础上,用8英寸产线工艺完成了多种硅基量子点的制备。当然在做的时候,还不能与传统的工艺产线完全兼容,因为在纳米级别的曝光,缺少高精度的光刻机。我们分为两步,首先用一般的光刻机把微米级的结构做出来,然后通过电子速曝光来制造里面纳米级的结构。

2020年发出来的一个工作,我们发现,硅材料特别是硅-二氧化硅异质结材料,里面的载流子除有自旋外,还有另一个很重要的自由度——谷自由度。谷自由度对量子芯片或者量子比特的相干时间有非常大的影响。我们发现电子自旋弛豫时间可以百倍连续可调。进一步实现了硅基单个自旋量子比特的操控,而且完全采用电场来控制,不需要用很强的微波,完成了单个比特量子逻辑门的实现。目前正在进行硅基电子自旋两量子比特逻辑门的实验。另外在半导体里,除电子外还有空穴,关于空穴载流子也有很多的理论研究,认为它具有不同的特性,作为量子比特有它自身的优势。在硅锗材料里的空穴进行单比特的操控,可以实现目前报道的最快的单比特的操控。

有了单比特和两个比特之后,后面将讨论如何去扩展。前面也提及,一个扩展的结构就是把量子点作为一个人造原子,把微波谐振腔作为量子光场。我们所采用的微波谐振腔与其他各组稍微有些差异,我们采用了NbTiN的纳米线腔,两组相距约50μm的量子点通过高阻抗的微波谐振腔进行耦合,实现了半导体量子比特的长程耦合,这个工作也很快被接收。

3)超导量子芯片

除半导体外,大家听到比较多的是超导量子芯片,特别是谷歌和IBM这两个国际巨头一直在相互竞争,目前的最新进展,谷歌的超导芯片量子比特数是53位,IBM可以访问到的是20位。从相干时间上来讲,IBM的为90μs,谷歌的大概为20μs,在保真度上谷歌也更优一些,能达到99%。目前我们也做了24位的超导量子芯片,是基于可调耦合的固定频率量子比特架构来设计的。在这个架构下,谐振腔Q值可以达到几百万,量子比特相干时间大于20在实验中,单比特和两比特门操控基本都可以达到99%的保真度。另外,当操控完成后,要把量子态读出来,衡量读的时候有多大概率能够完全读出来,我们现在的读取技术已经做到98%,这得益于我们自研的IMPA或者微波放大器,可以在大于500 M的带宽上得到15 dB的放大,可用于超过20路量子比特复用读出。(www.xing528.com)

4)量子测控

除芯片外,还需要量子测控系统和量子软件。量子逻辑门操作、量子比特读取所需的信号生成、采集、控制、处理等都是由量子计算机测控系统来完成的。利用传统的成熟商用设备来搭建量子芯片所需要的测控系统有很多缺陷,由于它不是专门为量子芯片进行量子计算设计的,所以其效率低、成本高、功能冗余且兼容性很差。特别是随着量子芯片比特数的上升,在集成、同步和操控的速度方面都会受到极大影响。

以最简单的单比特超导量子芯片为例,至少需要4路任意波形发生器、1路DC通道、2路射频通道、1个信号采集通道以及1个同步系统。这还是关于1位的情况,现在基本都要做到二十几位、四十几位甚至五十几位,对于通道数和测控信号的要求是非常高的。测控系统的主要要求是模块化,我们做了一个可以适用30位超导量子比特的测控一体机,集成了包括任意波形发生、直流、射频采集和同步的功能。个人认为,测控一体机或者量子测控系统可以分为三个阶段去演化。第一步就是现在在做的集成化;第二步应该是要低温化,把量子芯片的温度往上提,把测控系统的温度往下降,使得它们两个足够靠近;第三步是芯片化。目前大家还处于集成化阶段。

5)量子软件

除了硬件上面的要求,与传统计算机一样,量子计算机也需要操作系统、量子语言编译器、应用软件和集成开发环境这样不同层次的软件系统和工具。我们也在做,而且算是做得比较早的团队。可以看到谷歌、微软、IBM、华为、Atos、Rigetti等公司都在推出自己的量子编程语言、框架指令集,同时在传统的计算机中进行量子虚拟机的搭建。

这里稍微提一下所谓量子虚拟机,在2017年、2018年左右,IBM和谷歌曾提出所谓量子霸权的说法,最早的说法是如果能够做出超过49位,比如50位的量子计算机,它可以超越现在世界上所有超级计算机的性能,当时量子霸权的影响是非常大的。所以后来大家就用传统的计算机去模拟量子计算机的一些特定任务,比较经典的是量子随机线路的模拟上,探索到底能够模拟到多少位。2018年的时候,谷歌做了这件事情,我们是在2018年2月份的时候发现用一个128位节点可以模拟到64位。后来我们也注意到阿里可以模拟到80多位,华为可以模拟到100多位。我们可以在量子虚拟机上进行各种算法运用的测试和检验、算法程序的开发,这是它最大的意义。

6)量子算法

简单介绍目前几个典型的量子算法。Shor算法用来解决大数因式分解任务,打破RSA公开密钥体系;Grover算法是大数据、无规则数据的搜索算法;HHL算法用于加速线性方程组的求解;QSVM,即量子支持向量机,可以高效完成大数据分类、特征识别等任务;VQE,即量子化学的模拟算法,可以解决量子化学中分子哈密顿量演化的基本问题;QAOA是解决NP-H问题的一个新思路

具体来看,Shor算法是1994年提出的,通过指数级加速解决大数因式分解的问题,可以在极短的时间内完成质数分解,可用于信息安全领域。Grover算法专用于指定数据集中搜索目标数据,以应对海量数据信息处理,它可以实现根号加速,运用的场景包括超级大数据处理、机器学习优化人工智能优化等。针对线性方程组的求解过程,经典计算机不能实现指数加速的解决效果,但HHL算法在特定条件下实现了指数加速的计算效果,在机器学习、数值计算等场景中有必然的优势。QSVM算法是支持向量机的量子版本,比较典型的可用于简单的图像识别,可更快速地实现数据分类、特征识别等。量子化学是现在超级计算机的一个很重要的应用方向,比如对药物分子、新材料的开发,现在都是算出来的,VQE算法是一种模拟分子哈密顿量的量子算法,通过变分量子线路来求解分子哈密顿量的基态和基态能量,可用于化工材料、生物制药医疗健康等方向。QAOA算法提供了一种解决NP/NP-C/NP-H问题的近似方法,它可以在多项式范围内解决组合优化问题(背包、旅行推销员、车辆路径、图形着色等),提高得到最优划分方案的概率。它对应的实际应用场景就包括数据处理、金融分析、物流运输、质量验证等。

现在所说的这些算法和研究都还停留在特定的机构,或者说特定的团队中,未来要真正有效运用的话,需要让更多的人接触到量子计算。年前我们还可以访问到IBM的一个平台,国内能访问的平台非常有限,目前华为HiQ量子云平台,以及我们本源量子计算云平台,可以面向不同需求的用户提供服务。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈