作者简介
俞大鹏,中国科学院院士,北京大学物理学院讲席教授,深圳国际量子研究院院长,APS fellow,兼任中国电子学会量子信息学会主任委员、深圳量子信息学会理事长等。研究方向为量子物态调控、量子计算,及关键核心科学仪器自主研发等,发表300余篇论文,含Nature、Science、Physical Review Letters/B等顶级专业刊物,被同行参考他引二万余次,h因子超过100,近年来在量子物态的精确量子调控、固态量子计算及若干“根技术”科学仪器自主研发方面取得重大突破。
摘要
量子计算作为量子科技的核心组成部分,凭借独特的并行计算特性,有望提供颠覆性算力,挑战人类操控微观世界的极限能力。当前,量子计算技术路径呈现“百花齐放”格局,超导、硅基量子点、光量子、离子阱、中性原子、核电共振及拓扑量子计算等主要路线各具优势与挑战,尚未收敛,全球科技力量正围绕不同体系竞相突破关键技术瓶颈。面对激烈国际竞争与产业化窗口期,我国应强化国家实验室引领与协同攻关、培育复合型工程人才破解转化瓶颈、激发企业创新主体作用撬动社会资本、加速电子束光刻机与稀释制冷机等“卡脖子”核心设备自主可控,在量子计算从含噪声中等规模时代向通用容错迈进的长周期竞争中,走出一条符合国情、支撑高水平科技自立自强的特色发展之路。
引言
近年来,量子科技逐渐成为大国综合国力竞争的战略制高点。当前,国际量子科技竞争呈现加速演变的态势,主流国家纷纷加大公共投入、强化国家战略协同,不断完善从基础研究到产业转化的创新链条。2020年,美国能源部发布量子互联网蓝图(Launch to the Future: Quantum Internet),提出要确保美国处于全球量子竞争的前列,引领通信新时代,2024年,美国通过《国家量子倡议重新授权法案》(National Quantum Initiative Reauthorization Act),旨在加速未来5年美国量子科技领域的研究和开发;欧盟通过“量子旗舰计划”(Quantum Technologies Flagship)整合战略资源;英国、日本、加拿大、澳大利亚、俄罗斯等国家围绕自身优势领域纷纷布局发力。
习近平总书记指出:“要充分认识推动量子科技发展的重要性和紧迫性,加强量子科技发展战略谋划和系统布局,把握大趋势,下好先手棋。”近年来,党中央对“开辟量子技术新赛道,创建未来产业先导区”多次作出部署,国家部委及省市陆续出台多项政策,支持量子科技发展。时至今日,我国量子科技实现了从“跟跑”“并跑”至部分“领跑”的历史性飞跃:量子通信稳固占据全球引领地位,量子计算成功跻身第一梯队,量子精密测量在多个领域亦迈入国际领先梯队。其中,量子计算作为颠覆传统信息处理范式的新型计算体系,已成为挑战人类操控微观世界极限能力的世纪系统工程,相关研究面临巨大挑战。
量子计算的核心在于利用量子比特(Qubit)的叠加性与纠缠性突破经典二进制限制。量子比特可同时处于|0〉和|1〉的叠加态,而纠缠态使多比特间形成非局域关联,这赋予量子计算机指数级并行计算能力,使其在特定问题(如大数分解、复杂系统模拟等)上的计算效率远超经典计算机。其蕴含的算力潜能,更将为金融、国防、材料、医药等领域带来系统性变革。从20世纪80年代Paul Benioff、Richard Feynman等人的理论构想到90年代Peter Shor、Yasunobu Nakamura等人的算法突破与物理实现探索,再到如今实现量子优越性、迈向通用容错量子计算的多极探索,量子计算浪潮正引发全球科技竞争格局的深刻重构。
当前,量子计算研究呈现“百花齐放”的局面,新技术研究路径尚未收敛,主流量子计算路径包括超导量子计算、硅基量子计算、光量子计算、离子阱量子计算、中性原子量子计算等,每种路径都有独特优势,也面临特殊挑战,最终哪把“金钥匙”能打开通用容错量子计算的大门仍未可知。
超导量子计算体系
基于超导量子电路系统的量子计算路线在最近几十年取得了飞速的发展,成为实现通用量子计算最为主流的量子计算物理平台之一。这主要是由于其具有较好的可扩展性和操控性,以及成熟的加工制备工艺和微波测控电子学等优势。超导量子计算主要是利用超导量子比特与超导微波谐振腔等电路元件开展量子信息处理任务。
超导量子比特由约瑟夫森结及其他电路元件构成,是一种非线性量子谐振子。通过精准的微波脉冲操控,量子比特的状态能够被精确改变,从而完成量子计算的基本操作。在量子比特集成方面,超导量子计算借助传统芯片封装技术,成功制备出二维阵列的多比特超导量子芯片,展现出优异的可扩展性。目前,学界已经研制出包含近百个量子比特的超导量子处理器,并在多比特量子纠缠、量子纠错等领域取得了显著进展。谷歌量子团队与中国科学技术大学团队先后成功演示了量子优越性,充分展现了超导量子计算的强大潜力和拓展性优势。
量子纠错是实现可靠量子计算的关键技术。超导量子计算采用了表面码纠错技术,将量子比特排列在二维格点上,利用冗余量子比特进行错误检测与纠正,从而显著提升量子计算的可靠性。该技术不仅能有效对抗量子比特的退相干,还能在较低的物理比特错误率下实现量子信息的可靠存储与处理。近年来,表面码量子纠错对逻辑错误率的指数级抑制已在实验中得到验证,这进一步证明了基于表面码纠错的超导量子芯片是实现通用容错量子计算的可行路径。
除此之外,基于超导微波谐振腔中的玻色模式也可以进行量子信息处理。一方面,单个玻色模式具有无穷维希尔伯特空间,可以实现硬件高效的量子信息编码,并且具有相干时间长、反馈控制易实现、错误类型简单、错误探测方便等优势。可利用玻色模式进行量子信息的冗余编码构建逻辑量子比特,并通过错误探测和错误纠正操作保护量子信息。目前常见的玻色编码方案包括GKP编码、二项式编码和猫态编码等,耶鲁大学和深圳国际量子研究院基于这些玻色编码量子纠错方案已实现突破系统盈亏平衡点。另一方面,利用超导微波谐振腔中玻色模式的具有高光子数的非经典量子资源,如压缩态、福克态、光子数叠加态等,可实现量子增强的高精度测量方案,在量子精密测量方面具有很大的应用潜力,可应用于暗物质搜寻等方向。
目前国内开展超导量子信息技术的主要力量有合肥国家实验室、中国科学技术大学、深圳国际量子研究院、中国科学院物理研究所、清华大学等研究机构和院校。深圳国际量子研究院超导量子计算课题组目前已形成了涵盖超导量子芯片设计、制备、测控的全链条研发团队,并取得了系列重大创新成果。其中,基于玻色二项式编码的量子纠错技术在全球首次突破量子纠错的盈亏平衡点,入选“2023年度中国科学十大进展”;在超导微波谐振腔中实现高保真度制备高达100光子福克态,打破当前领域世界纪录,并实现了接近海森堡极限的量子精密测量。未来在超导量子计算的扩展及具体量子信息应用等方面,仍面临诸多挑战,其发展前景亦蕴含多种可能性。
硅基量子计算体系
硅基量子点是最早提出的可以实现量子计算的体系之一,天然继承了半导体产业优势,具备显著的大规模可扩展的潜力。相比其他量子计算方案,硅基方案具有以下突出优势:一是在可大规模生产的全固态芯片化方案中,硅基量子比特具有最长的相干时间,目前达到30秒,为高保真量子门操作奠定基础;二是硅基量子点大部分加工工艺与传统的金属-氧化物-半导体工艺兼容,在商业化阶段更易于与现有半导体产业融合与迁移;三是硅基量子点尺寸通常在纳米量级,相比其他体系具有更高的集成度潜力。
硅基量子点目前有两种主流的实现方案,一种是门电极量子点方案,另一种是掺杂磷原子量子点方案。掺杂磷原子量子点方案是通过扫描隧道显微镜或者离子注入的方式在硅衬底中精确引入掺杂磷原子作为量子比特载体,而量子比特信息编码在电子自旋或者原子核自旋上,相应的比特操控分别依靠电子自旋共振或核磁共振技术。在该方案中,单个掺杂原子量子点内的原子核可以通过与该量子点束缚的电子的超精细耦合实现纠缠,而多个相邻的掺杂原子量子点之间则可以通过其分别束缚的电子之间的交换相互作用实现纠缠,从而实现硅基量子计算大规模扩展的要求。
尽管硅基量子点因为工艺精度要求高而起步较晚,比特规模落后于其他体系,但是近期研究的快速进展凸显了硅基量子点平台在构建可扩展量子计算方面的潜力。在门电极量子点方向代尔夫特理工大学Vandersypen团队实现了6比特的集成以及量子模拟算法演示;在基于掺杂原子的量子点方向,澳大利亚新南威尔士大学Simmons课题组实现了基于两个量子点上的11比特(9个原子核+2个电子)的纠缠, Morello课题组则在高自旋原子核上成功制备了猫态编码。这些里程碑式的工作充分验证了硅基量子计算方案的可扩展性与逻辑编码能力,标志着该领域正式迈入以多比特操控、大规模集成和逻辑纠错为核心的新发展阶段。然而,硅基量子计算仍面临关键挑战:电荷噪声、磁噪声以及同位素原子核自旋浴等影响因素会显著降低比特操控保真度。同时还存在量子芯片加工难度大,良品率不高等问题。这些瓶颈涉及材料制备、工艺迭代、系统反馈控制等多个工程与科学前沿领域,亟需多学科深度合作攻关。
国内研究硅基量子计算的主要力量有深圳国际量子研究院、中国科学技术大学、中国科学院微电子研究所、中国科学院物理研究所、北京量子信息科学研究院等院校,目前已实现高精度的单比特和两比特量子门。深圳国际量子研究院硅基量子计算课题组经过数年研究,已全面打通硅基量子器件从设计、加工到测控的全链条技术。当前已成功实现硅基量子比特的错误探测、逻辑编码与纠错实验,具备多体纠缠态制备和简单量子算法演示能力,整体研究水平达到国际前沿。接下来将在大规模硅基量子计算、硅基原子量子模拟、基于掺杂原子的新型自旋比特、门电极量子点大规模集成等方向进行布局,努力攻克“卡脖子”技术壁垒。
光量子计算体系
光量子计算作为量子信息处理领域的关键平台之一,以光子作为量子比特的理想载体,凭借对光子量子态(涵盖偏振、路径、时间、频率、轨道角动量等多个维度)的精准操控,实现信息的编码与高效计算。其显著优势体现在:其一,由于光子与外界环境的相互作用相对微弱,光量子计算系统能够在室温条件下稳定运行;其二,光子具备飞行量子比特的独特属性,可在分布式量子计算架构中充当“信使”,有效连接多个量子节点,拓展计算网络;其三,光子技术与成熟的CMOS技术高度兼容,这一特性为光量子计算技术的进一步发展开辟了全新路径,引领其迈向新的技术前沿。
光量子计算的核心硬件包括量子光源、光量子线路、单光子探测器。量子光源用于制备特定初始态,常见类型有确定性的单光子源、压缩真空态光源、纠缠光子对光源等。中国科学技术大学研究团队2013年首创量子点脉冲共振激发技术,研制出了具备确定性偏振、高纯度、高效率的单光子源;2019年实现了高保真度、高效率、高全同性的双光子纠缠源;2020年,首次实现了片上高纯度、高全同性、预报效率大于90%的光源。在单光子探测方面,美国国家标准与技术研究院、代尔夫特大学、中国科学院上海微系统与信息技术研究所等机构可以生产兼具高探测效率(90%)、高重复频率(150 MHz)的超导纳米线单光子探测器。
依据逻辑操作类型的不同,光量子计算可分为通用与专用两种计算模式。通用光量子计算致力于打造一个能够运行任意量子算法的计算平台,其关键在于达成一套完备的量子门集合,从而为任意量子电路提供支撑。要实现这一目标,离不开高保真度的量子门操作、高效的量子纠错机制以及具备可扩展性的系统架构。目前,光量子计算领域已取得一定进展,基本操作(例如概率性的控制逻辑门)以及各类量子算法的简单演示均已成功实现。当前该领域面临的最大挑战在于,如何实现确定性的两比特纠缠门。大规模纠缠态的制备与线路操控,以及基于GKP态的容错量子计算的实现等,也是亟待攻克的研究难题。相比之下,专用光量子计算是围绕特定问题或算法展开优化设计的,其目的在于达成更高的计算效率,同时降低资源消耗,通常利用光子的独特性质,如干涉、纠缠等,来加速特定任务的求解过程。例如,“九章”光量子计算原型机在玻色采样问题上取得突破,实现了量子优越性,Xanadu量子技术有限公司在时间编码玻色采样上实现了量子优越性验证。
面向未来,实现确定性的两比特纠缠门、制备大规模纠缠态等关键技术的突破将有望解决通用光量子计算的瓶颈问题,推动光量子计算从专用计算向通用计算的转变。同时,随着光芯片技术的不断发展,将量子光源、线路、探测器等核心组件集成于单一芯片之上,将极大提升光量子计算系统的稳定性和可扩展性,为光量子计算的实用化铺平道路。另外,随着量子光源、单光子探测器及线性光学元件等核心组件性能的持续提升,以及量子纠错、量子网络等关键技术的突破,光量子计算将迈向更加成熟和实用的新阶段。
离子阱量子计算体系
作为最早被提出的量子计算实现方案之一,离子阱量子计算经过30余年的发展,已成为当前最具实用化前景的量子计算技术路线。该技术利用电磁场稳定囚禁带电离子,通过激光或微波等外场调控实现量子信息处理。相较于其他量子计算方案,离子阱系统具有三大优势:首先,其量子比特相干时间可达小时量级,远超其他技术路线;其次,量子门操作保真度高达99.9%,超过容错计算阈值;最后,系统天然具备全连通特性,为复杂量子算法的高效编译提供了得天独厚的条件。这些技术优势使离子阱系统在量子计算实用化进程中始终保持着领先地位。目前,美国、欧盟等发达国家和地区已将其列为国家量子战略的重点发展方向,投入大量资源推动技术突破和产业化进程。
然而,随着量子计算进入中等规模时代,离子阱量子计算系统的规模化扩展面临重大挑战。核心问题在于:随着囚禁离子数量的增加,系统控制复杂度呈指数级上升,主要体现在精密激光控制系统、规模化囚禁电极构建与协同调控、环境噪声抑制等技术瓶颈。针对这些挑战,国际学界已形成两大突破性技术路径:其一,基于“量子电子耦合器件(QCCD)”的模块化架构,通过微纳加工技术实现高集成度的芯片化离子阱阵列;其二,发展离子-离子远程纠缠网络技术,构建分布式量子计算系统,这一方案可大幅降低单个模块的复杂度。特别值得关注的是,近年来,低温离子阱技术的突破为规模化扩展提供了更稳定的真空与电磁环境,集成光学与集成电子学技术的进步则显著降低了系统复杂度,这些技术进步为大规模离子阱量子计算机的实现奠定坚实基础。
当前,离子阱量子计算已经实现数十个量子比特的演示,如Quantinuum(原霍尼韦尔量子部门)基于“量子电子耦合器件”架构的离子量子处理器,以及IonQ基于长链离子晶体架构的32比特系统,并在化学模拟、优化问题等领域展现出一定的应用潜力。学术界与产业界正合力推动该技术的实用化。特别的,在规模化量子计算所需的量子纠错方面,离子阱系统近期在逻辑比特编码、实时量子纠错,以及逻辑比特的量子传态方面均有重大进展。未来,随着错误率降低和比特规模扩大,离子阱有望在5至10年内实现百比特级容错量子计算。
我国在离子阱量子计算领域已形成特色鲜明的研究队伍。清华大学段路明院士团队在量子模拟方面取得重大突破,成功构建百离子量子模拟器,创下国际纪录;国防科技大学在芯片化离子阱研发方面持续深耕,突破多项关键技术;中国科学技术大学、深圳国际量子研究院等在量子态精密操控方面取得系列重要进展。全球量子计算技术正处于从实验室走向产业化的关键阶段。离子阱量子计算凭借其独特的优势,正在化学模拟、材料设计、药物研发等领域展现出巨大的应用潜力。
核电共振量子计算体系
利用原子核自旋构建量子比特是实现量子计算的主要路径之一。当前相关研究主要依靠磁场操控原子核自旋,通过微波天线产生的交变磁场驱动自旋共振。但长期来看,核自旋量子计算的大规模扩展将面临挑战,原因有三:一是磁场无法在纳米尺度精确定义,随比特数量增加必然会导致频率拥挤和比特串扰;二是微波天线尺寸较大,占用芯片空间降低集成度;三是功耗较高,对低温环境制冷能力有更高要求,发热也会降低比特相干性能。这些问题严重制约核自旋量子计算机的研发进程。核电共振技术的突破在于首次实现了自旋的电场操控。其核心原理是利用原子核四极矩相互作用,通过纳米电极所产生的局域电场梯度驱动核自旋跃迁,为自旋寻址扩展开辟全新的捷径。
相较于磁操控,电操控空间寻址能力强,可通过电极位置精确定位单个量子比特;集成度高,电极尺寸为纳米级,大幅提升单位面积比特密度;功耗极低,避免磁场驱动带来的发热问题,利于延长量子相干时间。此外,核电共振体系采用高自旋原子核(如123Sb)作为量子比特载体,信息密度远超传统二能级量子比特,其八能级结构天然编码玻色逻辑量子比特,可作为未来大规模量子纠错的一级助推动力,将大幅度提升量子纠错性能。这些特性使核电共振成为新晋的、极具潜力的、可扩展量子计算方案。
核电共振理论最早提出于1961年,直到2020年新南威尔士大学团队才首次在实验中观测到单原子核的核电共振现象,被学界称为“解决了困扰科学家60年的难题”,标志着该技术路线从理论走向了实践。经过多年发展,该领域也完成了核电共振自旋性质的全系统表征,单比特门操控精度和读取精度均达到了量子容错阈值,也成功研制了一个猫态量子逻辑比特。但当前国际核电共振研究仍停留在单原子阶段,国内研究仍是空白状态,整个领域仍面临着芯片制备精度不足、两比特门缺失等核心瓶颈。深圳国际量子研究院率先布局硅基核电共振技术的研发,计划通过三大技术创新实现“跟跑”到“并跑”再到“领跑”。一是采用扫描隧道显微镜氢掩膜刻蚀的原子级加工技术,将当前领域放置核自旋的精度从10nm提升到1nm,研制出我国首批可用的高质量硅基核电共振量子芯片。二是基于射频反射技术实现快速高精度自旋单发读取,为未来实时量子纠错储备核心技术;发展空间寻址和频率寻址混合技术,提升自旋寻址驱动能力。三是发展电子媒介的原子核耦合技术和两比特门技术,突破当前领域仍处在单个原子核的阶段,将核电共振推向量子计算阶段。
核电共振量子计算技术的布局具有多维度战略意义。在基础研究层面,为多能级量子系统调控、量子相干性保持等基础科学问题提供理想平台,其原子级加工、高灵敏度测控技术可直接应用于量子传感、单分子探测,推动微观观测能力跃升。技术创新层面,将带动半导体工艺升级,STM-HL原子操纵、高纯同位素制备、低温射频电子学等关键技术突破,有望形成自主知识产权核心专利,打破国外量子芯片制造技术垄断。产业发展层面,硅基核电共振技术与现有CMOS工艺兼容,可依托我国半导体产业基础实现规模化生产,降低量子计算产业化门槛,带动量子芯片、低温电子学、量子软件等产业链发展,形成新经济增长点。
中性原子量子计算体系
近年来,利用中性单原子阵列进行量子计算已成为一个迅猛发展的领域。该技术将呈电中性的气态原子视作一个量子比特,并将0和1编码在这个原子的内态分立能级上。其基本工作原理依赖于原子的激光冷却、囚禁和操控技术。在一套真空系统中,放入特定的气态原子,通常选择铷、铯、锶、镱等元素,再将几束对应波长的激光通过玻璃窗口入射到这些气体上,产生作用力,使部分原子无规则热运动的速率减慢。从物理学角度看,日常生活中的温度概念正是从大量原子无规则热运动的速率中提取出来的,因此这一过程可称为利用激光冷却气态原子。随后,使用另一束激光进行强聚焦,使其焦点与冷却后的原子团在空间位置重合。这束激光对原子的作用力如同镊子,能从包含数十万个冷原子的系统中抓取单个原子,并将其运动尺度限制在微米范围内。这种激光束被称为光镊,而原子的被抓取状态称为囚禁。进一步扩展,若将这束激光分成多束,沿同一方向传播、相隔一定间距且同时强聚焦,这些焦点便构成一个二维平面上的光镊阵列。由此,可以制备出中性单原子阵列,亦可称之为量子处理器。通过微波或光学技术,能够实现这些单原子内部能级的激发跃迁,从而实现单量子比特和多量子比特的操控。
上述框架详尽描述了中性原子量子计算的基本物理架构。在这个领域的研究中,当前国际最前沿的科研进展包括:已经实现包含数百个原子的量子处理器,研究多种物理模型,成功构建了量子线路,实现逻辑比特编码等。这些研究成果充分展示出中性单原子阵列体系具有操作保真度高、量子比特连接灵活等特点。同时,这个体系扩展性良好,可以实现数百个到数千个量子比特,具有执行量子计算任务的强大潜力。尽管已经取得诸多成果,但中性原子量子计算从原理和概念演示向实用迈进,仍然是一个长期的、不断探索和研发的过程,需要克服多种挑战,例如,每一步物理操作保真度的进一步提升,系统运行速度的提升,囚禁原子丢失问题带来的限制,整个系统全部技术的集成与稳定性,多个系统之间的互联等。
国内从事相关领域的研究单位包括中国科学院精密测量院、山西大学、清华大学、中国科学技术大学、华中科技大学、深圳国际量子研究院等,在原子操控能力、阵列制备、量子模拟等方面取得了很多研究成果。早期实验中普遍采用铷和铯原子,与这两种元素比较,近年来,被广泛关注的锶和镱原子有着独有的特点:除了具有寿命最长、最稳定的基态之外,还有一个寿命较长的能级,称作亚稳态,上述两个态又各自包含不同的子能级,这种特有的能级结构为量子比特的编码和操控提供更多可能性。
拓扑量子计算体系
拓扑量子计算凭借其天然容错的物理机制,被视为极具前景的候选方向之一。拓扑量子计算的核心思想是利用二维系统中具有非阿贝尔统计性质的任意子来进行量子比特的编码与量子门操作。在二维系统中,粒子的交换过程仅由路径的拓扑结构决定,信息能够以非局域方式编码在系统的拓扑简并态中,从而对局部扰动具有天然的鲁棒性。一个著名的理论模型是由A. Kitaev于2001年提出的Kitaev链模型,其中一维p波超导链的两端可以出现马约拉纳零能模(Majorana Zero Mode, MZM)——这是一种自共轭的准粒子,被认为是实现非阿贝尔任意子的最基本构件。拓扑量子门操作可以通过将这些马约拉纳零能模以特定路径进行“编织”(Braiding)来实现。
实验上,实现拓扑量子计算的主要思路是基于复合体系构建出拓扑超导体。最早获得实验关注的是半导体纳米线和S波超导体的复合体系。2012年,荷兰代尔夫特理工大学的L. P. Kouwenhoven团队在InSb纳米线与NbTiN超导体组成的近邻体系中观测到零偏压导电峰,被视为马约拉纳零能模的实验信号,在国际上引发了强烈反响。同期,北京大学徐洪起团队也在InSb纳米线和Nb的复合体系中观测到零偏压电导峰。2015年,C. M. Marcus团队用Al全包InAs纳米线,实现了硬超导能隙,并且与合作者在库伦阻塞实验中观测到马约拉纳态的非局域性特征。除此之外,2014年,Ali Yazdani通过在超导体上制作铁原子链,观测到了马约拉纳零能模的初步信号。2016年,上海交大团队利用自旋极化的STM探针,在Bi2Te3/NbSe2复合结构中观测到马约拉纳零能模的自旋选择行为。2024年,在Pb膜上生长的拓扑晶体绝缘体SnTe(001)薄膜中观测到单个涡旋中的多个零能峰及其杂化。
近年来,基于Kitaev链的新实验思路开始获得越来越多的关注。2023年,研究人员在耦合的量子点系统模拟出一个最简Kitaev链模型;2025年,在InSbAs二维电子气中将三个量子点串联起来,构建出人造Kitaev链,系统性展示Kitaev链两端马约拉纳态与中间态的可控演化,为进一步的拓扑量子门操作和纠错机制验证提供了理想模型。此外,二维电子气系统因具备可扩展性也得到研究人员的关注。在某些分数量子霍尔效应系统中,如填充因子为5/2的态,被预测可以支持非阿贝尔任意子。
除此之外,研究人员也在尝试全新的材料体系,典型代表是铁基超导体。2018年,中国科学院物理研究所团队利用低温扫描隧道显微镜,在FeTe0.55Se0.45铁基超导体的磁通涡旋中心发现了稳定的零能模;2022年,进一步在LiFeAs体系观测到有序排列、可控调节的马约拉纳零能模晶格。目前北京大学、清华大学、中国科学院物理所、上海交通大学、中国科学技术大学、深圳国际量子研究院等国内多所科研机构在拓扑超导的方向上都有布局,并取得较大进展。然而,对整个学界而言,真正意义上的非阿贝尔任意子交换操作仍停留在理论与少量模拟实验层面,距离高保真逻辑门操作尚有距离。总体来说,目前拓扑量子计算仍处于探索阶段,但随着实验技术的突破与理论模型的完善,拓扑量子计算有望实现从概念验证到功能器件的跨越,成为量子信息处理的重要基石。
总结与展望
2025年被联合国定为“国际量子科学与技术年”,以纪念现代量子理论诞生100周年。量子科技作为新一轮科技革命和产业变革的前沿领域,不仅意味着突破经典物理的局限、拓展人类对微观世界的认知边界,还为信息安全、精密测量、新能源开发等领域提供颠覆性技术支撑,有望深刻重塑未来人类生产生活方式与全球竞争格局。习近平总书记指出:“加快发展量子科技,对促进高质量发展、保障国家安全具有非常重要的作用。”在全球各国竞相布局的量子科技新赛道上,中国正以国家战略科技力量为核心,全力抢占这一事关未来国际竞争力格局的战略制高点。
量子计算作为量子科技的核心组成部分,其科研突破和相关产业化,对实现高水平科技自立自强、支撑促进高质量发展、全面建设社会主义现代化国家具有重要意义。当前,量子计算仍处于发展早期的含噪声中等规模量子技术(NISQ)阶段,距离可容错通用量子计算可能还需数年至数十年时间。依托量子信息科学(合肥)国家实验室等战略力量,我国已在超导量子计算与光量子计算两条技术路线上实现量子计算优越性,但也要清楚看到,相关科研与转化仍面临诸多挑战。我们对于量子计算发展需有清晰的大局观,走出一条符合中国国情的量子计算特色发展之路。
其一,政府部门应加强战略谋划和系统布局,提供稳定的政策和资金支持。为此,可依托中国科学院量子信息与量子科技创新研究院、量子信息科学(合肥)国家实验室等国家战略科技力量,凝聚各类人才,使其积极承担国家重大科技攻关任务,聚焦关键核心技术研发协同攻关,形成由点到线最终汇聚成面的辐射效应,避免低水平重复建设及内部恶性竞争引起的资源浪费现象,充分发挥新型举国体制的制度优势。
其二,科研单位需构建起高水平的复合型人才团队。量子计算领域中30%属于物理问题,70%属于工程问题,在未来向大规模、实用化量子计算转型的过程中,具备工程技术背景的顶尖复合型人才至关重要。为此,应强化量子科学与工程相关学科的建设,推进卓越工程师队伍的打造,完善人才评价机制及产学研协同体系,支持校企联合,瞄准量子相关产业需求进行订单式人才培养,以促成学术界与产业界的良性互动,进而为我国量子科技的发展培育先锋力量和生力军。
其三,企业创新主体作用尚需强化。目前,华为、腾讯、中电科等巨头企业已率先布局量子计算;本源量子、国盾量子等初创企业也积极推动技术研究与应用探索。然而,整体而言,我国量子计算企业在投入力度和发展水平上与欧美相比仍存在差距,在核心技术积累、产业协同创新等方面仍需进一步夯实基础。为此,建议设立国家级量子产业基金,强化应用示范,撬动社会资本;通过实施税收优惠政策和建立容错机制,提升中小微企业的风险韧性;从而有力推动创新生态的构建,培育产业发展沃土。
其四,关键核心设备的自主可控亟待加速推进。量子计算的进步高度依赖尖端科研仪器设备,然而,我国量子信息科技领域部分高端科学仪器设备的一些核心技术依然受制于人,尚未完全实现自主可控。为此,要加速推进关键核心设备的自主可控,将关键核心技术牢牢掌握在自己手中,同时要推进仪器设备产业化进程,加强对相关企业的政策扶持。
其五,提升社会对量子科技认识的准确性和包容性。应加强对大众尤其是青少年群体的量子科普宣传,为更多青少年心中埋下量子科技的种子;同时,要加强对虚假报道和不实宣传的整治工作,既不能过度神化量子计算将其“捧杀”,也不能急于求成将其“棒杀”。
来源:《学术前沿》杂志2025年第15期(注释从略)
热点聚焦
HOT!!
征集报名
重磅活动
| 往期回顾
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...