瑞典研究人员在量子计算领域取得了重大突破,有望极大加速人工智能应用,并彻底改变AI模型的训练与部署方式。
2025年6月24日,由查尔姆斯理工大学博士生曾寅带领的团队发布了一款脉冲驱动量子比特放大器,解决了量子计算机扩展过程中最关键的难题之一:功耗与热量产生。
这款创新型放大器仅在读取量子比特信息时激活,功耗仅为当前最先进放大器的十分之一,同时不牺牲性能。这一大幅降低的能耗有助于防止量子比特失去其量子态(即“退相干”现象),而退相干一直是限制量子计算发展的主要瓶颈。
“这是目前利用晶体管能够制造的最灵敏的放大器。”论文第一作者曾寅在发表于《IEEE微波理论与技术汇刊》的研究中解释道,“我们成功将其功耗降低到当前最佳放大器的十分之一,同时性能丝毫未减。”
团队利用遗传编程实现了对放大器的智能控制,使其能够在仅35纳秒内响应输入的量子比特脉冲。这一速度至关重要,因为量子信息以脉冲形式传输,放大器必须足够快地激活以跟上量子比特的读取。
研究指导教授Jan Grahn指出:“本研究为未来量子计算机扩展提供了解决方案,因为量子比特放大器产生的热量是主要的限制因素之一。”
这一突破对AI领域意义深远。维也纳大学研究人员的最新实验表明,即便是小型量子计算机,也能通过新型光子量子电路提升机器学习性能。他们的研究结果显示,当前的量子技术不仅仅是实验性的,已经能够为特定AI应用带来切实优势。
量子计算机利用量子力学原理,使量子比特能够同时处于多种状态。这使其能够处理远超传统计算机能力的复杂问题。仅用20个量子比特,量子计算机就能同时表示超过一百万种不同状态。
随着量子计算机量子比特数量的增加,其计算能力呈指数级提升,但同时也带来了热量管理和防止退相干的巨大挑战。查尔姆斯团队的突破直接应对了这一难题,有望推动更大规模、更稳定、专为AI负载优化的量子系统发展。
专家预测,量子增强AI有望彻底变革药物发现、材料科学、金融建模以及目前即便最强超级计算机也难以解决的复杂优化问题等领域。