menu
close

量子突破助力AI计算效率提升10倍

查尔姆斯理工大学的工程师开发出一种脉冲驱动的量子比特放大器,其能耗仅为现有设计的十分之一,同时保持了卓越的性能。这一突破将显著提升量子计算机的运行效率,通过减少导致量子比特退相干的热量产生,推动量子技术从实验走向实际应用。与此同时,研究人员还展示了即使是小规模量子计算机,也能通过新型光子量子电路大幅提升机器学习性能,标志着量子技术正加速迈向实用化。
量子突破助力AI计算效率提升10倍

量子计算领域出现了一项突破性进展,有望极大加速人工智能的能力与应用。

瑞典查尔姆斯理工大学的研究人员开发出一种高效放大器,被誉为“目前利用晶体管能够制造的最灵敏放大器”。团队成功将其能耗降至当前最佳放大器的十分之一,同时不影响性能。

这一创新源于巧妙的设计——放大器仅在读取量子比特数据时才开启。能耗的降低有助于减少对量子比特的干扰,并有望实现更大规模、更强大的量子计算机。 读取量子信息极其敏感,哪怕微小的温度波动、噪声或电磁干扰都可能导致量子比特失去其量子态。由于放大器会产生导致退相干的热量,研究人员一直在追求更高效的量子比特放大器。

与其他低噪声放大器不同,这款新设备采用脉冲操作,仅在需要放大量子比特信号时才激活,而非持续工作。由于量子信息以脉冲形式传输,关键挑战在于确保放大器能足够快速地响应量子比特读取。 查尔姆斯团队通过遗传编程实现了对放大器的智能控制,使其能够在仅35纳秒内响应到来的量子比特脉冲。

这一进展对于扩展量子计算机、容纳更多量子比特至关重要。随着量子比特数量增加,计算机的算力和处理复杂计算的能力也随之提升。然而,更大的量子系统需要更多放大器,导致能耗增加并可能引发量子比特退相干。查尔姆斯微波电子学教授Jan Grahn表示:“本研究为未来量子计算机扩展提供了方案,解决了量子比特放大器所产生热量成为主要限制因素的问题。”

这一突破恰逢近期研究显示,即使是小规模量子计算机,也能通过新型光子量子电路提升机器学习性能。这些发现表明,当前的量子技术不仅是实验性的,已能在特定任务上超越传统系统。

量子计算机有潜力解决当今最强大计算机也难以企及的问题,为药物研发、网络安全、人工智能和物流等领域打开新大门。查尔姆斯开发的超高效放大器仅在读取量子比特数据时才启动。凭借智能的脉冲设计,其能耗仅为现有顶级产品的十分之一。

当前许多大型语言模型需要超过100万GPU小时进行训练,而量子神经网络有望比传统神经网络更高效地处理复杂高维数据集。除了速度提升外,量子计算还可通过更优的优化算法、更复杂的模型模拟,以及显著降低AI模型训练能耗,彻底变革人工智能。

IQM量子创新负责人Ines de Vega博士表示:“我们预计,随着从当前噪声较大的量子设备过渡到拥有数十到数百逻辑量子比特的容错量子计算机,首批量子AI的重大突破将在本十年末至下十年初出现。这些设备将让我们超越纯实验性的NISQ量子算法,释放AI应用的实际且可能出乎意料的优势。量子计算与AI的融合有望对世界产生巨大影响。量子与AI的结合能够解决传统计算机无法应对的问题,让AI更高效、更快速、更强大。”

Source:

Latest News