I en milstolpe för kvantberäkning har forskare nu demonstrerat det länge eftertraktade målet – en exponentiell prestandaförbättring jämfört med klassiska datorer, helt utan antaganden eller förbehåll.
Den banbrytande studien, publicerad i Physical Review X, leddes av professor Daniel Lidar vid University of Southern California tillsammans med kollegor från USC och Johns Hopkins University. Teamet använde två av IBMs kraftfulla 127-qubits Eagle-kvantdatorer för att lösa en variant av 'Simons problem', ett matematiskt pussel som anses vara föregångaren till Shors faktoriseringalgoritm.
"En exponentiell prestandaförbättring är den mest dramatiska typ av förbättring vi förväntar oss att se från kvantdatorer," förklarar Lidar, som innehar Viterbi-professuren i teknik vid USC. Det som gör denna prestation särskilt betydelsefull är att förbättringen är "ovillkorlig" – det vill säga att den inte bygger på några obevisade antaganden om klassiska algoritmer.
Forskarna övervann kvantdatorernas största hinder – brus, eller beräkningsfel – genom att implementera avancerade tekniker för felreducering. Dessa inkluderade dynamisk avkoppling, optimering av transpilation och minskning av mätfel, vilket gjorde det möjligt för kvantprocessorerna att bibehålla koherens tillräckligt länge för att slutföra beräkningarna.
Även om Lidar påpekar att denna specifika demonstration inte har omedelbara praktiska tillämpningar utöver specialiserade problem, bekräftar den tydligt kvantberäkningens teoretiska potential. "Prestandaskillnaden kan inte vändas eftersom den exponentiella förbättring vi har visat är, för första gången, ovillkorlig," noterar han.
Detta genombrott kommer samtidigt som IBM fortsätter att utveckla sin kvantfärdplan och nyligen har aviserat planer på att bygga en storskalig, feltolerant kvantdator till 2029. Företaget har utvecklat ett nytt felkorrigeringssystem, kallat quantum low-density parity check (qLDPC)-koder, som kan minska resursbehovet dramatiskt för praktisk kvantberäkning.
För AI och beräkningsintensiva områden signalerar detta genombrott att kvantberäkning nu är på väg att gå från teoretisk möjlighet till praktisk verklighet. I takt med att kvantsystemen fortsätter att skalas upp och felfrekvensen minskar, utlovas exponentiellt snabbare bearbetning för komplexa AI-modeller, optimeringsproblem och simuleringar som fortfarande är olösliga för klassiska datorer.