In einem Meilenstein für die Quanteninformatik haben Forschende das lang ersehnte 'Heilige Gral' des Fachgebiets demonstriert – eine exponentielle Beschleunigung gegenüber klassischen Computern, die keinerlei Annahmen oder Einschränkungen erfordert.
Die bahnbrechende Studie, veröffentlicht in Physical Review X, wurde von Professor Daniel Lidar von der University of Southern California geleitet, in Zusammenarbeit mit Kolleginnen und Kollegen der USC und der Johns Hopkins University. Das Team nutzte zwei der leistungsstarken 127-Qubit-Eagle-Quantenprozessoren von IBM, um eine Variante von 'Simons Problem' zu lösen – ein mathematisches Rätsel, das als Vorläufer von Shors Faktorisierungsalgorithmus gilt.
"Eine exponentielle Beschleunigung ist die dramatischste Art von Beschleunigung, die wir von Quantencomputern erwarten", erklärt Lidar, der die Viterbi-Professur für Ingenieurwesen an der USC innehat. Besonders bedeutsam ist dabei, dass die Beschleunigung 'unbedingt' ist – das heißt, sie beruht auf keinen unbelegten Annahmen über klassische Algorithmen.
Die Forschenden überwanden das größte Hindernis der Quanteninformatik – Störungen bzw. Rechenfehler – durch den Einsatz ausgefeilter Fehlerkorrekturtechniken. Dazu gehörten dynamische Entkopplung, Optimierung der Transpilierung und Messfehlerkorrektur, wodurch die Quantenprozessoren lange genug kohärent blieben, um die Berechnungen abzuschließen.
Obwohl Lidar betont, dass diese spezielle Demonstration über spezialisierte Probleme hinaus keine unmittelbaren praktischen Anwendungen hat, bestätigt sie das theoretische Versprechen der Quanteninformatik eindeutig. "Die Leistungsdifferenz kann nicht rückgängig gemacht werden, denn die von uns demonstrierte exponentielle Beschleunigung ist erstmals unbedingt", merkt er an.
Dieser Durchbruch erfolgt, während IBM seine Quanten-Roadmap weiter vorantreibt und kürzlich Pläne für den Bau eines groß angelegten, fehlertoleranten Quantencomputers bis 2029 angekündigt hat. Das Unternehmen hat ein neues Fehlerkorrekturverfahren namens Quantum Low-Density Parity Check (qLDPC) Codes entwickelt, das den Ressourcenbedarf für praktische Quanteninformatik drastisch senken könnte.
Für KI und rechnergestützte Wissenschaften signalisiert dieser Durchbruch, dass die Quanteninformatik vom theoretischen Potenzial zur praktischen Realität übergeht. Mit zunehmender Skalierung der Quantensysteme und sinkenden Fehlerraten versprechen sie exponentiell schnellere Berechnungen für komplexe KI-Modelle, Optimierungsprobleme und Simulationen, die für klassische Computer weiterhin unlösbar bleiben.