Dans une avancée majeure pour l’informatique quantique, des chercheurs ont démontré le « Saint Graal » tant recherché du domaine : une accélération exponentielle par rapport aux ordinateurs classiques, sans aucune hypothèse ou réserve.
L’étude révolutionnaire, publiée dans Physical Review X, a été dirigée par le professeur Daniel Lidar de l’Université de la Californie du Sud (USC), en collaboration avec des collègues de l’USC et de l’Université Johns Hopkins. L’équipe a utilisé deux puissants processeurs quantiques Eagle de 127 qubits d’IBM pour résoudre une variante du « problème de Simon », une énigme mathématique considérée comme le précurseur de l’algorithme de factorisation de Shor.
« Une accélération exponentielle est le type d’accélération le plus spectaculaire que nous attendons des ordinateurs quantiques », explique Lidar, titulaire de la chaire Viterbi en ingénierie à l’USC. Ce qui rend cette réalisation particulièrement importante, c’est que l’accélération est « inconditionnelle » — c’est-à-dire qu’elle ne repose sur aucune hypothèse non prouvée concernant les algorithmes classiques.
Les chercheurs ont surmonté le plus grand obstacle de l’informatique quantique — le bruit, ou les erreurs de calcul — en mettant en œuvre des techniques sophistiquées d’atténuation des erreurs. Celles-ci incluaient le découplage dynamique, l’optimisation de la transpilation et l’atténuation des erreurs de mesure, permettant aux processeurs quantiques de maintenir leur cohérence assez longtemps pour compléter les calculs.
Bien que Lidar précise que cette démonstration spécifique n’a pas d’applications pratiques immédiates au-delà de problèmes spécialisés, elle valide de façon convaincante la promesse théorique de l’informatique quantique. « La séparation de performance ne peut pas être inversée, car l’accélération exponentielle que nous avons démontrée est, pour la première fois, inconditionnelle », souligne-t-il.
Cette avancée survient alors qu’IBM poursuit sa feuille de route quantique, ayant récemment annoncé son intention de construire un ordinateur quantique tolérant aux fautes à grande échelle d’ici 2029. L’entreprise a développé un nouveau schéma de correction d’erreurs appelé codes de parité à faible densité quantique (qLDPC), qui pourrait réduire considérablement les ressources nécessaires à l’informatique quantique pratique.
Pour l’IA et les domaines computationnels, cette percée indique que l’informatique quantique passe du potentiel théorique à la réalité pratique. À mesure que les systèmes quantiques continuent de prendre de l’ampleur et que les taux d’erreur diminuent, ils promettent un traitement exponentiellement plus rapide pour les modèles d’IA complexes, les problèmes d’optimisation et les simulations qui demeurent inaccessibles aux ordinateurs classiques.