Dans une avancée majeure pour l’informatique quantique, des chercheurs ont démontré le « Saint Graal » tant recherché du domaine : une accélération exponentielle par rapport aux ordinateurs classiques, sans aucune hypothèse ni réserve.
L’étude révolutionnaire, publiée dans Physical Review X, a été dirigée par le professeur Daniel Lidar de l’Université de Californie du Sud, en collaboration avec des chercheurs de l’USC et de l’Université Johns Hopkins. L’équipe a utilisé deux puissants processeurs quantiques Eagle à 127 qubits d’IBM pour résoudre une variante du « problème de Simon », une énigme mathématique considérée comme le précurseur de l’algorithme de factorisation de Shor.
« Une accélération exponentielle est le type d’accélération le plus spectaculaire que nous attendons des ordinateurs quantiques », explique Lidar, titulaire de la chaire Viterbi en ingénierie à l’USC. Ce qui rend cette réalisation particulièrement significative, c’est que l’accélération est « inconditionnelle » – c’est-à-dire qu’elle ne repose sur aucune hypothèse non démontrée concernant les algorithmes classiques.
Les chercheurs ont surmonté le principal obstacle de l’informatique quantique – le bruit, ou les erreurs de calcul – en mettant en œuvre des techniques sophistiquées d’atténuation des erreurs. Celles-ci incluent le découplage dynamique, l’optimisation de la transpilation et l’atténuation des erreurs de mesure, permettant aux processeurs quantiques de maintenir leur cohérence suffisamment longtemps pour achever les calculs.
Si Lidar précise que cette démonstration spécifique n’a pas d’applications pratiques immédiates au-delà de problèmes spécialisés, elle valide de façon incontestable la promesse théorique de l’informatique quantique. « La séparation des performances ne peut pas être inversée, car l’accélération exponentielle que nous avons démontrée est, pour la première fois, inconditionnelle », souligne-t-il.
Cette avancée intervient alors qu’IBM poursuit sa feuille de route quantique, annonçant récemment son intention de construire un ordinateur quantique à grande échelle et tolérant aux pannes d’ici 2029. L’entreprise a développé un nouveau schéma de correction d’erreurs appelé codes qLDPC (quantum low-density parity check), qui pourrait réduire considérablement les ressources nécessaires à l’informatique quantique pratique.
Pour l’IA et les domaines computationnels, cette percée indique que l’informatique quantique passe du potentiel théorique à la réalité pratique. À mesure que les systèmes quantiques gagnent en échelle et que les taux d’erreur diminuent, ils promettent un traitement exponentiellement plus rapide pour les modèles d’IA complexes, les problèmes d’optimisation et les simulations qui restent inaccessibles aux ordinateurs classiques.