Num feito histórico para a computação quântica, investigadores demonstraram o tão aguardado 'santo graal' da área – uma aceleração exponencial em relação aos computadores clássicos, sem necessidade de pressupostos ou ressalvas.
O estudo inovador, publicado na revista Physical Review X, foi liderado pelo Professor Daniel Lidar, da University of Southern California, em colaboração com equipas da USC e da Johns Hopkins University. O grupo utilizou dois dos potentes processadores quânticos Eagle de 127 qubits da IBM para resolver uma variação do 'problema de Simon', um enigma matemático considerado precursor do algoritmo de factorização de Shor.
"Uma aceleração exponencial é o tipo de avanço mais dramático que esperamos ver dos computadores quânticos", explica Lidar, que detém a Cátedra Viterbi em Engenharia na USC. O que torna esta conquista particularmente significativa é o facto de a aceleração ser "incondicional" – ou seja, não depende de pressupostos não comprovados sobre algoritmos clássicos.
Os investigadores superaram o maior obstáculo da computação quântica – o ruído, ou erros computacionais – através da implementação de técnicas sofisticadas de mitigação de erros. Estas incluíram desacoplamento dinâmico, otimização de transpilações e mitigação de erros de medição, permitindo que os processadores quânticos mantivessem a coerência tempo suficiente para concluir os cálculos.
Embora Lidar alerte que esta demonstração específica não tem aplicações práticas imediatas além de problemas especializados, valida de forma inequívoca a promessa teórica da computação quântica. "A separação de desempenho não pode ser revertida porque a aceleração exponencial que demonstrámos é, pela primeira vez, incondicional", sublinha.
Esta conquista surge numa altura em que a IBM continua a avançar no seu roteiro quântico, tendo anunciado recentemente planos para construir um computador quântico de grande escala e tolerante a falhas até 2029. A empresa desenvolveu um novo esquema de correção de erros, denominado códigos qLDPC (quantum low-density parity check), que poderá reduzir drasticamente os recursos necessários para a computação quântica prática.
Para a IA e áreas computacionais, este avanço sinaliza que a computação quântica está a passar do potencial teórico para a realidade prática. À medida que os sistemas quânticos continuam a escalar e as taxas de erro diminuem, prometem processamentos exponencialmente mais rápidos para modelos complexos de IA, problemas de otimização e simulações que continuam intratáveis para os computadores clássicos.