En un logro histórico para la computación cuántica, los investigadores han demostrado el tan buscado 'Santo Grial' del campo: una aceleración exponencial respecto a los ordenadores clásicos que no requiere suposiciones ni condiciones previas.
El estudio revolucionario, publicado en Physical Review X, estuvo liderado por el profesor Daniel Lidar de la Universidad del Sur de California (USC), en colaboración con colegas de la USC y la Universidad Johns Hopkins. El equipo utilizó dos de los potentes procesadores cuánticos Eagle de 127 cúbits de IBM para resolver una variación del 'problema de Simon', un rompecabezas matemático considerado precursor del algoritmo de factorización de Shor.
"Una aceleración exponencial es el tipo de mejora más espectacular que esperamos ver de los ordenadores cuánticos", explica Lidar, que ostenta la Cátedra Viterbi de Ingeniería en la USC. Lo que hace que este logro sea especialmente significativo es que la aceleración es "incondicional", es decir, no depende de ninguna suposición no demostrada sobre los algoritmos clásicos.
Los investigadores superaron el mayor obstáculo de la computación cuántica —el ruido o los errores computacionales— implementando sofisticadas técnicas de mitigación de errores. Entre ellas se incluyeron desacoplamiento dinámico, optimización de transpilar y mitigación de errores de medición, lo que permitió a los procesadores cuánticos mantener la coherencia el tiempo suficiente para completar los cálculos.
Aunque Lidar advierte que esta demostración concreta no tiene aplicaciones prácticas inmediatas más allá de problemas especializados, valida de manera firme la promesa teórica de la computación cuántica. "La separación de rendimiento no puede revertirse porque la aceleración exponencial que hemos demostrado es, por primera vez, incondicional", señala.
Este logro llega mientras IBM continúa avanzando en su hoja de ruta cuántica, anunciando recientemente planes para construir un ordenador cuántico a gran escala y tolerante a fallos para 2029. La compañía ha desarrollado un nuevo esquema de corrección de errores denominado códigos cuánticos de verificación de paridad de baja densidad (qLDPC), que podría reducir drásticamente los recursos necesarios para la computación cuántica práctica.
Para la inteligencia artificial y los campos computacionales, este avance indica que la computación cuántica está pasando de ser una posibilidad teórica a una realidad práctica. A medida que los sistemas cuánticos continúen escalando y disminuyan las tasas de error, prometen un procesamiento exponencialmente más rápido para modelos de IA complejos, problemas de optimización y simulaciones que siguen siendo intratables para los ordenadores clásicos.