No todos los científicos confían a pies juntillas en las capacidades de los computadores cuánticos.
Algunos, como el matemático israelí Gil Kalai, que da clase en la Universidad Yale (Estados Unidos), defienden que nunca funcionarán bien.
Este académico en particular cree que el aumento de la complejidad de los sistemas cuánticos provocará que acaben comportándose como los computadores clásicos, por lo que la superioridad de los primeros acabará evaporándose.
Otros investigadores, sin embargo, son mucho más optimistas.
Ignacio Cirac, el físico español considerado de forma unánime junto a Peter Zoller el padre fundacional de la computación cuántica, sostiene que “desarrollar un computador cuántico que no tenga errores es muy complicado. No tengo ninguna duda de que va a pasar (en este ámbito no estoy de acuerdo con lo que dice Gil Kalai), pero creo que va a tardar mucho tiempo”.
El centro de este debate está ocupado por la corrección de errores.
Los científicos que investigan en el ámbito de la computación cuántica lidian también con otros desafíos, pero la necesidad de implementar un sistema de corrección capaz de garantizar que los resultados que devuelven los sistemas cuánticos son correctos es fundamental.
De lo contrario no podrán enfrentarse a la resolución de problemas realmente significativos. O esto creían los expertos hasta ahora.
Y es que un equipo de investigadores de IBM acaba de entregarnos evidencias muy sólidas que defienden que los computadores cuánticos pueden resolver problemas complejos sin necesidad de contar con un sistema de corrección de errores.
Su trabajo es extraordinariamente esperanzador debido a que pone sobre la mesa con argumentos tangibles la posibilidad de que los computadores cuánticos puedan ser utilizados para resolver problemas significativos antes de que llegue la tan ansiada corrección de errores.
Este hallazgo no significa que la corrección de errores ya no es importante. Por supuesto que lo es.
De hecho, sigue siendo la meta final de buena parte de los investigadores en computación cuántica debido a que cuando llegue presumiblemente estas máquinas podrán intervenir en la resolución de un abanico muy amplio de problemas.
En esencia lo que han demostrado estos investigadores de IBM es que por el camino los sistemas cuánticos van a ser capaces de funcionar correctamente y resolver algunos problemas relevantes sin contar con este recurso.
A grandes rasgos lo que han hecho ha sido implementar un sistema de mitigación de errores, que no de corrección, tomando como base un computador cuántico equipado con un procesador Eagle de 127 cúbits.
Los ingenieros de IBM involucrados en este experimento han contado con la ayuda de varios investigadores de la Universidad de California en Berkeley y del Laboratorio Nacional Lawrence Berkeley.
Trabajando juntos han logrado refinar la calibración de los cúbits superconductores de este procesador cuántico con el propósito de minimizar el ruido al que está expuesto e incrementar su coherencia.
Su objetivo era dilatar el tiempo durante el que los cúbits preservan los efectos cuánticos, que es lo que permite utilizarlos para llevar a cabo cálculos aprovechando las ventajas que conlleva operar con un sistema cuántico y no con uno clásico.
Cuando desaparecen los efectos cuánticos surge un fenómeno conocido como decoherencia cuántica, y a partir de ese instante el computador cuántico pierde su ventaja y pasa a comportarse como un computador clásico.
No obstante, esto no es todo.
Para poner a prueba su estrategia y averiguar si realmente su tecnología de calibración de los cúbits superconductores y reducción del ruido es eficaz compararon su salida con la de un circuito verificable.
Y concluyeron su experimento con un último reto: el computador cuántico de 127 cúbits se enfrentó a un supercomputador clásico de última generación.
Lo sorprendente es que en al menos uno de los cálculos el computador cuántico entregó los resultados correctos, pero el supercomputador clásico fracasó en el intento.
Aún queda mucho trabajo por hacer en este ámbito, pero estos científicos han llegado a una conclusión muy importante: un procesador cuántico de poco más de 100 cúbits que no cuenta con corrección de errores puede ser utilizado para resolver problemas científicos significativos.
Eso sí, para que sea capaz de entregar resultados fiables es necesario mitigar los errores calibrando los cúbits con un procedimiento extraordinariamente avanzado y riguroso.
Algunos algoritmos cuánticos, como la factorización o la estimación de fase, entre otros, no podrán ser resueltos con un computador cuántico hasta que cuente con un sistema de corrección de errores eficaz, pero otros problemas del mundo real un poco más sencillos sí podrán ser abordados con los computadores cuánticos actuales.
Esta declaración de Sajant Anand, uno de los autores del experimento, nos invita a ser razonablemente optimistas:
“Nos estamos adentrando en un terreno en el que los computadores cuánticos serán capaces de hacer cosas que los algoritmos actuales no pueden hacer cuando los ejecutamos sobre un computador clásico“.
Fuente: Nature
El concepto de Laika, un perro robótico realista, se ha presentado como un posible compañero…
Un proyecto de la NASA presenta los datos astronómicos en un formato al que no…
Un sistema de inteligencia artificial que analiza resonancias magnéticas especializadas del cerebro diagnosticó con precisión…
Se ha conseguido llegar a una fracción líquida tan infinitesimal como lo sería llenar todos…
Descifrar textos escritos en lenguas muertas y sobre soportes que han sufrido el desgaste de…
La agencia norteamericana DARPA está trabajando en el próximo paso en la distribución de energía…