Los científicos que investigan en el ámbito de los computadores cuánticos están intentando resolver varios desafíos titánicos.
Uno de ellos, probablemente el más complejo, consiste en poner a punto una tecnología que permita a los equipos cuánticos enmendar sus propios errores.
También es imprescindible elaborar nuevos algoritmos cuánticos, fabricar cúbits de más calidad y desarrollar nuevas herramientas que permitan controlarlos con precisión y llevar a cabo más operaciones lógicas con ellos.
Curiosamente, hay un reto vinculado a la computación cuántica que habitualmente pasa desapercibido, y, al igual que los anteriores desafíos, es crucial.
Para que los cúbits de un computador cuántico lleven a cabo su función correctamente es imprescindible que operen en un entorno controlado, de manera que estén sometidos a las mínimas perturbaciones posibles.
De lo contrario el estado cuántico del sistema no se preservará y las perturbaciones provocarán que cambien de estado cuántico de forma espontánea.
Para recrear el entorno de trabajo óptimo los cúbits superconductores operan a una temperatura extremadamente baja.
De hecho, está muy cerca del cero absoluto, que es -273,15 ºC.
La temperatura de trabajo de los equipos cuánticos que tienen compañías como Intel, Google o IBM es de unos 20 milikelvin, que son aproximadamente -273 ºC.
La ventaja que conlleva operar con un nivel de energía tan bajo consiste en que permite dilatar el tiempo durante el que los cúbits mantienen los efectos cuánticos, pero no es fácil recrear estas condiciones.
En el contexto de los computadores cuánticos la decoherencia cuántica se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado cuántico entrelazado se mantenga.
Esto significa, en palabras un poco más sencillas, que a partir de ese momento los cúbits dejan de comportarse como dictan las reglas de la mecánica cuántica y pasan a exhibir el comportamiento dictado por las reglas de la física clásica.
Dadas las circunstancias es evidente que la aparición de la decoherencia cuántica es un problema.
Y lo es debido a que cuando surge los computadores cuánticos pierden toda su ventaja sobre los supercomputadores clásicos.
Los físicos y los ingenieros que están trabajando para mejorar la calidad de los cúbits y preservar durante tanto tiempo como sea posible las condiciones necesarias para mantener la coherencia cuántica están poco a poco alcanzando resultados muy positivos.
Precisamente un grupo de investigadores del MIT (Instituto Tecnológico de Massachusetts), en Estados Unidos, ha contribuido con una aportación muy importante.
“Este es uno de los principales problemas de la información cuántica.
El espín nuclear es un recurso muy atractivo para poner a punto sensores cuánticos, giroscopios y memorias cuánticas, pero tiene un tiempo de coherencia de unos 150 microsegundos.
Una vez que ha transcurrido ese tiempo la información simplemente desaparece.
Lo que nosotros hemos descubierto es que si entendemos mejor las interacciones en estos sistemas (el ruido), podemos hacerlo mucho mejor“.
Esta declaración de Ju Li, el físico que lidera el grupo de investigación del MIT, sugiere cuál ha sido la estrategia que han implementado estos investigadores.
Y es que su solución es muy ingeniosa: han puesto a punto un protocolo que consigue dilatar el tiempo de coherencia desde los 150 microsegundos hasta los 3 milisegundos. La diferencia es abismal.
Curiosamente la estrategia que han implementado para caracterizar la fuente de ruido (esencialmente se trata de la energía térmica residual presente en el sistema cuántico) e inhibirla es parecida a la forma en que los auriculares con cancelación combaten el ruido.
No obstante, hay otra buena noticia: en su artículo explican que este es tan solo el punto de partida, por lo que esperan alcanzar tiempos de coherencia superiores a los 3 milisegundos.
Fuente: MIT News