El artículo científico en el que un grupo de investigadores de Google explica qué procedimiento ha utilizado para alcanzar la tan ansiada «supremacía cuántica» ha sido publicado hace unas horas en la prestigiosa revista científica Nature.
Lo curioso es que, como os explicamos en su momento, conocemos su contenido desde hace varias semanas porque fue publicado, probablemente por error, en la página web de la NASA.
Que una revista con el prestigio de Nature respalde un artículo es motivo suficiente para dar por hecho que su contenido ha superado los cauces de validación que debe sortear un artículo de carácter científico, pero este texto está sometido a un debate intenso desde hace semanas.
Y es que desde que se conoce su contenido varios expertos han puesto en tela de juicio que realmente Google haya alcanzado este hito.
Incluso IBM, que compite con Google en el ámbito de la computación cuántica, ha negado que este experimento realmente represente la consecución de la supremacía cuántica.
Qué es la supremacía cuántica y por qué está generando tanto revuelo?
No podemos indagar en el artículo que Google acaba de publicar en Nature sin repasar qué es la supremacía cuántica y por qué es tan importante.
Afortunadamente, entender este concepto no es difícil.
En realidad no es más que el hito que alcanzaremos cuando un computador cuántico sea más rápido en la práctica que un computador clásico cuando ambos se enfrenten a la resolución de un mismo problema.
No obstante, esta definición admite matices.
¿En qué medida debe ser más rápido el computador cuántico? ¿Mucho? ¿Basta que lo sea solo un poco?
La idea comúnmente aceptada propone que la máquina cuántica consiga resolver en un plazo de tiempo abarcable un problema que un súper computador clásico resolvería en un plazo de tiempo inasumible dada su extensión.
Precisamente esto es lo que los investigadores de Google aseguran haber logrado en su artículo.
El equipo liderado por John Martinis explica en su informe que ha sido capaz de diseñar un computador cuántico con cúbits de la suficiente calidad para resolver un algoritmo matemático muy complejo que tiene como objetivo generar números aleatorios.
A priori lo que han hecho no parece gran cosa, pero lo interesante es que, según estos investigadores, el súper computador clásico más potente que tenemos hoy en día, que es el supercomputador Summit del Laboratorio Nacional Oak Ridge (Estados Unidos), invertiría en este proceso 10.000 años.
Y al computador cuántico de Google le ha llevado solo tres minutos y veinte segundos.
Hasta aquí todo parece estar bien atado. Entonces ¿dónde está el problema?
Algunos expertos, como la física y criptógrafa estadounidense cuyo tuit pueden leer a continuación, defienden que no será posible alcanzar la supremacía cuántica hasta que no desarrollemos un sistema de corrección de errores lo suficientemente robusto para garantizar el correcto funcionamiento de la máquina cuántica.
Otros expertos, como el matemático Gil Kalai, que da clase en Yale, es aún más pesimista porque asegura que nunca alcanzaremos este logro porque a medida que se incrementa el número de estados de un sistema cuántico, y, por tanto, su complejidad, es más probable que se comporte como uno clásico, lo que provocaría que pierda cualquier ventaja sobre una máquina convencional.
Y luego tenemos lo que afirma IBM.
Según esta empresa, que, compite con Google en el ámbito de la computación cuántica, el logro del equipo de John Martinis no debe ser calificado como tal porque IBM, al parecer, puede resolver ese mismo problema utilizando un súper computador clásico.
Pero no en 10.000 años como afirma Google, sino en dos días y medio.
Aun dando por bueno lo que dice IBM parece razonable pensar que la diferencia entre los 200 segundos de Google y los dos días y medio de IBM es muy abultada. Y sí, lo es.
Pero, como hemos visto unos párrafos más arriba, en la definición de este hito está implícita la necesidad de que el problema resuelto sea inabarcable por un computador clásico en un plazo de tiempo razonable.
Y los dos días y medio que propone IBM representan un plazo de tiempo abarcable.
Además, según esta última compañía la máquina cuántica de Google tiene la ventaja de no utilizar una memoria y discos duros convencionales, mientras que el súper computador de IBM se ve obligado a utilizar componentes electrónicos que condicionan seriamente su rendimiento.
De hecho, en IBM van incluso más lejos al afirmar que con tiempo suficiente para mejorar su hardware y su algoritmo podrían recortar drásticamente esos dos días y medio para acercarse a la productividad del computador cuántico de Google.
El artículo que los investigadores de Google han publicado en Nature es un texto científico, y, como tal, su contenido es complejo.
Aun así, hay varias ideas interesantes en las que merece la pena que indaguemos sin entrar en detalles demasiado complicados.
La primera de ellas consiste en que el procesador cuántico Sycamore utilizado por Google incorpora 53 cúbits superconductores, lo que significa que un estado interno concreto de esta máquina tiene un tamaño de 253.
Para intuir qué significa esto solo tenemos que tener presente que en un procesador clásico de n bits la cantidad de información que podemos codificar en un estado concreto utilizando esos n bits tiene tamaño n, pero en un procesador cuántico de n cúbits un estado concreto de la máquina tiene tamaño 2n.
Otra idea interesante expuesta por los investigadores de Google en su artículo explica por qué han decidido utilizar en su experimento un generador de números pseudoaleatorios.
Según ellos su elección es la correcta a la hora de poner a prueba la capacidad de su computador cuántico porque este procedimiento carece de estructura y garantiza un esfuerzo computacional lo suficientemente elevado para que un súper computador clásico no sea capaz de resolverlo en un plazo de tiempo abarcable.
La última explicación de los investigadores del equipo de John Martinis en la que merece la pena que nos detengamos detalla qué método han utilizado para cerciorarse de que tanto su procesador cuántico como su algoritmo han funcionado correctamente.
En su artículo explican que han recurrido a un método conocido como prueba de entropía cruzada que, grosso modo, compara la frecuencia con la que se observa experimentalmente cada salida del computador cuántico con la distribución de probabilidad calculada mediante simulación en un computador clásico.
Fuente: Xataca