Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Ciencia y tecnología 15 feb 2019

¿Qué es la computación cuántica?: el poderoso salto de los 'bits' a los cúbits

La integración de los fundamentos de la mecánica cuántica en la computación cambiará la potencia y el alcance de los ordenadores. Aún existen obstáculos, pero los últimos avances indican que pronto serán historia.

apertura-bbva-computacion-cuantica-innovacion-tecnologia

Vivimos bajo la acertada impresión de que la computación avanza continua e implacablemente, según la Ley de Moore: los ordenadores son cada vez más potentes a la vez que disminuye su tamaño y su coste. Pero esta ley, expresada por Gordon E. Moore en 1965, no es eterna, pues la naturaleza tiene sus límites (es imposible construir un transistor más pequeño que un átomo) e incluso hay quien le ha puesto una cercana fecha de caducidad, 2023. Por eso, dado que la creciente digitalización y conectividad demanda más potencia, se miran con particular anhelo los avances en computación cuántica.

El funcionamiento de un ordenador parte de los 'bits', la unidad de información que sirve de base para los algoritmos, que representa un dígito entre dos posibles (0 y 1).  Así es en la computación clásica, la que usamos actualmente, que vivirá un cambio radical cuando se generalicen fundamentos de la mecánica cuántica —que usa el modelo de los estados del átomo— como la superposición de estados o el entrelazamiento en la computación.

Porque en virtud de esas características, los cúbits (o 'qubits') de la computación cuántica pueden ser 0, pueden ser 1 o… o 0 y 1 a la vez. “Esta circunstancia se traduce en que la computación cuántica es intrínsecamente paralela y su potencia de cálculo crece exponencialmente con el número de cúbits”, explica Vicente Moret, investigador del Centro de Investigación TIC (CITIC) de la Universidade da Coruña, catedrático del departamento de Computación de la misma universidad y autor de ‘Adventures in Computer Science’, elegido por Bookauthority como uno de los 12 mejores libros sobre computación cuántica de este año.

Las aplicaciones prácticas de la computación cuántica pueden ser valiosísimas, según Moret. “Además de en la inteligencia artificial y el aprendizaje automático, la computación cuántica va a tener una tremenda importancia en el diseño de fármacos, la genómica y, en general, en casi todos los campos de la bioinformática. Por otra parte, también será decisiva en problemas de cifrado de la información, criptografía y codificación, y también en el mundo de las telecomunicaciones”.

¿Cuándo y cómo se conseguirá?

La computación cuántica se enfrenta a diversos obstáculos, el mayor de ellos la propia construcción física de un ordenador que evite la ‘decoherencia’ del cúbit y los errores que puede provocar. “Un ordenador cuántico no tiene por qué ser muy distinto de uno convencional, lo que sí ocurre es que tiene que ser perfectamente estanco y estar completamente aislado”, señala Vicente Moret: “Ello es debido a una propiedad que se denomina ‘coherencia cuántica’. Y es que cuando un cúbit interacciona con el medio pierde sus propiedades cuánticas, y se convierte en un 'bit' convencional. Interaccionar con el medio quiere decir, por ejemplo, medir. Por esta razón nuestros algoritmos cuánticos tienen que ejecutarse antes del tiempo de ‘decoherencia’ del cúbit. En computación cuántica tenemos que ser capaces de ejecutar el algoritmo completo antes de medir, y antes de que el cúbit pierda sus propiedades cuánticas”. Para conseguir esa estanquidad que no perturbe los cúbits, los ordenadores cuánticos han de estar a temperatura de cero absoluto (-273º Celsius) y en condiciones de vacío.

Gigantes tecnológicos como Intel, IBM o Google llevan tiempo invirtiendo en computación cuántica y la canadiense D-Wave ofrece un ordenador de 2.000 cúbits. Fujitsu, por su parte, ha lanzado Digital Annealer, una tecnología que simula el funcionamiento de un procesador cuántico. La firma japonesa pone un ejemplo práctico de la ventaja cuántica que ofrece Digital Annealer respecto a la computación tradicional: si se quiere saber el impacto que la peatonalización de una calle tendrá en el tráfico de 49 vías colindantes, un ordenador normal tardaría un año en calcularlo, un 'superordenador' entre ocho y nueve meses, mientras que su tecnología lo haría en 0,3 segundos.

El catedrático Vicente Moret indica que el Nobel de Física Richard Feynman —“uno de los pioneros de la computación cuántica”— conjeturó que hasta 2050 no habría ordenadores cuánticos de sobremesa, aunque él se muestra más optimista: “En mi opinión, no tardaremos más de 15 o 20 años en utilizar ordenadores cuánticos ‘domésticos”.