La empresa quiere hacer realidad los ordenadores cuánticos a gran escala en solo 10 años
El 22 de mayo, IBM hizo este anuncio en la cumbre
del G7, celebrada en Hiroshima (Japón). La empresa se asociará con la
Universidad de Tokio (Japón) y la Universidad de Chicago (EE UU) en una
iniciativa de 100 millones de dólares (unos 93 millones de euros) para llevar
la computación cuántica a una operación a gran escala. En ella, la tecnología
podría abordar problemas acuciantes que ningún superordenador estándar puede
resolver.
O, al menos, no podrá resolverlos por sí solo. La
idea es que los 100.000 qubits trabajen junto a los mejores superordenadores
"clásicos" para lograr nuevos avances en el descubrimiento de
fármacos, la producción de fertilizantes, el rendimiento de las baterías y
otras aplicaciones. "Lo llamo supercomputación cuántico-céntrica",
explica Jay Gambetta, vicepresidente de Cuántica de IBM, a MIT Technology
Review en una entrevista mantenida en Londres la semana pasada.
La informática cuántica almacena y procesa
información, aprovechando las propiedades únicas de partículas fundamentales:
electrones, átomos y pequeñas moléculas pueden existir en múltiples estados
energéticos a la vez. Este fenómeno se conoce como superposición, y los estados
de las partículas pueden entrelazarse entre sí. Eso significa que la
información puede codificarse y manipularse de formas novedosas, abriendo la
puerta a una serie de tareas informáticas imposibles.
Hasta ahora, los ordenadores cuánticos no han
conseguido nada útil que no puedan hacer los superordenadores estándar. Esto se
debe, en gran parte, a que no disponen de suficientes qubits y a que los
sistemas se ven fácilmente alterados por pequeñas perturbaciones en su entorno,
que los físicos denominan "ruido".
Los investigadores han estado explorando formas de
contener los sistemas ruidosos, pero muchos prevén que los sistemas cuánticos
tendrán que ampliarse para ser útiles. De este modo, podrán dedicar una gran
fracción de sus qubits a corregir los errores inducidos por el ruido.
IBM no es la primera empresa en soñar a lo grande.
Google ha manifestado que su objetivo es llegar a 1.000.000 de qubits para
finales de esta década, aunque la corrección de errores significa que solo
10.000 estarán disponibles para realizar cálculos. IonQ, con sede en Maryland,
aspira a tener 1.024 "qubits lógicos", cada uno formado por un
circuito de corrección de errores de 13 qubits físicos, preparados para
realizar cálculos en 2028. PsiQuantum, con sede en Palo Alto (como Google),
también aspira a construir un ordenador cuántico de un 1.000.000 de qubits,
pero no ha revelado su objetivo temporal ni sus requisitos de corrección de
errores.
Debido a estas condiciones, citar el número de
qubits físicos es una especie de pista falsa: los detalles de cómo están
construidos, que afectan a factores como su resistencia al ruido y su facilidad
de funcionamiento, son cruciales. Las empresas implicadas suelen ofrecer
medidas adicionales de rendimiento, como el "volumen cuántico" y el
número de "qubits algorítmicos". En la próxima década, los avances en
la corrección de errores, el rendimiento de los qubits y el objetivo de mitigar
errores mediante software, así como las grandes diferencias entre los distintos
tipos de qubits, harán que esta carrera sea complicada de seguir.
Perfeccionando el hardware
En la actualidad, los qubits de IBM se fabrican con
anillos de metal superconductor, que siguen las mismas reglas que los átomos
cuando funcionan a temperaturas de milikelvin, apenas una fracción de un grado
por encima del cero absoluto. En teoría, estos qubits pueden funcionar como un
gran conjunto. Sin embargo, según la hoja de ruta de IBM, los ordenadores
cuánticos que está construyendo solo pueden ampliarse hasta 5.000 qubits con la
tecnología actual. La mayoría de los expertos opinan que eso no es suficiente
para lograr una computación útil. Para crear ordenadores cuánticos potentes,
los ingenieros tendrán que ir más allá, y eso requerirá de nuevas tecnologías.
Por ejemplo, se necesita un control de los qubits
más eficiente, desde el punto de vista energético. Ahora, cada uno de los
qubits superconductores de IBM requiere unos 65 vatios para funcionar. "Si
quiero hacer 100.000, eso requiere mucha energía: voy a necesitar algo del tamaño
de un edificio, una central nuclear y mil millones de dólares para hacer esa
máquina", asegura Gambetta. "Eso es ridículo. Para pasar de 5.000 a
100.000, está claro que necesitamos innovación".
IBM ya ha realizado experimentos de pruebas
preliminares, que demuestran que los circuitos integrados basados en la
tecnología de "semiconductores complementarios de óxido metálico"
(CMOS, por sus siglas en inglés) pueden instalarse junto a los qubits fríos
para controlarlos con solo unas decenas de milivatios. Más allá de eso, admite
Gambetta, aún no existe la tecnología necesaria para la supercomputación
cuántica. Por ello, la investigación académica es una parte vital del proyecto.
Los qubits existirán en un tipo de chip modular,
que está empezando a tomar forma en los laboratorios de IBM. La modularidad
será esencial cuando resulte imposible poner suficientes qubits en un solo
chip, y requiere de interconexiones que transfieran información cuántica entre
los módulos. El Kookaburra de IBM es un procesador multichip de 1.386 qubits
con un enlace de comunicación cuántica, si bien está en fase de desarrollo, su
lanzamiento se ha previsto para 2025.
Otras innovaciones necesarias son aquellas que
aportan las universidades. Según Gambetta, los investigadores de Tokio y
Chicago ya han avanzado mucho en ámbitos como los componentes y las
innovaciones de comunicación, que podrían ser partes vitales del producto
final. En su opinión, en la próxima década es probable que se produzcan muchas
más colaboraciones entre la industria y el mundo académico: "Tenemos que
ayudar a las universidades a hacer lo que mejor saben hacer". Y Google
tienen una opinión similar. En otro acuerdo, destina 50 millones de dólares
(unos 47 millones de euros) a financiar la investigación en computación
cuántica en estas mismas universidades.
Gambetta asegura que el sector también necesita más
"científicos computacionales cuánticos". Es decir, personas
capacitadas para tender puentes entre los físicos que crean la máquina y los
desarrolladores que buscan diseñar y aplicar algoritmos útiles.
El software que funcione en máquinas cuánticas
también será de vital importancia. "Queremos crear la industria lo antes
posible, y la mejor forma de hacerlo es desarrollando el equivalente de
nuestras bibliotecas de software clásico", afirma Gambetta. Por eso, en
los últimos años IBM se ha esforzado por poner sus sistemas a disposición de
los investigadores académicos. Los procesadores cuánticos de IBM pueden
trabajar a través de la nube mediante interfaces personalizadas, que requieren
un conocimiento mínimo de los aspectos técnicos de la computación cuántica.
Además, explica que se han escrito unos 2.000 artículos de investigación sobre
experimentos con los dispositivos cuánticos de la empresa: "Para mí, eso
es un buen indicio de que la innovación está sucediendo".
No hay garantías de que los 100 millones de dólares
destinados a este proyecto basten para alcanzar el objetivo de los 100.000
qubits. "Sin duda, hay riesgo", reconoce Gambetta.
Joe Fitzsimons, consejero delegado de Horizon
Quantum, una empresa de desarrollo de software cuántico con sede en Singapur,
también está de acuerdo. "Es poco probable que vaya a ser un viaje
tranquilo y sin sorpresas".
No obstante, añade que es un riesgo que hay que
correr: la industria tiene que afrontar el miedo al fracaso y los retos
técnicos a los que se enfrenta la computación cuántica a gran escala. El plan
de IBM parece razonable, admite Fitzsimons, aunque hay muchos obstáculos en
potencia. "A esta escala, los sistemas de control serán un factor
limitante y tendrán que evolucionar para soportar un número tan grande de
qubits de forma eficiente", concluye Fitzsimons.
Fuente: MIT
Technology Review