La computación cuántica es uno de los campos que más pasiones levanta entre los devotos del sector tecnológico. Un ejemplo de ello podría ser Jensen Huang, actual CEO de Nvidia y una de las voces que más fe ha depositado en lograr avances en este sector. De hecho, Huang no es el único, ya que otras compañías como IBM o Google también han hecho sus pinitos para contribuir a la evolución de la computación cuántica. Ahora, sorpresivamente para ellos, un grupo de investigadores de la Universidad de California ha conseguido demostrar que no necesitan chips cuánticos perfectos para construir sistemas escalables.
Como señala TechSpot, en la actualidad es posible ensamblar ordenadores cuánticos fiables a partir de chips más pequeños interconectados, una acción para la que no necesitan que sean perfectos. Así, este avance podría acelerar la llegada de los ordenadores cuánticos capaces de resolver problemas complejos a gran escala, una opción que los gigantes del sector tecnológico investigan desde hace años. Por suerte para ellos, el estudio de los investigadores de Riverside ha mostrado que la tolerancia a los fallos es una de las claves del futuro de la computación cuántica.
Un hallazgo que reduce las exigencias del sector
Según los investigadores, la tolerancia a los fallos es determinante, ya que permite detectar y corregir errores de forma automática. Tradicionalmente, el progreso de medía en número de qubits, pero la ausencia de la tolerancia a fallos daba pie a que los resultados no fueran útiles de por sí. Gracias al trabajo liderado por Mohamed A. Shelby, doctorando en física y astronomía en UC Riverside, la computación cuántica podría dar ese salto que algunos llevan mucho tiempo buscando.
Para lograr los resultados obtenidos, la investigación señala que realizaron miles de simulaciones con la intención de probar seis diseños modulares distintos, todos ellos inspirados en la infraestructura cuántica de Google. De esta forma, uno de los principales obstáculos es el ruido en las conexiones entre chips, especialmente si estos están en refrigeradores criogénicos separados. Sorpresivamente, esto le sirvió al equipo para descubrir que, incluso con conexiones diez veces más ruidosas que los propios chips, el sistema podía corregir errores si los chips mantenían alta fidelidad.
Gracias a este hallazgo, los investigadores aseguran que la computación cuántica podría reducir los requisitos de hardware para la construcción de sistemas cuánticos a gran escala. La investigación, según revela la publicación original, se basó en el código de superficie, la técnica de corrección de errores más utilizada del momento. A raíz de la misma, demostraron que, si utilizan una arquitectura modular, es posible codificar qubits lógicos robustos y de alta fidelidad, una situación que logran a pesar de los enlaces imperfectos.
Imagen principal de 3DJuegos
En 3DJuegos | Europa se sube a la ola de la computación cuántica con un plan revolucionario que ya tiene fecha: 2026
Ver 0 comentarios