Llevo 7 años computando, justo después de terminar mi maestría. En aquel momento, el campo estaba lleno de entusiasmo pero también de escepticismo. Hoy en día, la computación cuántica se destaca como una tecnología emergente, junto con las HPC y la IA.
La atención ha pasado de la investigación y el debate exclusivamente relacionados con el hardware a las aplicaciones, el software y los algoritmos. Quantum es realmente una herramienta que se puede utilizar en diferentes disciplinas, no en un campo aislado. Uno de los usos prometedores, pero aún no completamente comprendido, de las computadoras cuánticas es el aprendizaje automático cuántico.
El aprendizaje automático cuántico (QML) se ha convertido en un término genérico en los últimos dos años. Una de las primeras y más significativas apariciones de QML fue en 2013, cuando Google y la NASA establecieron el Laboratorio de Inteligencia Artificial Cuántica, cuya tarea era explorar cómo las computadoras cuánticas podrían usarse en aplicaciones de aprendizaje automático. Desde entonces, el término QML ha aparecido en artículos de investigación, propuestas de startups y charlas en conferencias, a menudo con significados completamente diferentes.
En algunos casos, se refiere al uso de computadoras cuánticas para acelerar el aprendizaje automático. En otros, describe algoritmos clásicos inspirados en la física cuántica. Y, a veces, simplemente significa ejecutar un flujo de trabajo de aprendizaje automático familiar en hardware desconocido.
Así que incluso yo, alguien que trabaja e investiga en computadoras cuánticas, estaba muy confundido al principio… Apuesto a que la primera pregunta de muchas personas cuando escuchan “Aprendizaje automático cuántico” es ¿qué es exactamente lo que hace que el aprendizaje automático sea cuántico? cuántico?
¡Responder a esta pregunta es la razón por la que decidí escribir este artículo! La respuesta breve no es la velocidad, ni las redes neuronales, ni las vagas referencias a la “ventaja cuántica”. Básicamente, el aprendizaje automático cuántico se define por la forma en que se representa, transforma y lee la información. En QML, esto se hace utilizando las reglas de la mecánica cuántica en lugar de la computación clásica.
Este artículo tiene como objetivo aclarar esta distinción, separar la sustancia de la exageración y proporcionar una base conceptual clara para el resto de esta serie. Planeo escribir sobre la exploración de la tradición de QML, así como algunos de sus resultados de investigación y aplicaciones a corto plazo.
Aprendizaje automático antes de lo “cuántico”
Antes de abordar todo lo cuántico, demos un paso atrás. Despojado de sus adornos modernos, el aprendizaje automático consiste en aprender a mapear las entradas y las salidas utilizando datos. Independientemente de si el modelo es un regresor lineal, un método kernel o una red neuronal profunda, la estructura es más o menos la misma:
- Los datos se representan numéricamente (vectores, matrices, tensores).
- Un modelo parametrizado transforma estos datos.
- Los parámetros se ajustan optimizando una función de costos.
- El modelo se evalúa estadísticamente en nuevas muestras.
Las redes neuronales, las GPU y los conjuntos de datos masivos son opciones de implementación, no características definitorias. Esta abstracción es importante porque nos permite hacer una pregunta precisa:
¿Qué cambia cuando el Los datos y el modelo viven en un espacio cuántico.?
Ingrese a la mecánica cuántica
El aprendizaje automático cuántico se vuelve cuántico cuando la información cuántica es el sustrato computacional. Esto aparece de tres maneras.
1. Los datos se representan como estados cuánticos.
En los modelos clásicos de aprendizaje automático, los datos se representan como bits o números de punto flotante. Por el contrario, el aprendizaje automático cuántico utiliza estados cuánticos, que son vectores complejos que siguen las reglas de la mecánica cuántica. Estos estados a menudo se describen mediante matrices de densidad y sus transformaciones se representan mediante matrices unitarias.
Como resultado, codificamos información en rangos de valores complejos en lugar de probabilidades, y los estados pueden existir en superposición.
Esto hace No significa que todos los datos clásicos de repente se comprimen exponencialmente o se vuelven fácilmente accesibles. Cargar datos en estados cuánticos suele ser costoso y extraer información de ellos está fundamentalmente limitado por la medición.
Entonces, el punto importante es que el modelo opera con estados cuánticos, no con números clásicos.
2. Los modelos son evoluciones cuánticas.
Los modelos de ML clásicos aplican funciones a los datos. Los modelos Quantum ML aplican operaciones cuánticas (normalmente transformaciones unitarias) a canales cuánticos. En la práctica, muchos modelos QML se construyen a partir de circuitos cuánticos parametrizados. Estos circuitos son secuencias de puertas cuánticas, que son operaciones básicas que cambian los estados cuánticos. Los parámetros de estas puertas cuánticas se ajustan durante el entrenamiento, de forma similar al ajuste de pesos en una red neuronal en el aprendizaje automático clásico.
Básicamente, lo que sucede en estos modelos es que comenzamos con el estado del sistema, representado en una matriz (llamémosla hamiltoniana, para ser más precisos), y luego las puertas que aplicamos al sistema nos dirán cómo ese sistema evoluciona (cambia) durante un período de tiempo determinado. Esta evolución dicta el comportamiento del modelo.
Como resultado, los modelos cuánticos exploran un espacio de hipótesis que es estructuralmente diferente al de los modelos clásicos, incluso cuando el ciclo de entrenamiento parece similar en la superficie.
3. La medición es parte del proceso de aprendizaje.
En el ML clásico, leer el resultado de un modelo es trivial y de ninguna manera afecta el estado o el comportamiento del modelo (a menos que lo hagamos intencionalmente). Sin embargo, en el aprendizaje automático cuántico, la medición es probabilística y destructiva del estado. Esto tiene un efecto significativo en el sistema. Las salidas están determinadas por ejecuciones repetidas de circuitos, llamadas “disparos”. En este caso, “disparar” significa ejecutar el mismo circuito cuántico varias veces para estimar un resultado, ya que las mediciones cuánticas son probabilísticas.
Los gradientes (que guían la actualización de los parámetros durante el entrenamiento) se estiman estadísticamente a partir de estas mediciones, en lugar de calcularse exactamente como en el aprendizaje automático clásico. Como resultado, el costo de la capacitación a menudo depende del muestreo del ruido de estas mediciones repetidas en lugar de solo del cálculo.
En otras palabras, la incertidumbre está integrada en el propio modelo. Cualquier discusión seria sobre QML debe tener en cuenta el hecho de que el aprendizaje ocurre a través de medición, no después de ella.
que hace No Hacer QML cuántico
La computación cuántica y QML en particular generan exageraciones y malentendidos. Muchas cosas que hoy se llaman “aprendizaje automático cuántico” son cuánticas solo de nombre, por ejemplo:
- Los algoritmos de ML clásicos se ejecutan en hardware cuántico sin hacer un uso significativo de los estados cuánticos.
- Métodos “inspirados en lo cuántico” que son completamente clásicos.
- Canalizaciones híbridas donde el componente cuántico se puede eliminar sin cambiar el comportamiento o rendimiento del modelo.
Si te encuentras con alguien que habla sobre QML y no estás seguro de qué tan cuántico es el modelo que están discutiendo, una buena regla a seguir es preguntar:
“¿Puedo sustituir la parte cuántica por una clásica sin cambiar la estructura matemática del modelo?”
Si es así o tal vez, el enfoque probablemente no sea fundamentalmente cuántico. Este trabajo puede seguir siendo valioso, pero queda fuera del núcleo del aprendizaje automático cuántico.
¿Dónde está QML hoy?
Cuando hablemos de computación cuántica, recuerde que el hardware actual es ruidoso, pequeño y tiene recursos limitados. Debido a esto:
- Actualmente, no existe una ventaja cuántica general y probada para las tareas de aprendizaje automático.
- Muchos modelos QML se parecen más a los métodos del kernel que a las redes profundas.
- La carga de datos y el ruido suelen dominar el rendimiento.
Esto no es un fracaso en el campo; Ahí es donde se encuentra actualmente la computación cuántica. La mayoría de las investigaciones sobre QML son ahora exploratorias: mapean clases de modelos, comprenden la teoría del aprendizaje cuántico e identifican dónde la estructura cuántica podría ser importante.
Por qué todavía vale la pena estudiar el aprendizaje automático cuántico
Si la aceleración a corto plazo es poco probable, ¿por qué perseguir QML?
QML nos obliga a repensar cuestiones fundamentales sobre el aprendizaje automático y la computación cuántica. Necesitamos responder qué significa aprender de los datos cuánticos, cómo el ruido afecta la optimización y qué clases de modelos existen en los sistemas cuánticos pero no en los sistemas clásicos.
El aprendizaje automático cuántico se trata menos de superar el aprendizaje automático clásico actual y más de ampliar el espacio de lo que podría significar el “aprendizaje” en un mundo cuántico.
Esto es importante porque los avances científicos y tecnológicos comienzan con nuevos enfoques. Incluso si el hardware aún no está listo, explorar QML nos prepara para un mejor hardware en el futuro.
Pensamientos finales y lo que viene después.
Los avances en la computación cuántica se están acelerando. Las empresas de hardware están compitiendo para construir una computadora cuántica tolerante a fallas. Una computadora cuántica que utiliza todo el poder de la mecánica cuántica. Las empresas de software y aplicaciones están explorando los problemas que la computación cuántica puede resolver de manera significativa.
Dicho esto, las computadoras cuánticas actuales son incapaces de ejecutar una aplicación de tamaño casi natural, y mucho menos un modelo complejo de aprendizaje automático. Aún así, la promesa de la eficiencia de la computación cuántica en el aprendizaje automático es bastante emocionante y vale la pena explorarla ahora, en paralelo con los avances del hardware.
En este artículo, me centré en las definiciones y los límites del aprendizaje automático cuántico para allanar el camino para futuros artículos que explorarán:
- Cómo se incorporan los datos clásicos a los estados cuánticos.
- Modelos cuánticos variacionales y sus limitaciones.
- Núcleos cuánticos y espacios de características.
- Desafíos de optimización en sistemas cuánticos ruidosos.
- Donde es plausible que surja una ventaja cuántica.
Antes de preguntar si el aprendizaje automático cuántico es útil, debemos tener claro qué es realmente. Cuanto más nos alejemos de las exageraciones, más cerca estaremos del progreso.
















