Algoritmos de optimización en computación cuántica
Resumen
Los modelos de lenguaje más avanzados superan el billón de parámetros, y el consumo eléctrico anual en EE. UU. podría alcanzar cientos de TWh esta década, evidenciando el límite energético del hardware clásico y motivando la búsqueda de sustratos. La computación cuántica, al explotar el vasto espacio de Hilbert de los cúbits, promete redes neuronales cuánticas (QNNs) capaces de representar funciones mucho más complejas por parámetro.
El proyecto "Hacia una Ventaja Cuántica en Arquitecturas Deep Learning" reduce la barrera de entrada mediante dos recursos gratuitos. Primero, un libro online (https://seroviicai.github.io/torch-quantum/book) condensa teoría cuántica y computacional esencial, análisis de capacidad con geometría informacional y técnicas modernas de optimización de QNNs en <100 páginas; ejemplos en CUDA-Q y PyTorch guían al lector desde álgebra de un solo cúbit hasta "benchmarks" completos. Segundo, la librería Torch-Quantum (https://github.com/SeroviICAI/torch-quantum/tree/main) convierte esas ideas en mapas de características, formas variacionales, modelos y "scripts" ejecutables sin modificaciones en simuladores CPU/GPU o en procesadores cuánticos en la nube como Amazon Braket. Guiada por los principios "Usabilidad sobre Rendimiento" y "Simple sobre Fácil", los experimentos mantenienen cada operación explícita y manipulable.
Los experimentos con estas herramientas muestran que las QNNs alcanzan mayor dimensión efectiva (i.e. mayor expresividad) que redes clásicas con igual número de parámetros, logrando precisión casi perfecta en benchmarks pequeños como Iris y Wine tras pocas iteraciones, y estableciendo resultados estado-del-arte para modelos puramente cuánticos, incluyendo OptDigits. A mayor escala, los gradientes se encarecen bajo la regla de desplazamiento de parámetros y pueden desaparecer en "barren plateaus". El libro presenta estrategias de mitigación como retropropagaciones alternativas (e.g. métodos con tomografía de sombras y memoria cuántica), optimizadores de gradiente natural y entrenamiento por capas, animando al lector a perfeccionarlas. Al unir contexto, teoría y código, el proyecto ofrece una puerta única al avance colaborativo hacia el aprendizaje profundo cuántico. Frontier language models exceed one trillion parameters, and U.S. electricity demand could reach hundreds of TWh yearly this decade, highlighting the energy ceiling of classical hardware and driving the search for alternative substrates. Quantum computing, exploiting the vast Hilbert space of qubits, promises quantum neural networks (QNNs) that encode far richer functions per parameter.
The project "Toward a Quantum Advantage in Deep Learning Architectures" lowers the entry barrier via two free resources. First, an online book (https://seroviicai.github.io/torch-quantum/book) packs essential quantum-mechanical and computational theory, information-geometric capacity measures, and modern QNN-optimization techniques into <100 pages; CUDA-Q and PyTorch examples walk readers from single-qubit algebra to full benchmarks. Second, the Torch-Quantum library (https://github.com/SeroviICAI/torch-quantum/tree/main) translates those ideas into feature-map layers, variational blocks, complete models, and runnable scripts that execute unchanged on CPU or GPU simulators and on cloud quantum processors such as Amazon Braket. Guided by "Usability over Performance" and "Simple over Easy," experiments keep every operation explicit and hackable.
Experiments with this toolkit show that QNNs gain higher effective dimension (i.e. greater expressivity) than parameter-matched classical networks, achieving near-perfect accuracy on small benchmarks such as Iris and Wine after only a handful of iterations and setting state-of-the-art scores for pure-quantum models, including OptDigits. As tasks scale, gradients become costly under the parameter-shift rule and may vanish in barren-plateau landscapes. The book surveys mitigation strategies such as alternative backward passes (e.g., shadow tomography and quantum-memory methods), natural-gradient optimizers, and layer-wise training, inviting readers to refine them. By uniting context, theory and code, the project provides a single gateway for collaborative progress toward quantum-enhanced deep learning.
Trabajo Fin de Grado
Algoritmos de optimización en computación cuánticaTitulación / Programa
Grado en Ingeniería Matemática e Inteligencia ArtificialMaterias/ categorías / ODS
KMIPalabras Clave
computación cuántica, redes neuronales cuánticas, aprendizaje profundo, dimensión efectiva, benchmarks, barren plateaus, optimizaciónquantum computing, quantum neural networks, deep learning, effective dimension, benchmarks, barren plateaus, optimization