Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/90068
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorPizarroso Gonzalo, Jaimees-ES
dc.contributor.advisorAlfaya Sánchez, Davides-ES
dc.contributor.authorMontes Lorenzo, Migueles-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2024-07-02T11:11:55Z-
dc.date.available2024-07-02T11:11:55Z-
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/90068es_ES
dc.descriptionGrado en Ingeniería Matemática e Inteligencia Artificiales_ES
dc.description.abstractLos sistemas de diferenciación automática (AD) ampliamente utilizados en aprendizaje automático proporcionan derivadas de primer orden de forma eficiente, pero carecen de soporte nativo para derivadas de orden superior más allá del anidamiento, lo que conlleva un exceso de consumo de memoria y restringe la aplicabilidad a grafos secuenciales. Esta tesis introduce \textbf{THOAD} (Torch High-Order Automatic Differentiation), un paquete compatible con PyTorch que implementa un enfoque tensorial para la diferenciación automática de alto orden. El método reformula la regla de la cadena multivariable como un proceso de contracción iterativa equivalente a la fórmula multivariable de Faà di Bruno, lo que permite la propagación de derivadas de orden arbitrario a través de grafos computacionales desbalanceados. Optimizaciones basadas en la unificación de batch y en simetrías de Schwarz por bloques reducen aún más la complejidad. Los resultados muestran mejoras sustanciales en escalabilidad frente a la evaluación anidada de PyTorch, proporcionando una plataforma eficiente y extensible para cálculos de alto orden en deep learning.es-ES
dc.description.abstractAutomatic differentiation systems, widely used in machine learning, provide efficient first-order derivatives but lack a native mechanism for higher-order derivatives beyond nested applications of first-order rules. This nesting incurs large memory overhead, limited scalability, and incompatibility with non-sequential graphs. In this thesis, we present \textbf{THOAD} (Torch High-Order Automatic Differentiation), a PyTorch-compatible package implementing a tensor-algebraic approach to higher-order AD. The system reformulates the multivariable chain rule as an iterative symbolic contraction procedure, enabling propagation of arbitrary-order derivatives across unbalanced computational graphs. Optimizations based on batch unification and blockwise Schwarz symmetries reduce complexity significantly in batch size and derivative order. Benchmarks demonstrate substantial improvements in scalability over PyTorch’s nested gradient evaluation. THOAD provides researchers and practitioners with an accessible, efficient, and extensible platform for higher-order derivative computations in modern deep learning.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKMIes_ES
dc.titleApplications of tensor algebra to Neural Networks sensitivity analysises_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsdiferenciación automática, derivadas de alto orden, álgebra tensorial, PyTorch, deep learninges-ES
dc.keywordsautomatic differentiation, higher-order derivatives, tensor algebra, PyTorch, deep learningen-GB
Aparece en las colecciones: TFG, TFM (temporales)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TFG_report_merged.pdfTrabajo Fin de Grado789,92 kBAdobe PDFVisualizar/Abrir
TFG_report_merged.pdfAutorización789,92 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.