Mostrar el registro sencillo del ítem

dc.contributor.advisorPizarroso Gonzalo, Jaimees-ES
dc.contributor.authorOrtiz González, Alonsoes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2023-09-15T15:35:49Z
dc.date.available2023-09-15T15:35:49Z
dc.date.issued2024es_ES
dc.identifier.urihttp://hdl.handle.net/11531/83189es_ES
dc.descriptionGrado en Ingeniería en Tecnologías Industriales y Grado en Administración y Dirección de Empresases_ES
dc.description.abstractLa arquitectura compleja de los modelos de inteligencia artificial (IA) genera predicciones precisas, pero dificulta entender cómo se llegan a estas. Este problema de "black box" plantea un gran reto para la aceptación y confianza en los sistemas de IA. Las técnicas de Inteligencia Artificial Explicable (XAI) son esenciales para hacer más transparentes los procesos de toma de decisiones de la IA. XAI permite desentrañar la complejidad de los modelos de IA, fomentando la confianza y cumpliendo con las regulaciones en materia legal. Este trabajo de fin de grado se centra en desarrollar un método de análisis de sensibilidad para redes neuronales recurrentes (RNN). Este método, ya exitoso en MLPs, calcula analíticamente las derivadas parciales de las variables de salida respecto a sus entradas, proporcionando información interpretable sobre los procesos de toma de decisiones de las RNN. El trabajo también hace una revisión de las técnicas XAI existentes aplicadas a RNNs, evaluándolas teóricamente y mediante implementación práctica en varios casos de uso. Se discuten las ventajas y desventajas de cada método, subrayando la necesidad de soluciones de explicabilidad más efectivas y eficientes. El método de análisis de sensibilidad desarrollado ofrece varias ventajas sobre las técnicas tradicionales de XAI. Proporciona explicaciones más completas y fáciles de interpretar, haciéndolo más robusto y fiable, especialmente para relaciones complejas y no lineales en los datos. Además, es más eficiente computacionalmente, adecuado para grandes conjuntos de datos con numerosas muestras y variables. Esta eficiencia garantiza una interpretabilidad más rápida y accesible, crucial para aplicaciones prácticas. La validación del método se realizó en tres casos. Primero, un modelo de regresión sintético con derivadas parciales conocidas para validar los cálculos realizados. Luego, se aplicó a la predicción de la función seno y al pronóstico de demanda eléctrica. En la función seno, demostró su capacidad para explicar la naturaleza periódica de los datos. En el pronóstico de demanda eléctrica, destacó la importancia de varios lags temporales y sus efectos no lineales en la salida, proporcionando una comprensión detallada del modelo.es-ES
dc.description.abstractThe complex architecture of artificial intelligence (AI) models leads to highly accurate results, but their complexity makes interpretation difficult. This "black box" problem challenges the acceptance and trust of AI systems. Explainable Artificial Intelligence (XAI) techniques are crucial for making AI's decision-making processes transparent and understandable, particularly in sensitive areas. XAI helps reveal the complexity of AI models, allowing users to understand decision-making processes, fostering trust, and ensuring compliance with policies. This thesis develops a sensitivity analysis method for Recurrent Neural Networks (RNNs), previously successful with MLPs. The method analytically calculates partial derivatives of output variables with respect to their inputs, offering interpretable insights into RNN decision-making processes. It also reviews existing XAI techniques for RNNs, evaluating them both theoretically and practically, discussing their strengths and limitations, and emphasizing the need for more effective interpretability solutions. The sensitivity analysis method in this thesis has several advantages over traditional XAI techniques. It provides comprehensive and easily interpretable explanations, making it robust and reliable, especially for complex, non-linear data relationships. Additionally, it is more computationally efficient, suitable for large datasets with many samples and variables, ensuring quicker and more accessible interpretability for practical applications. Validation of this method involved three cases. First, a synthetic simple regression model with known derivatives confirmed the accuracy of the calculated partial derivatives. Next, it was applied to predicting the sine function, demonstrating its ability to explain the periodic nature of the data. Lastly, in electric demand forecasting, the method highlighted the importance of various time lags and their non-linear effects, offering a detailed understanding of the model's behaviour. These validations confirm the method's accuracy, reliability, and practical applicability.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKTI-organizacion (GITI-O)es_ES
dc.titleAnalytical Calculation of Partial Derivatives in Deep Neural Networkses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsXAI, Redes neuronales, RNN, explicabilidad, sensibilidad, derivadases-ES
dc.keywordsXAI, neural networwks, RNN, explainability, sensitivity, derivativesen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States