Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/98879
Título : Comparativa de métodos de interpretabilidad en modelos de machine learning y deep learning.
Autor : Altares Lopez, Sergio
Bengochea Guevara, José María
Raposo Picos, Juan
Universidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)
Fecha de publicación : 2025
Resumen : El proyecto aborda el creciente desafío de la interpretabilidad en los modelos de aprendizaje automático, especialmente en sectores de alto riesgo como el sanitario. Si bien los sistemas modernos de IA pueden alcanzar una precisión predictiva notable, su naturaleza de black box a menudo impide a las partes interesadas comprender cómo el modelo toma las decisiones, cuáles son las variables que más influencian al resultado, lo que da lugar a preocupaciones ético-normativas y relacionadas con la confianza del modelo. La aparición de la IA explicativa (XAI) tiene como objetivo abordar este desafío, con métodos como SHAP y LIME que proporcionan explicaciones independientes del modelo. Sin embargo, sigue habiendo una falta de métricas estandarizadas para comparar y evaluar estas herramientas de forma objetiva. Este proyecto consiste en desarrollar una métrica de interpretabilidad unificada capaz de evaluar y comparar cuantitativamente la calidad de las explicaciones entre diferentes modelos y conjuntos de datos. La métrica integra tres dimensiones clave: fidelidad, estabilidad y dispersión en una única puntuación. El enfoque combina técnicas XAI de última generación (SHAP, LIME, Grad-CAM++) con pruebas empíricas en conjuntos de datos heterogéneos, incluidos datos tabulares de biomarcadores del Alzheimer y datos de imágenes médicas (MRI).
This project addresses the growing challenge of interpretability in machine learning models, especially in high-stakes sectors such as healthcare. While modern AI systems can achieve remarkable predictive accuracy, their black-box nature often prevents stakeholders from understanding how decisions are made, leading to ethical regulatory, and trust-related concerns. The emergence of Explainable AI (XAI) aims to address this challenge, with methods like SHAP and LIME providing model-agnostic explanations. However, there remains a lack of standardized metrics to compare and evaluate these tools objectively. The project consists of developing a unified interpretability metric capable of quantitively assessing and comparing explanation quality across different models and datasets. The metric integrates three key dimensions: fidelity, stability and sparsity into a single score. The approach combines state-of-the-art XAI techniques (SHAP, LIME, Grad-CAM++) with empirical testing on heterogeneous datasets, including tabular Alzheimer’s biomarker data and medical imaging data.
Descripción : Máster Universitario en Ingeniería Industrial + Máster en Industria Conectada / in Smart Industry
URI : http://hdl.handle.net/11531/98879
Aparece en las colecciones: TFG, TFM (temporales)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TFM_JUANRAPOSO firmado.pdfTrabajo Fin de Máster6,61 MBAdobe PDFVisualizar/Abrir
Anexo I Juan Raposo.pdfAutorización92,21 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.