Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/79200
Título : Interpretabilidad Global de Modelos de Machine Learning para la Gestión de Riesgos Financieros : Un Enfoque Agnóstico al Modelo
Autor : Cifuentes Quintero, Jenny Alexandra
Moreno Rabanal, Inés
Universidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresariales
Palabras clave : 53 Ciencias económicas;5307 Teoría económica;530702 Teoría del crédito
Fecha de publicación : 2024
Resumen : La inteligencia artificial (IA) ha revolucionado la toma de decisiones y la productividad en el ámbito empresarial, impulsando la adopción masiva de tecnologías de Machine Learning (ML). Estas tecnologías facilitan la toma de decisiones basadas en datos, mejorando notablemente la eficiencia y la personalización de servicios. Sin embargo, a pesar de su alta precisión, los modelos de ML son complejos y a menudo resultan en sistemas de “caja negra”que son difíciles de comprender y pueden parecer opacos. La interpretabilidad de estos modelos es fundamental para validar decisiones, fomentar la confianza, identificar sesgos y corregir errores. La transparencia es necesaria para permitir a los interesados evaluar y optimizar las metodologías empleadas. Además, legislaciones recientes, como el Acta de IA de la Unión Europea, destacan la importancia de desarrollar modelos de ML que sean comprensibles y éticos, especialmente en sectores críticos como la evaluación crediticia. Adherirse a estas normativas fomenta una implementación responsable de la IA, reduce prácticas desleales y aumenta la responsabilidad general. A raíz de la creciente relevancia del riesgo financiero en este campo, este trabajo expone un caso de uso centrado en la aplicación de cinco técnicas de interpretabilidad al análisis de riesgo crediticio: Importancia de la Característica por Permutación (PFI), Gráficos de De- pendencia Parcial (PDP), Efectos Locales Acumulados (ALE), Modelos subrogados, y Pro- totipos y Críticas. Utilizando estas técnicas en un escenario de predicción de clasificación binaria con un modelo de caja negra XGBoost, se determina si un riesgo es bueno o malo. El análisis revela que las variables más determinantes en la evaluación del riesgo crediticio son monto de crédito, su duración y la edad del solicitante. El monto del crédito influye de manera no lineal en el riesgo: inicialmente mejora las probabilidades de aprobación hasta alcanzar un umbral, después del cual el riesgo se incrementa. Los préstamos de mayor duración también conllevan un riesgo elevado, reflejando la incertidumbre sobre la capacidad de pago a largo plazo del prestatario. Además, se observa una discriminación negativa hacia los solicitantes más jóvenes. Otros factores, como el empleo y la información sobre cuentas de ahorro, aunque pertinentes, indican que el modelo podría estar sesgado debido a una distribución desigual entre las distintas categorías de estas variables en el conjunto de datos.
Artificial intelligence (AI) has had a significant impact on decision-making and productivity, resulting in widespread adoption of machine learning (ML) technologies in business. These technologies enable data-driven decision-making, which improves service efficiency and customization. Despite ML models’ high accuracy, their complexity often leads to “black box”models that are difficult to understand and opaque. The interpretability of these models is critical for justifying decisions, building trust, identifying biases, and correcting errors. This transparency is necessary for stakeholders to evaluate and improve methodologies.Furthermore, legal frameworks such as the recently enacted EU AI Act emphasize the importance of transparency, focusing on the development of understandable and ethical machine learning models, particularly in critical areas such as credit scoring. Compliance with such regulations promotes responsible AI deployment, reduces unfair practices, and increases accountability. Recognizing the growing importance of financial risk in this field, and taking these considerations into account, it was decided in this study to develop a use case. This use case focuses on the application of five interpretability techniques to credit risk: Permutation feature importance (PFI), Partial dependence plots (PDP), Accumulated local effects (ALE), Global surrogate models, and Prototypes and Criticisms. These techniques were used in a binary classification prediction scenario with an XGBoost black box model to determine whether a risk is good or bad. According to the analysis, the most important variables in determining credit risk are the amount of credit, its duration, and the applicant’s age. The amount of credit has a nonlinear effect on risk: it initially increases the chances of approval until a certain threshold is reached, at which point the risk increases. Longer-term loans are also riskier because the borrower’s long-term payment capacity is uncertain. Additionally, younger applicants face negative discrimination. Other factors, such as employment and information about savings accounts, while relevant, suggest that the model may be biased due to an unequal distribution of these variables across the dataset.
Descripción : Grado en Administración y Dirección de Empresas y Grado en Análisis de Negocios/Business Analytics
URI : http://hdl.handle.net/11531/79200
Aparece en las colecciones: KBA-Trabajos Fin de Grado

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TFG_Moreno_Rabanal_Ines.pdfTrabajo Fin de Grado11,53 MBAdobe PDFVista previa
Visualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.