Aplicación de un análisis de interpretabilidad global de modelos de machine learning aplicado a la gestión de riesgos.
Resumen
La inteligencia artificial (IA) ha revolucionado la toma de decisiones y la productividad en el ámbito empresarial, impulsando la adopción masiva de tecnologías de Machine Learning (ML). Estas tecnologías facilitan la toma de decisiones basadas en datos, mejorando notablemente la eficiencia y la personalización de servicios. Sin embargo, a pesar de su alta precisión, los modelos de ML son complejos y a menudo resultan en sistemas de “caja negra”que son difíciles de comprender y pueden parecer opacos. La interpretabilidad de estos modelos es fundamental para validar decisiones, fomentar la confianza, identificar sesgos y corregir errores. La transparencia es necesaria para permitir a los interesados evaluar y optimizar las metodologías empleadas. Además, legislaciones recientes, como el Acta de IA de la Unión Europea, destacan la importancia de desarrollar modelos de ML que sean comprensibles y éticos, especialmente en sectores críticos como la evaluación crediticia. Adherirse a estas normativas fomenta una implementación responsable de la IA, reduce prácticas desleales y aumenta la responsabilidad general.
A raíz de la creciente relevancia del riesgo financiero en este campo, este trabajo expone un caso de uso centrado en la aplicación de cinco técnicas de interpretabilidad al análisis de riesgo crediticio: Importancia de la Característica por Permutación (PFI), Gráficos de De- pendencia Parcial (PDP), Efectos Locales Acumulados (ALE), Modelos subrogados, y Pro- totipos y Críticas. Utilizando estas técnicas en un escenario de predicción de clasificación binaria con un modelo de caja negra XGBoost, se determina si un riesgo es bueno o malo. El análisis revela que las variables más determinantes en la evaluación del riesgo crediticio son monto de crédito, su duración y la edad del solicitante. El monto del crédito influye de manera no lineal en el riesgo: inicialmente mejora las probabilidades de aprobación hasta alcanzar un umbral, después del cual el riesgo se incrementa. Los préstamos de mayor duración también conllevan un riesgo elevado, reflejando la incertidumbre sobre la capacidad de pago a largo plazo del prestatario. Además, se observa una discriminación negativa hacia los solicitantes más jóvenes. Otros factores, como el empleo y la información sobre cuentas de ahorro, aunque pertinentes, indican que el modelo podría estar sesgado debido a una distribución desigual entre las distintas categorías de estas variables en el conjunto de datos. Artificial intelligence (AI) has had a significant impact on decision-making and productivity, resulting in widespread adoption of machine learning (ML) technologies in business. These technologies enable data-driven decision-making, which improves service efficiency and customization. Despite ML models’ high accuracy, their complexity often leads to “black box”models that are difficult to understand and opaque.
The interpretability of these models is critical for justifying decisions, building trust, identifying biases, and correcting errors. This transparency is necessary for stakeholders to evaluate and improve methodologies.Furthermore, legal frameworks such as the recently enacted EU AI Act emphasize the importance of transparency, focusing on the development of understandable and ethical machine learning models, particularly in critical areas such as credit scoring. Compliance with such regulations promotes responsible AI deployment, reduces unfair practices, and increases accountability.
Recognizing the growing importance of financial risk in this field, and taking these considerations into account, it was decided in this study to develop a use case. This use case focuses on the application of five interpretability techniques to credit risk: Permutation feature importance (PFI), Partial dependence plots (PDP), Accumulated local effects (ALE), Global surrogate models, and Prototypes and Criticisms. These techniques were used in a binary classification prediction scenario with an XGBoost black box model to determine whether a risk is good or bad. According to the analysis, the most important variables in determining credit risk are the amount of credit, its duration, and the applicant’s age. The amount of credit has a nonlinear effect on risk: it initially increases the chances of approval until a certain threshold is reached, at which point the risk increases. Longer-term loans are also riskier because the borrower’s long-term payment capacity is uncertain. Additionally, younger applicants face negative discrimination. Other factors, such as employment and information about savings accounts, while relevant, suggest that the model may be biased due to an unequal distribution of these variables across the dataset.
Trabajo Fin de Grado
Aplicación de un análisis de interpretabilidad global de modelos de machine learning aplicado a la gestión de riesgos.Titulación / Programa
Grado en Administración y Dirección de Empresas y Grado en Análisis de Negocios/Business AnalyticsMaterias/ categorías / ODS
KBAPalabras Clave
Interpretabilidad global, Machine Learning, Riesgo de crédito, PFI, PDP, ALE, Modelos Subrogados, Prototipos y críticas.Global interpretability, Machine Learning, Credit risk, PFI, PDP, ALE, Surrogate models, Prototypes and Criticisms.