Mostrar el registro sencillo del ítem

dc.contributor.advisorKisiala, Jakobes-ES
dc.contributor.authorRuiz Espinar, Gonzaloes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2025-05-01T21:16:55Z
dc.date.available2025-05-01T21:16:55Z
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/98623
dc.descriptionMáster Universitario en Big Dataes_ES
dc.description.abstractEste trabajo de fin de máster analiza la aplicación de modelos de aprendizaje automático (Machine Learning) al problema del riesgo de crédito, con especial atención a la conciliación entre precisión predictiva e interpretabilidad. En un contexto como el financiero, fuertemente regulado, no basta con que un modelo discrimine correctamente la calidad crediticia: debe también ser comprensible, trazable y defendible ante auditores y reguladores. El estudio se estructura en dos grandes bloques: un marco teórico que recoge el estado del arte sobre técnicas de modelización y explicabilidad, y un análisis empírico basado en un conjunto de datos que simula una cartera de crédito de una entidad bancaria, donde se entrenan y comparan modelos tradicionales (regresión logística), avanzados (gradient boosting) e inherentemente interpretables (EBM, XGB2). Se han evaluado múltiples dimensiones de cada modelo: capacidad discriminante (AUC-ROC, AUC-PR), importancia global y local de variables (SHAP, PFI, coeficientes), dependencia funcional (PDP, ALE), complejidad computacional y coste de supervisión. Los resultados muestran que modelos como XGB2 logran un equilibrio óptimo entre rendimiento e interpretabilidad, con ventajas significativas frente a la regresión tradicional. Finalmente, se plantea un marco de comparación de modelos que permite a las entidades financieras valorar no solo el poder predictivo, sino también los riesgos asociados y la viabilidad práctica de su adopción. Las conclusiones apuntan a una vía clara para avanzar hacia una inteligencia artificial responsable y aplicable en la industria bancaria.es-ES
dc.description.abstractThis master's thesis examines the application of machine learning (ML) models to the problem of credit risk, with particular emphasis on balancing predictive accuracy and interpretability. In highly regulated environments such as finance, it is not enough for a model to achieve high predictive performance — it must also be understandable, traceable, and defensible before auditors and regulators. The study is structured in two main parts: a theoretical framework that reviews the state of the art in credit risk modeling and interpretability techniques, and an empirical analysis based on a dataset that simulates a real-world credit portfolio. Within this framework, we train and compare traditional models (logistic regression), advanced algorithms (gradient boosting), and inherently interpretable alternatives (EBM, XGB2). Each model is assessed across multiple dimensions: discriminative power (AUC-ROC, AUC-PR), global and local feature importance (SHAP, PFI, coefficients), functional dependence (PDP, ALE), computational complexity, and supervisory cost. Results indicate that models such as XGB2 offer an optimal trade-off between performance and interpretability, with clear advantages over traditional approaches. Finally, the work proposes a model comparison framework that enables financial institutions to evaluate not only predictive performance, but also the associated risks and practical feasibility of implementation. The conclusions highlight a clear path toward the responsible and operational deployment of AI in the banking sector.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherH0Zes_ES
dc.titleInterpretables para la Evaluación del Riesgo Crediticio en el Sector Financieroes_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/restrictedAccesses_ES
dc.keywordsRiesgo de crédito, Interpretabilidad, Machine Learning, Modelos de puntuación, Inteligencia artificial explicable (XAI), Modelos Inherentemente Interpretables.es-ES
dc.keywordsCredit Risk, Interpretability, Machine Learning, Scoring Models, Explainable Artificial Intelligence (XAI), Inherently Interpretable Models.en-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States