Mostrar el registro sencillo del ítem

dc.contributor.advisorGarrido Merchán, Eduardo Césares-ES
dc.contributor.authorVillagrán Prieto, Nicoláses-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2024-09-17T13:01:44Z
dc.date.available2024-09-17T13:01:44Z
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/94201
dc.descriptionGrado en Ingeniería Matemática e Inteligencia Artificiales_ES
dc.description.abstractLa Optimización Bayesiana (BO) se ha convertido en un estándar para el ajuste de hiperparámetros de los modelos de Aprendizaje Automático debido a su eficiencia y eficacia para optimizar funciones caja negra costosas de evaluar. Si bien el enfoque habitual comienza con distribuciones a priori no informadas o con un muestreo uniforme sobre el espacio de hiperparámetros como hipótesis de la localización del óptimo, este estudio investiga si los hiperparámetros por defecto incluidos en las librerías populares de ML pueden actuar como distribuciones a priori informativas. Estos valores por defecto suelen considerarse puntos diseñados por expertos con un desempeño razonable, pero su papel en el proceso de optimización no ha sido examinado con rigor. A través de una extensa batería de experimentos en diversos modelos de aprendizaje automático, librerías de Optimización Bayesiana y conjuntos de datos, respaldada por análisis cuantitativos rigurosos y pruebas estadísticas, nuestros resultados demuestran que los hiperparámetros por defecto no ofrecen una guía significativa hacia las regiones óptimas del espacio de búsqueda. No proporcionan ventajas sustanciales ni en el rendimiento final ni en la velocidad de convergencia frente al muestreo aleatorio de una distribución uniforme. Concluimos que los expertos de aprendizaje automático no deberían confiar en los valores por defecto de las librerías cuando buscan un rendimiento óptimo. En su lugar, la Optimización Bayesiana ofrece un enfoque fundamentado y guiado que equilibra eficazmente la exploración y la explotación del espacio de hiperparámetros. Nuestros hallazgos evidencian el riesgo de asumir que los valores por defecto son suficientes y refuerzan la necesidad de estrategias de optimización robustas y conscientes de la incertidumbre. Los valores por defecto no son informativos; son convenientes, y la conveniencia no es un sustituto fiable del rendimientoes-ES
dc.description.abstractBayesian Optimization (BO) has become a standard for hyperparameter tuning in Machine Learning due to its efficiency and performance in optimizing expensive-to-evaluate blackbox functions. While the standard approach typically begins with uninformed priors or uniform sampling over the hyperparameter space, this study investigates whether the default hyperparameters included in popular ML libraries can serve as informative priors. These defaults are often viewed as expert-designed points that offer reasonable performance, yet their role in optimization remains unexamined. Through extensive benchmarking across diverse models and datasets, supported by rigorous quantitative analysis and statistical testing, our results demonstrate that default hyperparameters do not provide meaningful guidance toward optimal regions in the search space. They offer no significant advantage in terms of final performance or convergence speed when compared to the baseline of uniform random sampling. We conclude that practitioners should avoid relying on defaults when seeking optimal performance. Instead, Bayesian Optimization provides a principled approach that balances exploration and exploitation effectively. Our findings highlight the risk of assuming defaults are enough and reinforce the need for robust, uncertainty-aware optimization strategies. Defaults are not informative; they are convenient, and convenience is not a reliable substitute for performance.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKMIes_ES
dc.titleDefault configuration in Bayesian optimization priorses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsOptimización Bayesiana, Ajuste de Hiperparámetros, Aprendizaje Automático, Distribuciones a priori informativas, Hiperparámetros por defectoes-ES
dc.keywordsBayesian Optimization, Hyperparameter Tuning, Machine Learning, Informative Priors, Default Hyperparametersen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States