Mostrar el registro sencillo del ítem
Default configuration in Bayesian optimization priors
dc.contributor.advisor | Garrido Merchán, Eduardo César | es-ES |
dc.contributor.author | Villagrán Prieto, Nicolás | es-ES |
dc.contributor.other | Universidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI) | es_ES |
dc.date.accessioned | 2024-09-17T13:01:44Z | |
dc.date.available | 2024-09-17T13:01:44Z | |
dc.date.issued | 2025 | es_ES |
dc.identifier.uri | http://hdl.handle.net/11531/94201 | |
dc.description | Grado en Ingeniería Matemática e Inteligencia Artificial | es_ES |
dc.description.abstract | La Optimización Bayesiana (BO) se ha convertido en un estándar para el ajuste de hiperparámetros de los modelos de Aprendizaje Automático debido a su eficiencia y eficacia para optimizar funciones caja negra costosas de evaluar. Si bien el enfoque habitual comienza con distribuciones a priori no informadas o con un muestreo uniforme sobre el espacio de hiperparámetros como hipótesis de la localización del óptimo, este estudio investiga si los hiperparámetros por defecto incluidos en las librerías populares de ML pueden actuar como distribuciones a priori informativas. Estos valores por defecto suelen considerarse puntos diseñados por expertos con un desempeño razonable, pero su papel en el proceso de optimización no ha sido examinado con rigor. A través de una extensa batería de experimentos en diversos modelos de aprendizaje automático, librerías de Optimización Bayesiana y conjuntos de datos, respaldada por análisis cuantitativos rigurosos y pruebas estadísticas, nuestros resultados demuestran que los hiperparámetros por defecto no ofrecen una guía significativa hacia las regiones óptimas del espacio de búsqueda. No proporcionan ventajas sustanciales ni en el rendimiento final ni en la velocidad de convergencia frente al muestreo aleatorio de una distribución uniforme. Concluimos que los expertos de aprendizaje automático no deberían confiar en los valores por defecto de las librerías cuando buscan un rendimiento óptimo. En su lugar, la Optimización Bayesiana ofrece un enfoque fundamentado y guiado que equilibra eficazmente la exploración y la explotación del espacio de hiperparámetros. Nuestros hallazgos evidencian el riesgo de asumir que los valores por defecto son suficientes y refuerzan la necesidad de estrategias de optimización robustas y conscientes de la incertidumbre. Los valores por defecto no son informativos; son convenientes, y la conveniencia no es un sustituto fiable del rendimiento | es-ES |
dc.description.abstract | Bayesian Optimization (BO) has become a standard for hyperparameter tuning in Machine Learning due to its efficiency and performance in optimizing expensive-to-evaluate blackbox functions. While the standard approach typically begins with uninformed priors or uniform sampling over the hyperparameter space, this study investigates whether the default hyperparameters included in popular ML libraries can serve as informative priors. These defaults are often viewed as expert-designed points that offer reasonable performance, yet their role in optimization remains unexamined. Through extensive benchmarking across diverse models and datasets, supported by rigorous quantitative analysis and statistical testing, our results demonstrate that default hyperparameters do not provide meaningful guidance toward optimal regions in the search space. They offer no significant advantage in terms of final performance or convergence speed when compared to the baseline of uniform random sampling. We conclude that practitioners should avoid relying on defaults when seeking optimal performance. Instead, Bayesian Optimization provides a principled approach that balances exploration and exploitation effectively. Our findings highlight the risk of assuming defaults are enough and reinforce the need for robust, uncertainty-aware optimization strategies. Defaults are not informative; they are convenient, and convenience is not a reliable substitute for performance. | en-GB |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | en-GB | es_ES |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | es_ES |
dc.subject.other | KMI | es_ES |
dc.title | Default configuration in Bayesian optimization priors | es_ES |
dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es_ES |
dc.keywords | Optimización Bayesiana, Ajuste de Hiperparámetros, Aprendizaje Automático, Distribuciones a priori informativas, Hiperparámetros por defecto | es-ES |
dc.keywords | Bayesian Optimization, Hyperparameter Tuning, Machine Learning, Informative Priors, Default Hyperparameters | en-GB |