Mostrar el registro sencillo del ítem
Towards Automatic Bayesian Optimization: A First Step Involving Acquisition Functions
dc.contributor.author | Jariego Perez, Luis Carlos | es-ES |
dc.contributor.author | Garrido Merchán, Eduardo César | es-ES |
dc.date.accessioned | 2022-04-26T08:07:20Z | |
dc.date.available | 2022-04-26T08:07:20Z | |
dc.date.issued | 01/08/2021 | es_ES |
dc.identifier | 978-3-030-85713-4 | es_ES |
dc.identifier.uri | http://hdl.handle.net/11531/67844 | |
dc.description | Presentación en congreso | es_ES |
dc.description.abstract | La Optimización Bayesiana (BO) es la técnica de vanguardia para la optimización de cajas negras, es decir, funciones donde no tenemos acceso a su expresión analítica ni a sus gradientes, son costosas de evaluar y su evaluación es ruidosa. Una aplicación BO es un ajuste automático de hiperparámetros de algoritmos de aprendizaje automático. Las metodologías BO tienen hiperparámetros que deben configurarse, como el modelo sustituto o la función de adquisición (AF). Las malas decisiones sobre la configuración de estos hiperparámetros implican la obtención de malos resultados. Normalmente, estos hiperparámetros se ajustan haciendo suposiciones de la función objetivo que queremos evaluar, pero hay escenarios en los que no tenemos ninguna información previa. En este artículo, proponemos un intento de BO automático mediante la exploración de varias heurísticas que sintonizan automáticamente el BO AF. Ilustramos la efectividad de estas heurísticas en un conjunto de problemas de referencia y un problema de ajuste de hiperparámetros. | es-ES |
dc.description.abstract | Bayesian Optimization (BO) is the state of the art technique for the optimization of black boxes, i.e., functions where we do not have access to their analytical expression nor its gradients, are expensive to evaluate and its evaluation is noisy. A BO application is automatic hyperparameter tuning of machine learning algorithms. BO methodologies have hyperparameters that need to be configured such as the surrogate model or the acquisition function (AF). Bad decisions over the configuration of these hyperparameters implies obtaining bad results. Typically, these hyperparameters are tuned by making assumptions of the objective function that we want to evaluate but there are scenarios where we do not have any prior information. In this paper, we propose an attempt of automatic BO by exploring several heuristics that automatically tune the BO AF. We illustrate the effectiveness of these heurisitcs in a set of benchmark problems and a hyperparameter tuning problem. | en-GB |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | es-ES | es_ES |
dc.rights | Creative Commons Reconocimiento-NoComercial-SinObraDerivada España | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/es/ | es_ES |
dc.source | Descripcion: Comunicante Volumen: 12882 Pagina Inicio: 160 Pagina Fin: 169 | es_ES |
dc.title | Towards Automatic Bayesian Optimization: A First Step Involving Acquisition Functions | es_ES |
dc.type | info:eu-repo/semantics/other | es_ES |
dc.description.version | info:eu-repo/semantics/publishedVersion | es_ES |
dc.rights.holder | es_ES | |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es_ES |
dc.keywords | Optimizacion Bayesiana; Machine Learning Automático | es-ES |
dc.keywords | Bayesian Optimization; Automatic Machine Learning | en-GB |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
Artículos
Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.