Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/67844
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorJariego Perez, Luis Carloses-ES
dc.contributor.authorGarrido Merchán, Eduardo Césares-ES
dc.date.accessioned2022-04-26T08:07:20Z-
dc.date.available2022-04-26T08:07:20Z-
dc.date.issued01/08/2021es_ES
dc.identifier978-3-030-85713-4es_ES
dc.identifier.urihttp://hdl.handle.net/11531/67844-
dc.descriptionPresentación en congresoes_ES
dc.description.abstractLa Optimización Bayesiana (BO) es la técnica de vanguardia para la optimización de cajas negras, es decir, funciones donde no tenemos acceso a su expresión analítica ni a sus gradientes, son costosas de evaluar y su evaluación es ruidosa. Una aplicación BO es un ajuste automático de hiperparámetros de algoritmos de aprendizaje automático. Las metodologías BO tienen hiperparámetros que deben configurarse, como el modelo sustituto o la función de adquisición (AF). Las malas decisiones sobre la configuración de estos hiperparámetros implican la obtención de malos resultados. Normalmente, estos hiperparámetros se ajustan haciendo suposiciones de la función objetivo que queremos evaluar, pero hay escenarios en los que no tenemos ninguna información previa. En este artículo, proponemos un intento de BO automático mediante la exploración de varias heurísticas que sintonizan automáticamente el BO AF. Ilustramos la efectividad de estas heurísticas en un conjunto de problemas de referencia y un problema de ajuste de hiperparámetros.es-ES
dc.description.abstractBayesian Optimization (BO) is the state of the art technique for the optimization of black boxes, i.e., functions where we do not have access to their analytical expression nor its gradients, are expensive to evaluate and its evaluation is noisy. A BO application is automatic hyperparameter tuning of machine learning algorithms. BO methodologies have hyperparameters that need to be configured such as the surrogate model or the acquisition function (AF). Bad decisions over the configuration of these hyperparameters implies obtaining bad results. Typically, these hyperparameters are tuned by making assumptions of the objective function that we want to evaluate but there are scenarios where we do not have any prior information. In this paper, we propose an attempt of automatic BO by exploring several heuristics that automatically tune the BO AF. We illustrate the effectiveness of these heurisitcs in a set of benchmark problems and a hyperparameter tuning problem.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourceDescripcion: Comunicante Volumen: 12882 Pagina Inicio: 160 Pagina Fin: 169es_ES
dc.titleTowards Automatic Bayesian Optimization: A First Step Involving Acquisition Functionses_ES
dc.typeinfo:eu-repo/semantics/otheres_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsOptimizacion Bayesiana; Machine Learning Automáticoes-ES
dc.keywordsBayesian Optimization; Automatic Machine Learningen-GB
Aparece en las colecciones: Artículos

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2003.09643.pdf384,17 kBAdobe PDFVista previa
Visualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.