Mostrar el registro sencillo del ítem

dc.contributor.authorJariego Perez, Luis Carloses-ES
dc.contributor.authorGarrido Merchán, Eduardo Césares-ES
dc.date.accessioned2022-04-26T08:07:20Z
dc.date.available2022-04-26T08:07:20Z
dc.date.issued01/08/2021es_ES
dc.identifier978-3-030-85713-4es_ES
dc.identifier.urihttp://hdl.handle.net/11531/67844
dc.descriptionPresentación en congresoes_ES
dc.description.abstractLa Optimización Bayesiana (BO) es la técnica de vanguardia para la optimización de cajas negras, es decir, funciones donde no tenemos acceso a su expresión analítica ni a sus gradientes, son costosas de evaluar y su evaluación es ruidosa. Una aplicación BO es un ajuste automático de hiperparámetros de algoritmos de aprendizaje automático. Las metodologías BO tienen hiperparámetros que deben configurarse, como el modelo sustituto o la función de adquisición (AF). Las malas decisiones sobre la configuración de estos hiperparámetros implican la obtención de malos resultados. Normalmente, estos hiperparámetros se ajustan haciendo suposiciones de la función objetivo que queremos evaluar, pero hay escenarios en los que no tenemos ninguna información previa. En este artículo, proponemos un intento de BO automático mediante la exploración de varias heurísticas que sintonizan automáticamente el BO AF. Ilustramos la efectividad de estas heurísticas en un conjunto de problemas de referencia y un problema de ajuste de hiperparámetros.es-ES
dc.description.abstractBayesian Optimization (BO) is the state of the art technique for the optimization of black boxes, i.e., functions where we do not have access to their analytical expression nor its gradients, are expensive to evaluate and its evaluation is noisy. A BO application is automatic hyperparameter tuning of machine learning algorithms. BO methodologies have hyperparameters that need to be configured such as the surrogate model or the acquisition function (AF). Bad decisions over the configuration of these hyperparameters implies obtaining bad results. Typically, these hyperparameters are tuned by making assumptions of the objective function that we want to evaluate but there are scenarios where we do not have any prior information. In this paper, we propose an attempt of automatic BO by exploring several heuristics that automatically tune the BO AF. We illustrate the effectiveness of these heurisitcs in a set of benchmark problems and a hyperparameter tuning problem.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourceDescripcion: Comunicante Volumen: 12882 Pagina Inicio: 160 Pagina Fin: 169es_ES
dc.titleTowards Automatic Bayesian Optimization: A First Step Involving Acquisition Functionses_ES
dc.typeinfo:eu-repo/semantics/otheres_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsOptimizacion Bayesiana; Machine Learning Automáticoes-ES
dc.keywordsBayesian Optimization; Automatic Machine Learningen-GB


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Artículos
    Artículos de revista, capítulos de libro y contribuciones en congresos publicadas.

Mostrar el registro sencillo del ítem

Creative Commons Reconocimiento-NoComercial-SinObraDerivada España
Excepto si se señala otra cosa, la licencia del ítem se describe como Creative Commons Reconocimiento-NoComercial-SinObraDerivada España