Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/64693
Título : Advanced Methods for Bayesian Optimization in Complex Scenarios
Autor : Garrido Merchán, Eduardo César
Fecha de publicación :  1
Resumen : Algunos problemas de optimización requieren la evaluación de una función objetivo costosa, ya sea en tiempo económico, computacional u otros recursos. La expresión analítica de la función objetivo puede ser desconocida. Sin una expresión analítica, los gradientes no son accesibles y, por lo tanto, no están disponibles para los procedimientos de optimización. La evaluación del objetivo también puede verse alterada por el ruido. En este caso, para el mismo valor de los parámetros, la evaluación devolverá valores diferentes. Las funciones que tienen las características anteriores se definen como cajas negras. Un ejemplo de una función de caja negra es estimar el error de generalización de un algoritmo de aprendizaje automático en términos de sus hiperparámetros. La optimización de cajas negras es una tarea que recientemente ha ganado especial importancia en la comunidad de aprendizaje automático. La optimización bayesiana (BO) es un conjunto de métodos que se han aplicado con éxito para la optimización de cajas negras. Los métodos BO se utilizan generalmente cuando el presupuesto de evaluaciones de la función objetivo es limitado. Ofrecen excelentes resultados, ya que piensan detenidamente cuál es la mejor siguiente evaluación posible del objetivo que se desea optimizar. Para hacerlo, los métodos BO se basan en un modelo probabilístico de la función objetivo. Este modelo genera una distribución predictiva del objetivo en cada ubicación de entrada, que captura la incertidumbre sobre los valores potenciales del objetivo. Los métodos BO utilizan esta información para guiar el proceso de optimización. La clave del éxito es que calcular la distribución predictiva es muy económico en comparación con la evaluación del objetivo.
Some optimization problems require the evaluation of an expensive objective function, whether in economical, computational time or other resources. The analytical expression of the objective function may be unknown. Without an analytical expression, gradients are not accessible and hence are not available for optimization procedures. The evaluation of the objective can also be corrupted by noise. In this case, for the same value of the parameters, the evaluation will return different values. The functions that have the previous characteristics are defined as black-boxes. An example of a black-box function is estimating the generalization error of a machine learning algorithm in terms of its hyper-parameters. Optimizing black-boxes is a task that has recently gained special importance in the machine learning community. Bayesian optimization (BO) is a set of methods that has been successfully applied for the optimization of black-boxes. BO methods are generally used when the budget of evaluations of the objective function is limited. They deliver great results as they think carefully about which is the best possible next evaluation of the desired objective to be optimized. In order to do so, BO methods rely on a probabilistic model of the objective function. This model generates a predictive distribution of the objective at each input location, that captures the uncertainty about the potential values of the objective. This information is used by BO methods to guide the optimization process. The key for success is that computing the predictive distribution is very cheap compared with evaluating the objective.
Descripción : Revista electrónica
URI : http://hdl.handle.net/11531/64693
Aparece en las colecciones: Artículos



Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.