Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/68907
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorGarrido Merchán, Eduardo Césares-ES
dc.contributor.authorCalvar Seco, Jorgees-ES
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresarialeses_ES
dc.date.accessioned2022-06-17T09:23:28Z-
dc.date.available2022-06-17T09:23:28Z-
dc.date.issued2023es_ES
dc.identifier.urihttp://hdl.handle.net/11531/68907-
dc.descriptionGrado en Ingeniería en Tecnologías de Telecomunicación y Grado en Análisis de Negocios/Business Analyticses_ES
dc.description.abstractEn este trabajo exploramos el uso de la Optimización Bayesiana Multiobjetivo para maximizar simultáneamente la precisión (accuracy) y la equidad (fairness) de un modelo de aprendizaje automático. Exploramos diferentes métricas de equidad, y decidimos utilizar la diferencia en la tasa de verdaderos positivos. Para implementar la Optimización Bayesiana, utilizamos la librería botorch, y utilizamos la función de adquisición Expected Hypervolume Improvement, entre otras. Realizamos experimentos para ajustar varios hiperparámetros: la tasa de aprendizaje (learning rate), el abandono (dropout) y el tamaño de las dos capas ocultas. Probamos este modelo en dos conjuntos de datos tomados del UC Irvine ML Repository: Censo de adultos y Crédito alemán. Demostramos que la Optimización Bayesiana obtiene mejores resultados en menos iteraciones que la búsqueda aleatoria.es-ES
dc.description.abstractIn this dissertation, we explore the use of Multi-Objective Bayesian Optimization to simultaneously maximize the accuracy and fairness of a machine learning model. We explore different fairness metrics, and we decide to use the difference in true positive rate. To run the Bayesian Optimization, we use the "botorch" library, and we use the Expected Hypervolume Improvement acquisition function, among others. We run experiments to tune several hyperparameters: the learning rate, the dropout, and the size of two hidden layers. We test this model on two datasets taken from the UC Irvine ML Repository: Adult Census and German Credit. We prove that Bayesian Optimization obtains better results in less iterations than random guessing.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKBAes_ES
dc.titleFair Machine Learning by means of multi-objective Bayesian optimization with constraintses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsOptimización Bayesiana, Aprendizaje Automático, Equidades-ES
dc.keywordsBayesian Optimization, Machine Learning, Fairnessen-GB
Aparece en las colecciones: KBA-Trabajos Fin de Grado

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
Propuesta_TFG_BA.pdfPREC83,7 kBAdobe PDFVisualizar/Abrir     Request a copy
TFG - Calvar Seco, Jorge.pdfTrabajo Fin de Grado2,13 MBAdobe PDFVisualizar/Abrir
TFG - 201804132.pdfCATR2,13 MBAdobe PDFVisualizar/Abrir     Request a copy


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.