Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/45884
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorPizarroso Gonzalo, Jaimees-ES
dc.contributor.advisorPortela González, Josées-ES
dc.contributor.authorLópez-Tafall Criado, Mónicaes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2020-04-24T10:40:53Z-
dc.date.available2020-04-24T10:40:53Z-
dc.date.issued2020es_ES
dc.identifier.urihttp://hdl.handle.net/11531/45884-
dc.descriptionMáster Universitario en Ingeniería Industrial + Máster en Industria Conectada/ Master in Smart Industryes_ES
dc.description.abstractLa popularización de los modelos de la Red Neural Profunda en los últimos años ha dado lugar a un aumento del número de técnicas para aumentar la precisión de esos modelos. Sin embargo, es difícil elegir cuál de estos métodos son óptimos para un problema específico, así como lograr valores óptimos de sus hiperparámetros correspondientes para lograr un modelo de calidad. Este proyecto tiene por objeto proporcionar una comparación de éstos aplicándolos en un problema de predicción de series temporales. Se han llevado a cabo una serie de test en los que se han combinado arquitecturas tipo RNN, GRU, LSTM y BiLSTM con métodos de optimización entre los que se han destacado el Grid Search, Random Search, Optimización Bayesiana y Algoritmos Genéticos. Los resultados muestran que, se debe optar por una configuración tipo Grid Search + Red tipo GRU, la cual alcanza un valor de MSE de 167,60, frente al 240,44 del modelo benchmark o configuración tipo Random Search + RNN si se busca rapidez de ejecución, sacrificando precisión.es-ES
dc.description.abstractThe popularization of Deep Neural Network models in recent years has led to an increase in the number of techniques to increase the accuracy of these models. However, it is difficult to choose which of these methods are optimal for a specific problem, as well as to achieve optimal values of their corresponding hyperparameters to achieve a quality model. This project aims to provide a comparison of these by applying them to a time series prediction problem. A series of tests have been carried out in which RNN, GRU, LSTM and BiLSTM type architectures have been combined with hyperparameter optimization methods among which Grid Search, Random Search, Bayesian Optimization and Genetic Algorithms have been highlighted. The results show that, one should opt for a Grid Search + GRU type configuration, which reaches an MSE value of 167.60, compared to 240.44 in the benchmark model or Random Search + RNN type configuration if one seeks speed of execution, sacrificing precision.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherH62-electronica (MII-N)es_ES
dc.titleAccuracy improvement of Deep Neural Networks through preprocessing and neural structure tuning techniques. An approach to time-series models.es_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/closedAccesses_ES
dc.keywordsRedes neuronales, Series temporales, Predicción, Deep Learninges-ES
dc.keywordsNeural Networks, Time series, Forecasting, Deep Learningen-GB
Aparece en las colecciones: H62-Trabajos Fin de Máster

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TFM-MII_LopezTafallCriadoMonica.pdfTrabajo Fin de Máster2,88 MBAdobe PDFVista previa
Visualizar/Abrir
AnexoI_LopezTafallCriadoMonica.pdfAutorización326,64 kBAdobe PDFVista previa
Visualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.