Mostrar el registro sencillo del ítem

dc.contributor.advisorPizarroso Gonzalo, Jaimees-ES
dc.contributor.advisorGüitta López, Lucíaes-ES
dc.contributor.authorPérez Ibarz, Guzman Ignacioes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2025-09-15T08:01:36Z
dc.date.available2025-09-15T08:01:36Z
dc.date.issued2026es_ES
dc.identifier.urihttp://hdl.handle.net/11531/104035
dc.descriptionGrado en Ingeniería Matemática e Inteligencia Artificiales_ES
dc.description.abstractEste proyecto explora si un agente de aprendizaje por refuerzo puede aprender a operar Bitcoin de forma rentable interactuando únicamente con datos históricos de mercado. Se desarrollan agentes basados en Proximal Policy Optimization (PPO) para el par BTC/USDT a frecuencia de 5 minutos, comparando espacios de acción de dos y tres acciones y empleando Optuna para la optimización automática de hiperparámetros. Ante el fracaso de las políticas únicas en periodos de mercado heterogéneos, se diseña un ensamble consciente del régimen: un Modelo Oculto de Markov detecta el régimen vigente y activa un agente especialista entrenado con datos aumentados de 2018–2020. El ensamble supera a Buy & Hold en el conjunto de prueba mixto (+52,6% ROI, Sortino 3,52 frente a 1,21), mientras que en el periodo alcista el agente de dos acciones casi lo iguala (+9,9% ROI).es-ES
dc.description.abstractThis project investigates whether a reinforcement learning agent can learn to trade Bitcoin profitably by interacting with historical market data alone. PPO-based agents are developed for the BTC/USDT pair at 5-minute frequency, comparing two- and three-action spaces and using Optuna for automated hyperparameter search. Motivated by the consistent failure of single-policy agents across heterogeneous market regimes, a regime-aware ensemble is designed: a Hidden Markov Model identifies the prevailing market regime and activates a specialist agent trained on cross-period augmented data from 2018–2020. The ensemble surpasses Buy & Hold on the mixed-regime test set (+52.6% ROI, Sortino 3.52 vs 1.21), while on the bullish dataset the two-action agent nearly matches it (+9.9% ROI, Sortino 1.62).en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKMIes_ES
dc.titleReinforcement Learning for Automated Crypto Trading: An Experimental Study ofAlgorithmic Strategieses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/restrictedAccesses_ES
dc.keywordsAprendizaje por refuerzo; Proximal Policy Optimization(PPO); Trading algorítmico; Criptomonedas; ensamble consciente del régimen; Modelo Oculto de Markov; Optunaes-ES
dc.keywordsReinforcement learning; Proximal Policy Optimization(PPO); Algorithmic trading; Cryptocurrency; Regime-aware ensemble; Hidden Markov Model; Optunaen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States