Mostrar el registro sencillo del ítem

dc.contributor.advisorGarrido Merchán, Eduardo Césares-ES
dc.contributor.authorGarcía Castro, Luises-ES
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresarialeses_ES
dc.date.accessioned2023-06-13T09:09:54Z
dc.date.available2023-06-13T09:09:54Z
dc.date.issued2024es_ES
dc.identifier.urihttp://hdl.handle.net/11531/78862
dc.descriptionGrado en Administración y Dirección de Empresas y Grado en Análisis de Negocios/Business Analyticses_ES
dc.description.abstractEste estudio investiga el impacto de la volatilidad en el rendimiento de un robo-trader basado en un modelo de Deep Reinforcement Learning (DRL). Tradicionalmente, los modelos de selección y asignación de activos se han basado en supuestos que pueden no ser aplicables en el mundo real y la introducción de la Inteligencia Artificial (IA) y el Machine Learning (ML) ha abierto nuevas perspectivas para los inversores. Dado el escaso enfoque en el estudio de la volatilidad en años recientes, se propuso investigar cómo esta variable afecta a un robo-trader basado en DRL. Para ello, se crearon tres carteras diferentes según el nivel de volatilidad de los activos. Posteriormente, se desarrolló un código en Python para automatizar el proceso, desde la descarga de datos hasta la implementación del algoritmo de DRL. Los resultados revelaron que la cartera de alta volatilidad demostró el mejor rendimiento en términos del ratio de Sharpe, mientras que las carteras de volatilidad media y baja mostraron rendimientos positivos pero insuficientes para compensar el riesgo asumido. Bien es cierto que la hipótesis alternativa (a mayor volatilidad mejor ratio de Sharpe) fue confirmada. Sin embargo, en comparación con la estrategia de mercado, el modelo de DRL superó en rendimiento solo en la cartera de alta volatilidad, mientras que para las carteras de media y baja volatilidad los rendimientos obtenidos en relación con el riesgo asumido fueron peores cuando se utilizó el modelo de DRL. Es crucial destacar que estos resultados representan una prueba de concepto y no reflejan completamente el potencial del DRL debido a limitaciones computacionales.es-ES
dc.description.abstractThis study investigates the impact of volatility on the performance of a robo-trader based on a Deep Reinforcement Learning (DRL) model. Traditionally, asset selection and allocation models have relied on assumptions that may not be applicable in the real world, and the advent of Artificial Intelligence (AI) and Machine Learning (ML) has opened new perspectives for investors. Given the limited focus on volatility studies in recent years, the aim was to examine how this variable affects a DRL-based robo-trader. To achieve this, three different portfolios were created based on the level of asset volatility. Subsequently, a Python code was developed to automate the process, from data downloading to DRL algorithm implementation. The results revealed that the high-volatility portfolio demonstrated the best performance in terms of the Sharpe ratio, while the medium and low volatility portfolios showed positive but insufficient returns to offset the assumed risk. It is worth noting that the alternative hypothesis (higher volatility leads to a better Sharpe ratio) was confirmed. However, compared to the market strategy, the DRL model outperformed only in the high-volatility portfolio, whereas for the medium and low volatility portfolios, the returns obtained in relation to the assumed risk were worse when using the DRL model. It is crucial to emphasize that these results represent a proof of concept and do not fully reflect the potential of DRL due to computational limitations.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKBAes_ES
dc.titleImpacto de la volatilidad en un robo-trader de Deep Reinforcement Learning - García Castro, Luises_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsVolatilidad, Machine Learning (ML), Deep Reinforcement Learning (DRL), Proximal Policy Optimization (PPO), Ratio de Sharpe, Pythones-ES
dc.keywordsVolatility, Machine Learning (ML), Deep Reinforcement Learning (DRL), Proximal Policy Optimization (PPO), Sharpe Ratio, Pythonen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States