Mostrar el registro sencillo del ítem

dc.contributor.advisorDíaz-Cano Rincón, Antonio Jesúses-ES
dc.contributor.authorLlaneza Benosa, Gabrieles-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2024-10-14T09:32:22Z
dc.date.available2024-10-14T09:32:22Z
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/95114
dc.descriptionGrado en Ingeniería en Tecnologías de Telecomunicación y Grado en Análisis de Negocios/Business Analyticses_ES
dc.description.abstractste Trabajo de Fin de Grado presenta el desarrollo de un sistema de software que combina inteligencia artificial y generación visual en tiempo real con el objetivo de automatizar la creación de visuales reactivas durante espectáculos musicales en directo. El proyecto integra modelos de Deep Learning, como redes neuronales convolucionales (CNN) y recurrentes (GRU), entrenados con fragmentos de audio para identificar eventos musicales relevantes —como cambios rítmicos, intensidad o drops— y traducirlos en estímulos visuales mediante el entorno TouchDesigner. Se ha conseguido implementar un flujo completo que abarca desde el preprocesamiento del audio y la generación de espectrogramas de Mel, hasta la inferencia en tiempo real y la conexión con la herramienta visual. Este sistema permite ajustar en vivo parámetros visuales como el color, la intensidad o la forma en función de las predicciones del modelo, haciendo que las visuales evolucionen con la música. El enfoque adoptado busca no solo una solución técnica eficaz, sino también un impacto práctico: democratizar el acceso a visuales personalizadas para artistas emergentes que no disponen de medios técnicos ni presupuestos elevados. El proyecto confirma que es viable automatizar este proceso de forma creativa y adaptable, abriendo la puerta a futuras mejoras como la ampliación del dataset, el perfeccionamiento de los modelos y una mayor sofisticación estética en la salida visual.es-ES
dc.description.abstractThis Final Degree Project presents the development of an advanced software system that combines artificial intelligence and real-time visual generation with the goal of automating the creation of reactive visuals during live music performances. The project integrates Deep Learning models, such as Convolutional Neural Networks (CNN) and Gated Recurrent Units (GRU), trained on short audio segments to identify key musical events —such as rhythmic changes, intensity shifts, or drops— and translate them into visual triggers using the TouchDesigner platform. A complete workflow has been successfully implemented, covering everything from audio preprocessing and Mel spectrogram generation to real-time inference and seamless integration with the visual environment. This allows the system to dynamically adjust visual parameters such as color, intensity, and shapes in sync with the music, resulting in visuals that evolve organically with each performance. The project not only aims to provide a technically effective solution, but also seeks a practical and artistic impact: democratizing access to custom visuals for emerging artists who lack technical teams or large budgets. The results confirm that it is feasible to automate the process in a creative and adaptable way, offering a strong foundation for future improvements. These may include dataset expansion, model optimization, and more sophisticated visual aesthetics. This work demonstrates the potential of AI to enrich live experiences and paves the way for new forms of audiovisual expression that are accessible, scalable, and artistically engaging.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKTT (GITT)es_ES
dc.titleImplementación de la Inteligencia Artificial para la Generación de Visuales Dinámicas en Conciertos de Música Electrónicaes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsinteligencia artificial, deep learning, visuales reactivos, tiempo real, espectáculos en vivo, CNN, GRU, espectrograma de Mel, TouchDesigner, automatización creativa, accesibilidad artística, análisis de audioes-ES
dc.keywordsArtificial intelligence, deep learning, reactive visuals, real-time processing, live performances, CNN, GRU, Mel spectrogram, TouchDesigner, creative automation, artistic accessibility, audio analysis.en-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States