Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/95508
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorSanz Bobi, Miguel Ángeles-ES
dc.contributor.advisorMatanza Domingo, Javieres-ES
dc.contributor.authorOlucha Royo, Carleses-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2024-10-30T16:27:30Z-
dc.date.available2024-10-30T16:27:30Z-
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/95508es_ES
dc.descriptionGrado en Análisis de Negocios/Business Analytics y Máster Universitario en Ingeniería de Telecomunicaciónes_ES
dc.description.abstractEste Trabajo de Fin de Máster desarrolla un sistema de transcripción musical automática que convierte grabaciones de audio en partituras legibles, utilizando técnicas de procesamiento digital de señales e inteligencia artificial. El sistema se ha diseñado para funcionar con instrumentos melódicos (como la flauta) y polifónicos (como la guitarra), abordando los desafíos que presentan las grabaciones reales, como el ruido de fondo, la variabilidad tímbrica o la superposición de armónicos. El proceso comienza con la segmentación temporal de la señal de audio y su transformación al dominio frecuencial mediante la transformada rápida de Fourier (FFT). A continuación, se extraen vectores de características que representan la energía en rangos de frecuencias asociados a cada nota musical. Estos vectores se clasifican mediante modelos de aprendizaje automático, como KNN, MLP y RNN, para identificar las notas presentes en cada segmento. Se incorpora también un módulo de filtrado espectral personalizado para mejorar la precisión en entornos ruidosos. Finalmente, el sistema genera una partitura estructurada y legible, complementada con una interfaz gráfica sencilla e intuitiva que permite cargar el audio, seleccionar parámetros de análisis y visualizar los resultados. La solución es modular y extensible, lo que facilita futuras ampliaciones y adaptaciones a otros instrumentos. Este trabajo contribuye al desarrollo de herramientas accesibles para la transcripción musical, con aplicaciones tanto en la educación como en la creación musical.es-ES
dc.description.abstractThis Master's Thesis presents the design and implementation of an automatic music transcription system capable of converting audio recordings into structured musical scores through digital signal processing and artificial intelligence techniques. The system is designed to handle both monophonic instruments (such as the flute) and polyphonic ones (like the guitar), addressing key challenges such as background noise, timbral variability, and overlapping harmonics. The process begins with temporal segmentation of the input audio and its transformation into the frequency domain using the Fast Fourier Transform (FFT). From this, feature vectors are extracted by analyzing the energy distribution across frequency bands corresponding to musical notes. These vectors are then classified using various machine learning models, including K-Nearest Neighbors (KNN), Multilayer Perceptron (MLP), and Recurrent Neural Networks (RNN), to detect the notes present in each segment. A custom spectral filtering module is incorporated to enhance the robustness and precision of the system in noisy environments. The final output is a readable and structured musical score, generated automatically from the audio input. Additionally, an intuitive graphical interface has been developed to allow users to upload audio files, adjust analysis parameters, and visualize the resulting transcription in real time. The system is modular and scalable, making it adaptable to different instruments and future improvements.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherH67 (MIT)es_ES
dc.titleANÁLISIS MUSICAL A PARTIR DE LAS SEÑALES DE AUDIOes_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsProcesamiento de audio, inteligencia artificial, transcripción musical automática, aprendizaje automático, señales digitales, reconocimiento de notases-ES
dc.keywordsAudio processing, artificial intelligence, automatic music transcription, machine learning, digital signals, note recognitionen-GB
Aparece en las colecciones: TFG, TFM (temporales)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TFM - Olucha Royo, Carles.pdfTrabajo Fin de Máster6,71 MBAdobe PDFVisualizar/Abrir
AnexoI.pdfAutorización148,13 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.