Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/11531/95508
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | Sanz Bobi, Miguel Ángel | es-ES |
dc.contributor.advisor | Matanza Domingo, Javier | es-ES |
dc.contributor.author | Olucha Royo, Carles | es-ES |
dc.contributor.other | Universidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI) | es_ES |
dc.date.accessioned | 2024-10-30T16:27:30Z | - |
dc.date.available | 2024-10-30T16:27:30Z | - |
dc.date.issued | 2025 | es_ES |
dc.identifier.uri | http://hdl.handle.net/11531/95508 | es_ES |
dc.description | Grado en Análisis de Negocios/Business Analytics y Máster Universitario en Ingeniería de Telecomunicación | es_ES |
dc.description.abstract | Este Trabajo de Fin de Máster desarrolla un sistema de transcripción musical automática que convierte grabaciones de audio en partituras legibles, utilizando técnicas de procesamiento digital de señales e inteligencia artificial. El sistema se ha diseñado para funcionar con instrumentos melódicos (como la flauta) y polifónicos (como la guitarra), abordando los desafíos que presentan las grabaciones reales, como el ruido de fondo, la variabilidad tímbrica o la superposición de armónicos. El proceso comienza con la segmentación temporal de la señal de audio y su transformación al dominio frecuencial mediante la transformada rápida de Fourier (FFT). A continuación, se extraen vectores de características que representan la energía en rangos de frecuencias asociados a cada nota musical. Estos vectores se clasifican mediante modelos de aprendizaje automático, como KNN, MLP y RNN, para identificar las notas presentes en cada segmento. Se incorpora también un módulo de filtrado espectral personalizado para mejorar la precisión en entornos ruidosos. Finalmente, el sistema genera una partitura estructurada y legible, complementada con una interfaz gráfica sencilla e intuitiva que permite cargar el audio, seleccionar parámetros de análisis y visualizar los resultados. La solución es modular y extensible, lo que facilita futuras ampliaciones y adaptaciones a otros instrumentos. Este trabajo contribuye al desarrollo de herramientas accesibles para la transcripción musical, con aplicaciones tanto en la educación como en la creación musical. | es-ES |
dc.description.abstract | This Master's Thesis presents the design and implementation of an automatic music transcription system capable of converting audio recordings into structured musical scores through digital signal processing and artificial intelligence techniques. The system is designed to handle both monophonic instruments (such as the flute) and polyphonic ones (like the guitar), addressing key challenges such as background noise, timbral variability, and overlapping harmonics. The process begins with temporal segmentation of the input audio and its transformation into the frequency domain using the Fast Fourier Transform (FFT). From this, feature vectors are extracted by analyzing the energy distribution across frequency bands corresponding to musical notes. These vectors are then classified using various machine learning models, including K-Nearest Neighbors (KNN), Multilayer Perceptron (MLP), and Recurrent Neural Networks (RNN), to detect the notes present in each segment. A custom spectral filtering module is incorporated to enhance the robustness and precision of the system in noisy environments. The final output is a readable and structured musical score, generated automatically from the audio input. Additionally, an intuitive graphical interface has been developed to allow users to upload audio files, adjust analysis parameters, and visualize the resulting transcription in real time. The system is modular and scalable, making it adaptable to different instruments and future improvements. | en-GB |
dc.format.mimetype | application/pdf | es_ES |
dc.language.iso | es-ES | es_ES |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | es_ES |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | es_ES |
dc.subject.other | H67 (MIT) | es_ES |
dc.title | ANÁLISIS MUSICAL A PARTIR DE LAS SEÑALES DE AUDIO | es_ES |
dc.type | info:eu-repo/semantics/masterThesis | es_ES |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es_ES |
dc.keywords | Procesamiento de audio, inteligencia artificial, transcripción musical automática, aprendizaje automático, señales digitales, reconocimiento de notas | es-ES |
dc.keywords | Audio processing, artificial intelligence, automatic music transcription, machine learning, digital signals, note recognition | en-GB |
Aparece en las colecciones: | TFG, TFM (temporales) |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
TFM - Olucha Royo, Carles.pdf | Trabajo Fin de Máster | 6,71 MB | Adobe PDF | Visualizar/Abrir |
AnexoI.pdf | Autorización | 148,13 kB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.