Mostrar el registro sencillo del ítem

dc.contributor.advisorLópez López, Álvaro Jesúses-ES
dc.contributor.authorAmores Parra, Sofíaes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2024-09-27T09:24:41Z
dc.date.available2024-09-27T09:24:41Z
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/94552
dc.descriptionMáster Universitario en Ingeniería Industrial + Máster en Industria Conectada / in Smart Industryes_ES
dc.description.abstractEste trabajo explora la viabilidad del ajuste fino en modelos de lenguaje de gran tamaño (LLMs) en entornos con recursos computacionales limitados, con el objetivo de adaptarlos al manejo eficiente de información estructurada, como la que podría encontrarse en entornos empresariales con datos privados. Para ello, se ha utilizado el modelo Llama 3.1 8B de Meta y se ha aplicado la técnica de Low-Rank Adaptation (LoRA), que permite modificar únicamente un pequeño subconjunto de parámetros del modelo, reduciendo drásticamente los requisitos de hardware. La tarea planteada consiste en responder preguntas numéricas formuladas en lenguaje natural a partir de un conjunto de datos meteorológicos de AWS (GHCN), previamente procesado y adaptado al formato del modelo. Se ha diseñado un flujo modular que permite generalizar el procedimiento a otros dominios, manteniendo la lógica de entrenamiento pero adaptando el contenido del prompt y el conjunto de datos. Los resultados muestran mejoras claras respecto al modelo preentrenado, tanto en métricas de precisión como en coherencia de las respuestas, reduciendo significativamente el porcentaje de alucinaciones. Además, el sistema ha demostrado ser funcional en un entorno como Google Colab, lo que valida su aplicabilidad en contextos con recursos limitados. Finalmente, se identifican varias líneas de trabajo futuro, como la incorporación de estructura temporal secuencial en el entrenamiento, la evaluación ante preguntas con datos ausentes o la integración con sistemas RAG. El enfoque propuesto abre nuevas posibilidades para el uso práctico de LLMs adaptados a dominios concretos y con información sensible, sin depender de conexiones externas ni infraestructuras complejas.es-ES
dc.description.abstractThis project explores the feasibility of fine-tuning large language models (LLMs) in environments with limited computational resources, with the goal of adapting them to the efficient handling of structured information, such as that found in business settings with private data. To this end, Meta’s LLaMA 3.1 8B model was used, and the Low-Rank Adaptation (LoRA) technique was applied, which allows modifying only a small subset of the model’s parameters, significantly reducing hardware requirements. The proposed task involves answering numerical questions expressed in natural language based on a meteorological dataset from AWS (GHCN), which was previously processed and adapted to the model’s format. A modular workflow was designed to generalize the procedure to other domains, preserving the training logic while adapting the prompt content and dataset structure as needed. The results show clear improvements over the pretrained model, both in terms of accuracy metrics and response coherence, with a significant reduction in the rate of hallucinations. Additionally, the system proved functional in a platform like Google Colab, validating its applicability in low-resource contexts. Several future lines of work have been identified, such as incorporating sequential temporal structure into training, evaluating the model’s performance when dealing with missing data, or integrating it with Retrieval-Augmented Generation (RAG) systems. The proposed approach opens new possibilities for the practical use of LLMs adapted to specific domains and sensitive information, without relying on external connections or complex infrastructures.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherH62-electronica (MII-N)es_ES
dc.titleAjuste fino de un LLM orientado al manejo eficiente de información privadaes_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsAjuste fino; Modelos de lenguaje de gran tamaño; LoRA, Privacidad de datos; Llama 3; Recursos limitadoses-ES
dc.keywordsFine-tuning; Large language models; LoRA; Data privacy; Llama 3; Limited resourcesen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States