Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/11531/93054Registro completo de metadatos
| Campo DC | Valor | Lengua/Idioma |
|---|---|---|
| dc.contributor.advisor | Vázquez Requejo, Alfonso | es-ES |
| dc.contributor.author | Municio Nombela, Jorge | es-ES |
| dc.contributor.other | Universidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI) | es_ES |
| dc.date.accessioned | 2024-09-04T09:47:34Z | - |
| dc.date.available | 2024-09-04T09:47:34Z | - |
| dc.date.issued | 2025 | es_ES |
| dc.identifier.uri | http://hdl.handle.net/11531/93054 | - |
| dc.description | Grado en Ingeniería en Tecnologías Industriales | es_ES |
| dc.description.abstract | Este proyecto busca optimizar la generación de texto en modelos de lenguaje de gran tamaño (LLM) mediante la técnica RAG (Retrieval Augmented Generation), que combina generación automática con recuperación de información externa. Aunque los modelos preentrenados basados en arquitecturas Transformer han demostrado ser muy eficaces en tareas como traducción, respuesta a preguntas o generación de contenido, presentan una limitación importante: su conocimiento es estático y está limitado al corpus con el que fue entrenado. La técnica RAG permite superar esta limitación al enriquecer el contexto del modelo con información actual y relevante, extraída en tiempo real de documentos u otras fuentes externas. El objetivo de este trabajo es evaluar el valor añadido por esta técnica a través de métricas y análisis concretos, integrándola en un modelo base, concretamente en Mistral 7B. En el sistema RAG desarrollado, el modelo genera texto teniendo en cuenta información técnica previamente recuperada. Los resultados obtenidos muestran una mejora notable en la efectividad del modelo, con respuestas más precisas, coherentes y alineadas con el contexto de cada pregunta. Además, el sistema demuestra una alta robustez frente a entradas complejas, ambiguas o con errores ortográficos, manteniendo la calidad de las respuestas. Se analizan posibles sesgos derivados de la documentación utilizada, prestando especial atención al sesgo por selección dirigida de documentación ya que puede condicionar de forma crítica las respuestas del sistema y provocar que este pierda su objetividad. En conclusión, la incorporación de técnicas de recuperación contextualizada como RAG mejora significativamente el rendimiento de los modelos de lenguaje, aumentando su utilidad en aplicaciones complejas y reforzando su capacidad para ofrecer respuestas más relevantes, actualizadas y fiables en entornos exigentes. No obstante, es fundamental el correcto tratamiento de la información con que se alimentan estos sistemas para evitar respuestas distorsionadas. | es-ES |
| dc.description.abstract | This project aims to optimize text generation in large language models (LLMs) through the use of the RAG (Retrieval-Augmented Generation) technique, which combines automatic generation with external information retrieval. Although pretrained models based on Transformer architectures have proven highly effective in tasks such as translation, question answering, and content generation, they present a significant limitation: their knowledge is static and restricted to the corpus on which they were trained. The RAG technique helps overcome this limitation by enriching the model’s context with current and relevant information, retrieved in real time from documents or other external sources. The objective of this work is to evaluate the added value of this technique through specific metrics and analyses, integrating it into a base model, specifically, Mistral 7B. In the developed RAG system, the model generates text while considering previously retrieved technical information. The results show a clear improvement in the model’s effectiveness, delivering more precise, coherent responses aligned with the context of each query. Additionally, the system demonstrates strong robustness when dealing with complex, ambiguous, or misspelled inputs, maintaining response quality. Potential biases derived from the documentation used are also analyzed, with particular attention to selection bias, which can critically influence the system’s answers and compromise its objectivity. In conclusion, incorporating context-aware retrieval techniques such as RAG significantly enhances the performance of language models, increasing their usefulness in complex applications and strengthening their ability to deliver more relevant, up to date, and reliable responses in demanding environments. However, careful handling of the information fed into these systems is essential to avoid distorted results. | en-GB |
| dc.format.mimetype | application/pdf | es_ES |
| dc.language.iso | es-ES | es_ES |
| dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | es_ES |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | es_ES |
| dc.subject.other | KTI-electronica (GITI-N) | es_ES |
| dc.title | Inteligencia artificial: Potenciando Modelos de Lenguaje Preentrenados con Técnicas de Transformers y Aprendizaje Híbrido a través de RAG | es_ES |
| dc.type | info:eu-repo/semantics/bachelorThesis | es_ES |
| dc.rights.accessRights | info:eu-repo/semantics/openAccess | es_ES |
| dc.keywords | Transformers, Inteligencia Artificial, RAG, redes neuronales, IA | es-ES |
| dc.keywords | Transformers, Artificial intelligence, RAG, deep learning, AI | en-GB |
| Aparece en las colecciones: | KTI-Trabajos Fin de Grado | |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| TFG -Municio Nombela, Jorge.pdf | Trabajo Fin de Grado | 2,17 MB | Adobe PDF | Visualizar/Abrir |
| Anexo I Municio Nombela, Jorge.pdf | Autorización | 391,23 kB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.