Mostrar el registro sencillo del ítem

dc.contributor.advisorMartínez de Ibarreta Zorita, Carloses-ES
dc.contributor.authorPalomino Bravo, Marinaes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Facultad de Ciencias Económicas y Empresarialeses_ES
dc.date.accessioned2022-07-04T15:37:46Z
dc.date.available2022-07-04T15:37:46Z
dc.date.issued2023es_ES
dc.identifier.urihttp://hdl.handle.net/11531/69691
dc.descriptionGrado en Administración y Dirección de Empresas y Grado en Análisis de Negocios/Business Analyticses_ES
dc.description.abstractEn este Trabajo Fin de Grado se estudia la evolución que ha tomado el Procesamiento del Lenguaje Natural (NLP) para ofrecer una mejor comprensión de las arquitecturas Transformer. Se repasan conceptos como tokenización, bag-of-words, one-hot encoding y técnicas clásicas de procesamiento de texto. Luego, se explora la evolución hacia los modelos Transformer, incluyendo word embeddings, redes neuronales, y la arquitectura Encoder-Decoder. El trabajo destaca la importancia del Prompt Engineering, una disciplina en fase de investigación, que permite un mayor control sobre los resultados generados por los modelos de lenguaje. Se presentan los resultados obtenidos al optimizar prompts utilizando el modelo ChatGPT. Se concluye que no existen prompts universales que garanticen las mejores respuestas, sino que el proceso de refinamiento iterativo es fundamental. Para tareas de síntesis, inferencia de sentimiento y ampliación de texto se generaban respuestas de mayor calidad cuando se pedía al modelo que tomara un rol específico o se centrara en los aspectos clave del texto. La tarea de generación de código en R desvelaba que con 4 entradas el modelo era capaz de generar el código deseado. No obstante, el número de interacciones con el modelo variarán en función de la complejidad de la tarea.es-ES
dc.description.abstractThis Final Degree Project studies the evolution of Natural Language Processing (NLP) in order to offer a better understanding of Transformer architectures. Concepts such as tokenisation, bag-of-words, one-hot encoding and classical text processing techniques are reviewed. Then, the evolution towards Transformer models is explored, including word embeddings, neural networks, and the Encoder-Decoder architecture. The paper highlights the importance of Prompt Engineering, a discipline in the research phase, which allows greater control over the results generated by language models. The results obtained by optimising prompts using ChatGPT are presented. It is concluded that there are no universal prompts that guarantee the best answers, but that the process of iterative refinement is fundamental. For summarisation, sentiment inference and text expanding tasks, higher quality responses were generated when the model was asked to take a specific role or focus on key aspects of the text. The code generation task in R revealed that with 4 inputs the model was able to generate the desired code. However, the number of interactions with the model will vary depending on the complexity of the task.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject57 Lingüísticaes_ES
dc.subject5701 Lingüística aplicadaes_ES
dc.subject570104 Lingüística informatizadaes_ES
dc.subject.otherKBAes_ES
dc.titleLos Grandes Modelos del Lenguaje basados en Transformers : revisión y aplicación práctica con ChatGPTes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsNLP, Redes neuronales, Embedding, Transformer, Prompt Engineering, ChatGPT.es-ES
dc.keywordsNLP, Redes neuronales, Embedding, Transformer, Prompt Engineering, ChatGPT.en-GB


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States