Arquitectura para un proyecto de LLM: una solución Cloud
Resumen
En esta memoria se presenta la arquitectura del módulo de extracción de información o scraping de documentos diseñada para la empresa VotConnect, dedicada a la automatización de relaciones con el cliente usando LLMs. Esta infraestructura está basada en el cloud de AWS, usando las herramientas que AWS dispone, se ha construido una solución que permite nutrir de información al LLM mediante la técnica del RAG.
Además de la descripción de la arquitectura, se presentan otras soluciones que fueron implementadas pero que finalmente se desecharon en favor de la presente.
La infraestructura construida es eficiente y escalable, cualidades que la hacen idónea para proyectos de Inteligencia Artificial. This report presents the architecture of the information extraction or document scraping module designed for the company VotConnect, dedicated to automating customer relations using LLMs (Large Language Models). This infrastructure is cloud-based on AWS, leveraging AWS tools to build a solution that feeds information to the LLM using the RAG (Retrieval-Augmented Generation) technique.
In addition to the architecture description, other solutions that were initially implemented but ultimately discarded in favor of the current one are also presented.
The constructed infrastructure is efficient and scalable, qualities that make it suitable for Artificial Intelligence projects.
Trabajo Fin de Máster
Arquitectura para un proyecto de LLM: una solución CloudTitulación / Programa
Máster Universitario en Big DataMaterias/ categorías / ODS
H0ZPalabras Clave
LLM, Arquitectura, Inteligencia Artificial, AWSLLM, Infrastructure, Artificial Intelligence, AWS