Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/97885
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorTordesillas Torres, Jesúses-ES
dc.contributor.authorParamio Valdés, Pabloes-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2025-03-05T12:02:09Z-
dc.date.available2025-03-05T12:02:09Z-
dc.date.issued2025es_ES
dc.identifier.urihttp://hdl.handle.net/11531/97885es_ES
dc.descriptionGrado en Ingeniería en Tecnologías Industrialeses_ES
dc.description.abstractEl proyecto aborda el problema del vuelo ágil autónomo de drones cuadricópteros basado en visión. Aunque este tipo de autonomía ya se ha alcanzado mediante tecnologías como el GPS, su uso resulta poco fiable en entornos complejos o a altas velocidades, donde la señal es lenta e imprecisa. Como alternativa, surge el vuelo basado en visión con inteligencia artificial. En este ámbito se distinguen principalmente dos enfoques. El primero corresponde a las políticas de red neuronal híbridas, que dividen el problema en dos etapas: la percepción o estimación explícita del estado a partir de imágenes y el control o toma de decisiones en función de ese estado. El segundo enfoque son las políticas de red neuronal de extremo a extremo, en las que el agente aprende a generar señales de control directamente desde la cámara a bordo, imitando la forma en que un piloto FPV maneja el dron. Este proyecto se centra en la segunda variante, ya que resulta más prometedora para vuelo ágil, donde la estimación explícita de estado presenta dificultades y se evita recurrir a sensores costosos. El objetivo principal es el desarrollo de un marco de simulación en Nvidia Isaac Lab que sirva como base para investigaciones futuras en vuelo autónomo basado en visión. Para ello, se han implementado tres componentes clave: un robot de cuadricóptero con un modelo aerodinámico realista dentro del marco de Isaac Lab, un controlador de vuelo tipo Betaflight paralelizable que asegura la compatibilidad con drones FPV reales, y un entorno de entrenamiento con obstáculos en el que se prueban tanto políticas basadas en estados como en visión mediante técnicas de reinforcement learning. Más que buscar un nuevo estado del arte en arquitecturas neuronales, este trabajo proporciona herramientas y metodologías abiertas que faciliten futuros avances en el vuelo autónomo ágil basado en visión.es-ES
dc.description.abstractThe project addresses the problem of the autonomous agile flight of vision-based quadcopter drones. Although this type of autonomy has already been achieved through technologies such as GPS, its use is unreliable in complex environments or at high speeds, where the signal is slow and imprecise. As an alternative, flight based on vision with artificial intelligence emerges. In this area, two main approaches can be distinguished. The first corresponds to hybrid neural network policies, which divide the problem into two stages: the perception or explicit estimation of the state from the images, and the control or decision-making based on that state. The second approach involves end-to-end neural network policies, in which the agent learns to generate control signals directly from the onboard camera, mimicking the way an FPV pilot handles the drone. This project focuses on the second variant, as it is more promising for agile flight, where explicit state estimation is difficult, and the use of expensive sensors is avoided. The main objective is the development of a simulation framework on top of Nvidia Isaac Lab that will serve as a basis for future research in vision-based autonomous flight. To this end, three key components have been implemented: a quadcopter robot with its respective realistic aerodynamic model within the Isaac Lab framework, a parallelizable Betaflight-style flight controller that ensures compatibility with real FPV drones, and an obstacle-based training environment where both state-based and vision-based policies are tested using reinforcement learning techniques. Rather than aiming to establish a new state of the art in neural architectures, this work provides open tools and methodologies that facilitate future advances in vision-based agile autonomous flight.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherKTI-electronica (GITI-N)es_ES
dc.titleAgile vision-based flight for drones using neural networkses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsDrones, Redes Neuronales, FPV, Inteligencia Artificial, Autónomo, Machine Learning, Reinforcement Learninges-ES
dc.keywordsDrones, Neural Networks, FPV, Artificial Intelligence, Autonomous, Machine Learning, Reinforcement Learningen-GB
Aparece en las colecciones: TFG, TFM (temporales)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TFG - Paramio Valdes, Pablo.pdfTrabajo Fin de Grado4,14 MBAdobe PDFVisualizar/Abrir     Request a copy
Anexo1_firmado.pdfAutorización149,81 kBAdobe PDFVisualizar/Abrir     Request a copy


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.