Mostrar el registro sencillo del ítem

dc.contributor.advisorRoger, Morganes-ES
dc.contributor.advisorLelandais-Perrault, Carolinees-ES
dc.contributor.authorGarcía Domínguez, Andréses-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2018-12-10T11:48:43Z
dc.date.available2018-12-10T11:48:43Z
dc.date.issued2019es_ES
dc.identifier.urihttp://hdl.handle.net/11531/33705
dc.descriptionGrado en Ingeniería en Tecnologías Industrialeses_ES
dc.description.abstractEn este proyecto se ha realizado la concepción, diseño y pruebas de una flota de vehículos autónomos asistidos por servidor, que evolucionan en un circuito de simulación urbana. Para este propósito, cada robot contó con un sistema electrónico de computación embebido, compuesto de una Arduino y una Raspberry Pi comunicadas por tecnología I2C. Con ayuda de la información recibida por vídeo, por la cámara USB a bordo del Rover, el robot cuenta con un algoritmo de seguimiento de línea que le permite avanzar sobre la plataforma material y seguir dos filosofías, en sus distintas versiones: lógica discreta (control cualitativo) y lógica difusa (control cuantitativo). Asimismo, los robots cuentan con sensores infrarrojos que, acoplados a un servomotor de barrido, hacen posible el algoritmo de detección de obstáculos. De cara a configurar el sistema global, cada robot comunica por WiFi a través de la Raspberry con el servidor. Este servidor llama a cada robot para que le informe de la forma y color de las balizas depositadas sobre el camino que ve, así como su posición relativa respecto a ellas. Seguidamente, el servidor usa esta información para localizar el robot sobre el mapa e identificar los elementos críticos del entorno, que el robot no habría sido capaz de reconocer; y enviarle órdenes especificas adecuadas. Para lograr la paralelización de ambos procesos, hubo que enfrentar distintas metodologías software: multi-threading, multi-processing o fusión de threads. En un inicio, se partió de unos dispositivos creados por MathWorks para la “Mission on Mars”, competición universitaria de 2016. Para lograr adaptarlos en hardware a nuestro caso de estudio, hubo que elaborar un pliego de condiciones, un reconocimiento de funcionalidades exigidas y un análisis de alternativas para, en principio adaptar los robots existentes y, en segundo lugar, producir robots de nueva generación por medio de modelización 3D.es-ES
dc.description.abstractThis project involved the development, design, and testing of a fleet of autonomous vehicles, assisted by servers, that evolved within an urban circuit simulation. For this purpose, each robot relied on an embedded system composed of an Arduino and a Raspberry Pi that communicated between each via I2C technology. With help from the video information provided by the USB camera attached to the side of the Rover, the robot relies on a line tracking algorithm to make progress within the material platform and followed two philosophies in its distinct versions: discrete logic (qualitative control) and diffuse logic (quantitative control). At the same time, the robots also relied on infrared sensors, connected to a sweeping servomotor, which makes it possible for the algorithm to detect obstacles. On the other hand, facing the global system configuration, each robot communicates with the server through WiFi via the Raspberry. The server calls each robot for information about the shape and color of deposited beacons in the environment it comes across, as well as its position relative to them. Next, the server uses the information to locate the robot on the map and identify any critical elements in its environment that it would not have been able to identify on its own, then sends it the appropriate commands. To achieve the parallelization of both processes, we had to confront various software methodologies: multi-threading, multi-processing, and thread joining. In the beginning, it began with some devices created by MathWorks for Mission on Mars, an academic competition held in 2016. To adapt them to our new case study in hardware, we had to conduct specifications, a recognition of functional requirements, and an analysis of alternatives in order to adapt the existing robots and as a secondary term produce the next generation of robots through 3D modelling.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoen-GBes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject.otherGITI-N (KTI-electronica)es_ES
dc.titleAutonomous and connected vehicle. Material platformes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/closedAccesses_ES
dc.keywordsvehículo autónomo - visión artificial - lógica difusa - procesamiento en paralelo - electrónica embebida - sistema de controles-ES
dc.keywordsautonomous vehicle - computer vision - fuzzy logic - parallel processing - embedded electronics - control systemen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States