Mostrar el registro sencillo del ítem

dc.contributor.advisorRodrigo Tobías, Ignacio dees-ES
dc.contributor.advisorLópez López, Álvaro Jesúses-ES
dc.contributor.authorHorcajo de la Cruz, Danieles-ES
dc.contributor.otherUniversidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería (ICAI)es_ES
dc.date.accessioned2020-10-08T09:06:05Z
dc.date.available2020-10-08T09:06:05Z
dc.date.issued2021es_ES
dc.identifier.urihttp://hdl.handle.net/11531/51626
dc.descriptionMáster Universitario en Ingeniería Industrial + Máster en Industria Conectada / in Smart Industryes_ES
dc.description.abstractEl desarrollo de nuevas tecnologías durante los últimos años ha traído consigo un alto nivel de avance en ámbitos tales como la robótica. Por su parte, el creciente interés en algoritmos cada vez más flexibles y robustos ha propiciado la aparición de nuevos tipos de modelos de inteligencia artificial, incluyendo, entre otras, modelos de detección de objetos. A pesar de estos avances, el uso de brazos robóticos que actualmente se encuentran en centros logísticos y de fabricación sigue viéndose limitado por el tipo de pinza que estos poseen, viéndose así restringida su capacidad de agarre. Este proyecto busca explorar diferentes soluciones a esta problemática, desarrollando un algoritmo que subsane dicha limitación. De esta forma, a partir del uso de cámaras de color y profundidad, en combinación con algoritmos tradicionales y de visión artificial, se pretende dotar a un robot ambidiestro de la capacidad de agarrar cualquiera de los diferentes tipos de piezas existentes en un conjunto de componentes automovilísticos específico. Estos agarres podrán llevarse a cabo a través de una pinza de tipo paralelo o de tipo ventosa, según las características morfológicas y la textura de la pieza que se desee agarrar. De este modo, se consigue ampliar la capacidad de agarre de un brazo robótico, dotándole de flexibilidad a la hora de realizar agarres, sin verse limitado por un tipo particular de pinza.es-ES
dc.description.abstractThe development of new technologies in recent years has brought with it a high level of progress in areas such as robotics. In turn, the growing interest in increasingly flexible and robust algorithms has led to the emergence of new types of artificial intelligence techniques, including, among others, object detection models. Despite these advancements, the use of robotic arms currently found in logistics and manufacturing centers is still limited by the type of gripper they are equipped with, thus restricting their gripping capabilities. This project seeks to explore different solutions to this problem by developing an algorithm to overcome this limitation. Thus, by using color and depth cameras, in combination with traditional and artificial vision algorithms, it is intended to provide an ambidextrous robot with the ability to grasp any of the different types of parts found in a specific set of automotive components. These grips can be carried out by means of a parallel or suction cup type gripper, depending on the morphological characteristics and texture of the part to be gripped. As a result, the gripping capacity of the robotic arm is enhanced, providing it with the flexibility to perform grasping operations without being limited by a particular type of gripper.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Stateses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/es_ES
dc.subject33 Ciencias tecnológicases_ES
dc.subject3307 Tecnología electrónicaes_ES
dc.subject.otherH62-electronica (MII-N)es_ES
dc.titleAnálisis de imágenes RGB-D por Visión Artificial para el agarre de piezas industrialeses_ES
dc.typeinfo:eu-repo/semantics/masterThesises_ES
dc.rights.accessRightsinfo:eu-repo/semantics/closedAccesses_ES
dc.keywordsAgarre, YOLO, Dex-Net, Visión artificial, Pinza, Ventosaes-ES
dc.keywordsGrasp, YOLO, Dex-Net, Computer vision, Grip, Suction cupen-GB


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States