Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.uan.edu.co/handle/123456789/7269
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorErazo Ordoñez, Christian-
dc.coverage.spatialColombia(Bogotá,Dc)es_ES
dc.creatorTrujillo Loaiz, Estive Leandro-
dc.date.accessioned2022-11-15T22:36:51Z-
dc.date.available2022-11-15T22:36:51Z-
dc.date.created2022-07-26-
dc.identifier.urihttp://repositorio.uan.edu.co/handle/123456789/7269-
dc.description.abstractThis document presents the proposal for the design and implementation of a trajectory tracking algorithm that will be incorporated into the flight control system of the Parrot Mambo minidrone, with the aim of performing autonomous flights. The tracking algorithm will be developed in three phases: initially a sequence of images will be processed through three processes that are; binarization, segmentation, and pixel counting, then the algorithm will be designed through the design of the state machine for data acquisition and processing and finally the algorithm will be validated through Simulink/Stateflow considering four scenarios where it will be tested the performance. Likewise, in the development of this document, an effectiveness of 93.33% success was demonstrated in the different performance tests of the algorithm, and part of the efficiency is presented in the data collection, the pulses emitted by the different sensors that were generated from the image, the duration of each pulse is variable and can range from 9 s to end at 18 s, and the response time seen in the final movement of the drone lasts exactly the time that the pulses takees_ES
dc.description.tableofcontentsEn este documento se presenta la propuesta de diseño e implementación de un algoritmo de seguimiento de trayectorias que se incorporará al sistema de control de vuelo del minidrone Parrot Mambo, con el objetivo de realizar vuelos autónomos. El algoritmo de seguimiento se desarrollará en tres fases: inicialmente se procesará una secuencia de imágenes por medio de tres procesos que son; binarización, segmentación, y conteo de pixeles, luego se diseñará el algoritmo por medio del diseño de la máquina de estados para la adquisición y procesamiento de datos y finalmente se validará el algoritmo a través de Simulink/Stateflow considerando cuatro escenarios donde se pondrá a prueba el funcionamiento. Asimismo en el desarrollo de este documento se observó una efectividad del 93.33% de éxito en las diferentes pruebas de rendimiento del algoritmo, y parte de la eficiencia se presenta en la recolección de datos los pulsos emitidos por los distintos sensores que se generaron a partir de la imagen, la duración de cada pulsación es variable y puede rondar desde 9 s hasta finalizar a los 18 s, y el tiempo de respuesta visto en el movimiento final del dron dura exactamente el tiempo que demoran los pulsoses_ES
dc.language.isospaes_ES
dc.publisherUniversidad Antonio Nariñoes_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Estados Unidos de América*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
dc.sourceinstname:Universidad Antonio Nariñoes_ES
dc.sourcereponame:Repositorio Institucional UANes_ES
dc.sourceinstname:Universidad Antonio Nariñoes_ES
dc.sourcereponame:Repositorio Institucional UANes_ES
dc.subjectUAVs,es_ES
dc.subjectRC,es_ES
dc.subjectAlgoritmo,es_ES
dc.subjectImagen,es_ES
dc.subjectResolución,es_ES
dc.subjectRGB,es_ES
dc.subjectcoordenadas.es_ES
dc.titleDiseño e implementación de un algoritmo de seguimiento de trayectorias para el minidron Parrot mambo utilizando – Simulink/Stateflowes_ES
dc.typeTesis - Trabajo de grado - Monografia - Pregradoes_ES
dc.publisher.programIngeniería Mecatrónicaes_ES
dc.rights.accesRightsopenAccesses_ES
dc.subject.keywordUAVs,es_ES
dc.subject.keywordRC,es_ES
dc.subject.keywordAlgorithm,es_ES
dc.subject.keywordImage,es_ES
dc.subject.keywordResolution,es_ES
dc.subject.keywordRGB,es_ES
dc.subject.keywordcoordinateses_ES
dc.type.spaTrabajo de grado (Pregrado y/o Especialización)es_ES
dc.type.hasVersioninfo:eu-repo/semantics/acceptedVersiones_ES
dc.source.bibliographicCitation[1] T. de Swarte, O. Boufous, and P. Escalle, “Artificial intelligence, ethics and human values: the cases of military drones and companion robots,” Artif. Life Robot., vol. 24, no. 3, pp. 291–296, 2019, doi: 10.1007/s10015-019-00525-1.es_ES
dc.source.bibliographicCitation[2] H. Zimmermann, L. Vidiasova, I. Tensina, and C. Lee, Electronic Governance and Open Society: Challenges in Eurasia, vol. 947. 2019.es_ES
dc.source.bibliographicCitation[3] V. Sgurev, V. Piuri, and V. Jotsov, Learning Systems: From Theory to Practice, vol. 756. 2018.es_ES
dc.source.bibliographicCitation[4] “¿QUÉ TIPOS DE DRONES EXISTEN? - areadron.com.” https://www.areadron.com/que-tipos-de-drones-existen/ (accessed Oct. 13, 2020).es_ES
dc.source.bibliographicCitation[5] “Support - Parrot Mambo Fly | Sitio Web Official de Parrot.” https://support.parrot.com/es/support/productos/parrot-mambo-fly (accessed Nov. 02, 2020).es_ES
dc.source.bibliographicCitation[6] B. Demir et al., “Real-time high-resolution omnidirectional imaging platform for drone detection and tracking,” J. Real-Time Image Process., vol. 17, no. 5, pp. 1625– 1635, 2020, doi: 10.1007/s11554-019-00921-7.es_ES
dc.source.bibliographicCitation[7] R. Collins, X. Zhou, and S. K. Teh, “An Open Source Tracking Testbed and Evaluation Web Site,” IEEE Int. Work. Perform. Eval. Track. Surveill., vol. 5, pp. 3769–3772, 2005.es_ES
dc.source.bibliographicCitation[8] Y. G. Han, S. H. Jung, and O. Kwon, “How to utilize vegetation survey using drone image and image analysis software,” J. Ecol. Environ., vol. 41, no. 1, pp. 1–6, 2017, doi: 10.1186/s41610-017-0035-2.es_ES
dc.source.bibliographicCitation[9] J. Fleureau, Q. Galvane, F. L. Tariolle, and P. Guillotel, “Generic drone control platform for autonomous capture of cinema scenes,” DroNet 2016 - Proc. 2nd Work. Micro Aer. Veh. Networks, Syst. Appl. Civ. Use, co-located with MobiSys 2016, pp. 35–40, 2016, doi: 10.1145/2935620.2935622.es_ES
dc.source.bibliographicCitation[10] T. Nageli, J. Alonso-Mora, A. Domahidi, D. Rus, and O. Hilliges, “Real-time motion planning for aerial videography with real-time with dynamic obstacle avoidance and viewpoint optimization,” IEEE Robot. Autom. Lett., vol. 2, no. 3, pp. 1696–1703, 2017, doi: 10.1109/LRA.2017.2665693.es_ES
dc.description.degreenameIngeniero(a) Mecatrónico(a)es_ES
dc.description.degreelevelPregradoes_ES
dc.publisher.facultyFacultad de Ingeniería Mecánica, Electrónica y Biomédicaes_ES
dc.audienceGenerales_ES
dc.description.notesPresenciales_ES
dc.creator.cedula11481623983es_ES
dc.publisher.campusBogotá - Sures_ES
dc.description.degreetypeInvestigaciónes_ES
Aparece en las colecciones: Ingeniería mecatrónica

Ficheros en este ítem:
Fichero Tamaño  
2022_ Acta_EstiveTrujillo.pdf
  Restricted Access
168.78 kBVisualizar/Abrir  Request a copy
2022_TG EstiveTrujillo.pdf3.73 MBVisualizar/Abrir
2022_Autorización.pdf
  Restricted Access
619.92 kBVisualizar/Abrir  Request a copy


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons