Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0)Erazo Ordoñez, ChristianTrujillo Loaiz, Estive Leandro2022-11-152022-11-152022-07-26http://repositorio.uan.edu.co/handle/123456789/7269This document presents the proposal for the design and implementation of a trajectory tracking algorithm that will be incorporated into the flight control system of the Parrot Mambo minidrone, with the aim of performing autonomous flights. The tracking algorithm will be developed in three phases: initially a sequence of images will be processed through three processes that are; binarization, segmentation, and pixel counting, then the algorithm will be designed through the design of the state machine for data acquisition and processing and finally the algorithm will be validated through Simulink/Stateflow considering four scenarios where it will be tested the performance. Likewise, in the development of this document, an effectiveness of 93.33% success was demonstrated in the different performance tests of the algorithm, and part of the efficiency is presented in the data collection, the pulses emitted by the different sensors that were generated from the image, the duration of each pulse is variable and can range from 9 s to end at 18 s, and the response time seen in the final movement of the drone lasts exactly the time that the pulses takeEn este documento se presenta la propuesta de diseño e implementación de un algoritmo de seguimiento de trayectorias que se incorporará al sistema de control de vuelo del minidrone Parrot Mambo, con el objetivo de realizar vuelos autónomos. El algoritmo de seguimiento se desarrollará en tres fases: inicialmente se procesará una secuencia de imágenes por medio de tres procesos que son; binarización, segmentación, y conteo de pixeles, luego se diseñará el algoritmo por medio del diseño de la máquina de estados para la adquisición y procesamiento de datos y finalmente se validará el algoritmo a través de Simulink/Stateflow considerando cuatro escenarios donde se pondrá a prueba el funcionamiento. Asimismo en el desarrollo de este documento se observó una efectividad del 93.33% de éxito en las diferentes pruebas de rendimiento del algoritmo, y parte de la eficiencia se presenta en la recolección de datos los pulsos emitidos por los distintos sensores que se generaron a partir de la imagen, la duración de cada pulsación es variable y puede rondar desde 9 s hasta finalizar a los 18 s, y el tiempo de respuesta visto en el movimiento final del dron dura exactamente el tiempo que demoran los pulsosspaAcceso abiertoUAVs,RC,Algoritmo,Imagen,Resolución,RGB,coordenadas.Diseño e implementación de un algoritmo de seguimiento de trayectorias para el minidron Parrot mambo utilizando – Simulink/StateflowTrabajo de grado (Pregrado y/o Especialización)UAVs,RC,Algorithm,Image,Resolution,RGB,coordinatesinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2[1] T. de Swarte, O. Boufous, and P. Escalle, “Artificial intelligence, ethics and human values: the cases of military drones and companion robots,” Artif. Life Robot., vol. 24, no. 3, pp. 291–296, 2019, doi: 10.1007/s10015-019-00525-1.[2] H. Zimmermann, L. Vidiasova, I. Tensina, and C. Lee, Electronic Governance and Open Society: Challenges in Eurasia, vol. 947. 2019.[3] V. Sgurev, V. Piuri, and V. Jotsov, Learning Systems: From Theory to Practice, vol. 756. 2018.[4] “¿QUÉ TIPOS DE DRONES EXISTEN? - areadron.com.” https://www.areadron.com/que-tipos-de-drones-existen/ (accessed Oct. 13, 2020).[5] “Support - Parrot Mambo Fly | Sitio Web Official de Parrot.” https://support.parrot.com/es/support/productos/parrot-mambo-fly (accessed Nov. 02, 2020).[6] B. Demir et al., “Real-time high-resolution omnidirectional imaging platform for drone detection and tracking,” J. Real-Time Image Process., vol. 17, no. 5, pp. 1625– 1635, 2020, doi: 10.1007/s11554-019-00921-7.[7] R. Collins, X. Zhou, and S. K. Teh, “An Open Source Tracking Testbed and Evaluation Web Site,” IEEE Int. Work. Perform. Eval. Track. Surveill., vol. 5, pp. 3769–3772, 2005.[8] Y. G. Han, S. H. Jung, and O. Kwon, “How to utilize vegetation survey using drone image and image analysis software,” J. Ecol. Environ., vol. 41, no. 1, pp. 1–6, 2017, doi: 10.1186/s41610-017-0035-2.[9] J. Fleureau, Q. Galvane, F. L. Tariolle, and P. Guillotel, “Generic drone control platform for autonomous capture of cinema scenes,” DroNet 2016 - Proc. 2nd Work. Micro Aer. Veh. Networks, Syst. Appl. Civ. Use, co-located with MobiSys 2016, pp. 35–40, 2016, doi: 10.1145/2935620.2935622.[10] T. Nageli, J. Alonso-Mora, A. Domahidi, D. Rus, and O. Hilliges, “Real-time motion planning for aerial videography with real-time with dynamic obstacle avoidance and viewpoint optimization,” IEEE Robot. Autom. Lett., vol. 2, no. 3, pp. 1696–1703, 2017, doi: 10.1109/LRA.2017.2665693.instname:Universidad Antonio Nariñoreponame:Repositorio Institucional UANrepourl:https://repositorio.uan.edu.co/