• Repositorio Institucional Universidad de Pamplona
  • Trabajos de pregrado y especialización
  • Facultad de Ingenierías y Arquitectura
  • Ingeniería Mecatrónica
  • Por favor, use este identificador para citar o enlazar este ítem: http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/4476
    Registro completo de metadatos
    Campo DC Valor Lengua/Idioma
    dc.contributor.authorRopero Delgado, Jhan Carlos.-
    dc.date.accessioned2022-11-16T15:16:44Z-
    dc.date.available2021-10-06-
    dc.date.available2022-11-16T15:16:44Z-
    dc.date.issued2022-
    dc.identifier.citationRopero Delgado, J. C. (2021). Implementación de un sistema de control remoto para la inspección de un proceso inmótico sobre un sistema embebido a través de internet para la contingencia del COVID 19 [Trabajo de Grado Pregrado, Universidad de Pamplona]. Repositorio Hulago Universidad de Pamplona. http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/4476es_CO
    dc.identifier.urihttp://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/4476-
    dc.descriptionEn este documento se presenta el desarrollo de un sistema inmótico para el control de accesos a un recinto; este control se realiza remotamente a través de internet. El proyecto recorrió varias fases, inicialmente se realiza un estudio del estado del arte para identificar los tipos de sistemas inmóticos que hay en la actualidad y disponer de la alternativa más adecuada con el propósito de cumplir con los objetivos estipulados. Posteriormente, se estudió el funcionamiento de técnicas de visión artificial, métodos y equipos utilizados para la implementación. Un sistema de visión artificial y una base de datos específica de imágenes (data sets), se emplean para desarrollar un código de programación para el reconocimiento facial que identifique el uso de tapabocas en individuos que se acerquen al lugar. Seguidamente se crea la red inmótica, la cual, enlazará inalámbricamente todos los puntos que formen parte del sistema ordenando los parámetros de comunicación y configuración. Resaltando los elementos fundamentales para la creación de esta red inalámbrica se usará una placa Raspberry Pi; para el avance del sistema de control implicó, además, el diseño y construcción de un punto o nodo de control de red y otro del servidor de dicha placa, de tal manera que se pueda conectar y controlar los elementos del recinto; tales como: cámara, motor, luz ultravioleta. Además, se desarrolló un tablero de control eléctrico con salidas de voltajes estándares para el funcionamiento de los elementos finales de control cómo motores eléctricos y la luz ultravioleta. Una aplicación web (Interfaz) en REACT (Biblioteca de JavaScript Software Libre) es creada para que el usuario acceder al sistema y pueda controlar, permitiendo la interacción entre cada uno de los dispositivos que contemplen el proceso. Para finalizar, se evaluará el sistema de control verificando el funcionamiento y el cumplimiento de los objetivos anteriormente descritos.es_CO
    dc.description.abstractThe project went through several phases. Initially, a study of state of the art is carried out to identify the types of inmotic systems currently existing and have the most appropriate alternative to meet the stipulated objectives. Subsequently, the operation of artificial vision techniques, methods, and equipment used for implementation were studied. An artificial vision system and a specific database of images (data sets) are used to develop a programming code for facial recognition that identifies masks in individuals who approach the place. Next, the inmotic network is created, which will wirelessly link all the system points, ordering the communication and configuration parameters—highlighting the fundamental elements for creating this wireless network; a Raspberry Pi board will be used. In the control system development, it was necessary to design and build a network control point or node and another for the server on said board so that the enclosure elements such as camera, motor, and ultraviolet light can be connected and controlled. In addition, an electrical control board with standard voltage outputs was developed for the operation of the aforementioned final control elements. A web application (Interface) in REACT (Free Software JavaScript Library) is created to access the system and control it, allowing interaction between each of the devices that contemplate the process. Finally, the control system will be evaluated, verifying the operation and compliance with the objectives described above.es_CO
    dc.format.extent110es_CO
    dc.format.mimetypeapplication/pdfes_CO
    dc.language.isoeses_CO
    dc.publisherUniversidad de Pamplona- Facultad de Ingenierías y Arquitectura.es_CO
    dc.subjectInmótica.es_CO
    dc.subjectSistema de control.es_CO
    dc.subjectSistema Embebido.es_CO
    dc.subjectVisión artificial.es_CO
    dc.subjectAplicación WEB.es_CO
    dc.titleImplementación de un sistema de control remoto para la inspección de un proceso inmótico sobre un sistema embebido a través de internet para la contingencia del COVID 19.es_CO
    dc.typehttp://purl.org/coar/resource_type/c_7a1fes_CO
    dc.date.accepted2021-07-06-
    dc.relation.referencesJ. Gutiérrez. “la inmótica como garantía de una infraestructura eficiente, dínamo técnica: revista gallega de energía”, 2015.es_CO
    dc.relation.referencesM. Zastrow. J. H. Tanne, E. Hayasaki. Covid-19: How doctors and healthcare systems aretackling coronavirus worldwide. marzo, 2020.es_CO
    dc.relation.referencesWorld Health Organization. Who coronavirus disease (covid-19) situation report-114. 2020.es_CO
    dc.relation.referencesN. Fernandes. Economic effects of coronavirus outbreak ( covid-19 ) on the world economy nuno fernandes full professor of finance iese business school spain. 2020es_CO
    dc.relation.referencesSomolinos Sanchez. “avances en robótica y visión por computador/coordinador”, 2002, .es_CO
    dc.relation.referencesP. Castro. Sistema embebido para la supervisión y adquisición de datos de un control inmótico. 2016.es_CO
    dc.relation.referencesMinisterio de Salud. Medida frente a la pandemia covid 19, 2021es_CO
    dc.relation.referencesP. J. Phillips y A. Rosenfeld W. Zhao, R. Chellappa. Face recognition: A literature survey. acm computing surveys, vol. 35, nº 4, pp. 399-458, 2003.es_CO
    dc.relation.referencesJ. Agudelo. Tecnicas de biometria basadas en patrones faciales del ser humano, 2012.es_CO
    dc.relation.referencesB. Pérez. Reconocimiento facial basado en puntos característicos de la cara en entornos no controlados, madrid: Universidad autónoma de madrid, 2013.es_CO
    dc.relation.referencesV. Janga. et al. Advanced machine learning-based implementation patterns for computer vision and real-time multimedia applications. 2020., .es_CO
    dc.relation.referencesM. Momeny. A noise robust convolutional neural network for image classification, 2021.es_CO
    dc.relation.referencesV. Villacampa. Diseño y montaje de un sistema inmótico para una infraestructura laboral. 2007.es_CO
    dc.relation.referencesM. Lledó. Diseño de un sistema de control domótico basado en la plataformaarduino. 2012.es_CO
    dc.relation.referencesBarrera. Digital life. 2013.es_CO
    dc.relation.referencesSystems International. Análisis y diseño de un prototipo de sistema domótico de bajo costo. 2012.es_CO
    dc.relation.referencesR. Gimeno and J. Ramos. Estudio de técnicas de reconocimiento de patrones, barcelona: Universidad politécnica de catalunya, 2010.es_CO
    dc.relation.referencesK. Delac, M. Grgic, and P. Liatsis. Appearance-based statistical methods for face recognition. 2013.es_CO
    dc.relation.referencesMiranda. Facilidades de los sistemas embebidos. 2014.es_CO
    dc.relation.referencesE. Cerezo. S. Baldassarri. et al. Agentes virtuales 3d para el control de entornos inteligentes domóticos. inxiii congreso internacional de interacción persona-ordenador(pp. 363-372). 2018, .es_CO
    dc.relation.referencesR. Gonzalez; R. Woods. Digital image processing, second edition. editorial prentice-hall, 2002.es_CO
    dc.relation.referencesJ. Cancelas. Introducción a la visión por computador, standard, en 100-732, 2010.es_CO
    dc.relation.referencesR. Pinto y J. Sossa. Detección de rostros utilizando descriptores invariantes y algoritmos genéticos, universidad del valle, méxico, pp. 32-41,2013.es_CO
    dc.relation.referencesEtitudela. Componentes de un sistema de visión artificial. 2017.es_CO
    dc.relation.referencesJ. Sanchez. Avances en la robotica y vision por computadora, casilla: Universidad casilla de la mancha, 2002.,es_CO
    dc.relation.referencesY. Molly and William F. An overview of artificial intelligence in education. 2014.es_CO
    dc.relation.referencesG. Tecuci. Artificial intelligence. 2012.es_CO
    dc.relation.referencesS. Shwartz and B. Shai. Understanding machine learning: From theory to algorithms. 2013.es_CO
    dc.relation.referencesC. Villani. What is artificial intelligence. 2018.es_CO
    dc.relation.referencesJ. Matich. Redes neuronales: Conceptos básicos y aplicaciones. 2001.es_CO
    dc.relation.referencesB. Caicedo y J. Lopez. Redes neuronales artificiales. 2010.es_CO
    dc.relation.referencesF. Izaurieta. Redes neuronales artificiales. 1999es_CO
    dc.relation.referencesL. Pigou and D. Sander. Sign language recognition using convolutional neural networks. 2015.es_CO
    dc.relation.referencesE. Varela y E. Campbells. Redes neuronales artificiales: Una revisión del estado del arte, aplicaciones y tendencias futuras. 2011.es_CO
    dc.relation.referencesM. Campos. Inspiración biológica de las redes neuronales artificiales. 2020.es_CO
    dc.relation.referencesE. Rivera. Introduccion a redes neuronales artificiales. 2007.es_CO
    dc.relation.referencesS. Albawi. Understanding of a convolutional neural network. 2018.es_CO
    dc.relation.referencesR. Yamashita. Convolutional neural networks: an overview and application in radiology. 2018.es_CO
    dc.relation.referencesI. Namatevs. Deep convolutional neural networks: Structure, feature extraction and training. 2018.es_CO
    dc.relation.referencesS. Sakib2018. An overview of convolutional neural network: Its architecture and applications. 2018.es_CO
    dc.relation.referencesA. Howard. Mobilenets: Efficient convolutional neural networks for mobile vision applications. 2017.es_CO
    dc.relation.referencesE. Redmon. Pinel et esquirol: Quelques commentaires sur les debuts d’une amitie. 1976.es_CO
    dc.relation.referencesJ. P. Marques de Sá. Pattern recognition. concepts, methods and applications, oporto, portugal: Springer, 2001.es_CO
    dc.relation.referencesUniversidad Politécnica de Madrid UPM-DISAM. Reconocimiento de patrones dpto. automática, ingeniería electrónica e informática industrial. 2019.es_CO
    dc.relation.referencesR. C. Gonzalez y R. E. Woods. Digital image processing, ney jersey: Pearson pretince hall, 2008.es_CO
    dc.relation.referencesP. E. Hart y D. G. Stork R. O. Duda. Pattern clasification, a wiley international publication, 2001es_CO
    dc.relation.referencesGordon. Diseño e implementación de un sistema embebido denominado raspberry pi. 2011.es_CO
    dc.relation.referencesI. Goodfellow. Deep learning, (adaptive computation and machine learning series). 2015.es_CO
    dc.relation.referencesDimitry. Image recognition with k210 boards and arduino ide micropython. 2015.es_CO
    dc.relation.referencesKaggle. Challenges in representation learning: Facial expression recognition challenge. 2019.es_CO
    dc.relation.referencesR. López y E. Sotter. Operación automática eléctrica y de control, laboratorio de robótica y producción automática. universidad del norte. 2014.es_CO
    dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2es_CO
    dc.type.coarversionhttp://purl.org/coar/resource_type/c_2df8fbb1es_CO
    Aparece en las colecciones: Ingeniería Mecatrónica

    Ficheros en este ítem:
    Fichero Descripción Tamaño Formato  
    Ropero_2021_TG.pdfRopero_2021_TG5,45 MBAdobe PDFVisualizar/Abrir


    Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.