• Repositorio Institucional Universidad de Pamplona
  • Trabajos de pregrado y especialización
  • Facultad de Ingenierías y Arquitectura
  • Ingeniería Electrónica
  • Por favor, use este identificador para citar o enlazar este ítem: http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/5316
    Registro completo de metadatos
    Campo DC Valor Lengua/Idioma
    dc.contributor.authorAlvarez Acosta, Omar Esneider.-
    dc.date.accessioned2022-12-13T20:25:50Z-
    dc.date.available2021-03-18-
    dc.date.available2022-12-13T20:25:50Z-
    dc.date.issued2021-
    dc.identifier.citationÁlvarez Acosta, O. E. (2020). Desarrollo de un sistema de visión artificial para la detección de hongos en plantas de cannabis medicinal mediante redes neuronales en ambientes controlados [Trabajo de Grado Pregrado, Universidad de Pamplona]. Repositorio Hulago Universidad de Pamplona. http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/5316es_CO
    dc.identifier.urihttp://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/5316-
    dc.descriptionEste proyecto está enfocado en implementar un sistema de visión artificial automático, para detectar tres clases de hongos como son el oídio, mildiu y la roya ya que son los más frecuentes en esta clase de cultivos, mediante una cámara instalada dentro de un invernadero, previamente construido, capturará imágenes en tiempo real de los cambios que se presentan en las hojas, estos pueden ser tipo: cambio de color, cambio de forma o imperfecciones dependiendo la clase del hongo. El sistema se desarrollará mediante 4 fases principales las cuales son: adecuación del sitio de desarrollo, adquisición de datos, procesamiento de imágenes y reconocimiento de patrones. En la adecuación del sitio de desarrollo se llevará a cabo la construcción de un ambiente controlado que cumplirá con los estándares básicos que permitan garantizar el ambiente para el cultivo, ya que es una planta que requiere cuidado, en este ambiente se podrán visualizar la humedad y la temperatura parámetros claves para su crecimiento y desarrollo. En la fase de adquisición de datos se recolectará información fotográfica de las distintas clases de hongos que puede padecer la planta, entre ellos: oídios, mildiu y roya entre otros, esta base de datos se obtendrá partir de consultas bibliográficas y de páginas web la cual pretende contribuir al posterior entrenamiento de las diferentes redes neuronales a utilizar. Una vez determinada la base de datos con las imágenes de los hongos se procede a realizar la fase 3, que consiste en el procesamiento de estas, donde se extraerán los patrones que correspondan a características específicas relacionadas con cada enfermedad y plaga todo esto se realizara por medio de un ordenador de placa reducida conocido como raspberry pi. Por último, se pondrá en marcha la fase 4 la cual, básicamente consiste en la utilización de una cámara (raspicam) instalada en invernadero que realizará un recorrido por el cultivo, el objetivo es reconocer patrones que identifique la presencia de algún imperfecto presente en el cultivo, al detectar alguna anomalía enviara un mensaje de texto automáticamente al estudiante mediante un módulo sim808 reportando así la presencia del hongo y enviara su posición actual.es_CO
    dc.description.abstractThis project is focused on implementing an automatic artificial vision system to detect three types of fungi such as powdery mildew, mildew and rust as they are the most common in this class of crops, using a camera installed inside a greenhouse, previously built, capture images in real time of the changes that occur in the leaves, these can be type: change of color, change of shape or imperfections depending on the class of fungus. The system will be developed through 4 main phases which are: adaptation of the development site, data acquisition, image processing and pattern recognition. In the adequacy of the development site will be carried out the construction of a controlled environment that will meet the basic standards to ensure the environment for cultivation, as it is a plant that requires care, in this environment you can visualize the humidity and temperature key parameters for growth and development. In the data acquisition phase, photographic information will be collected on the different types of fungi that the plant may suffer, among them: oidium, botrytis, rust, Pythium, Fusarium, among others. This database will be obtained from bibliographic consultations and web pages, which will contribute to the subsequent training of the different neuronal networks to be used. Once the database with the images of the fungi is determined, we proceed to phase 3, which consists in the processing of these, where the patterns that correspond to specific characteristics related to each disease and pest will be extracted. All this will be done by means of a computer with a reduced plate known as raspberry pi. Finally, phase 4 will be started, which basically consists on the use of a camera (raspicam) installed in the mini-greenhouse that will make a tour through the crop. The objective is to recognize patterns that identify the presence of some imperfect present in the crop, when detecting some anomaly it will send a text message automatically to the student through a sim808 module reporting the presence of the fungus and sending its current position.es_CO
    dc.format.extent102es_CO
    dc.format.mimetypeapplication/pdfes_CO
    dc.language.isoeses_CO
    dc.publisherUniversidad de Pamplona- Facultad de Ingenierías y Arquitectura.es_CO
    dc.subjectVisión artificial.es_CO
    dc.subjectHongos.es_CO
    dc.subjectCannabis medicinal.es_CO
    dc.subjectRedes neuronales.es_CO
    dc.subjectPython.es_CO
    dc.titleDesarrollo de un sistema de visión artificial para la detección de hongos en plantas de cannabis medicinal mediante redes neuronales en ambientes controlados.es_CO
    dc.typehttp://purl.org/coar/resource_type/c_7a1fes_CO
    dc.date.accepted2020-12-18-
    dc.relation.referencesC.-T. Wang et al., “Ambient measurements of monoterpenes near Cannabis cultivation facilities in Denver, Colorado,” Atmos. Environ., vol. 232, p. 117510, 2020, doi: https://doi.org/10.1016/j.atmosenv.2020.117510.es_CO
    dc.relation.referencesG. R. Potter et al., “Global patterns of domestic cannabis cultivation: Sample characteristics and patterns of growing across eleven countries,” Int. J. Drug Policy, vol. 26, no. 3, pp. 226–237, 2015, doi: https://doi.org/10.1016/j.drugpo.2014.12.007.es_CO
    dc.relation.referencesG. Green, “The Cannabis Grow Bible,” J. Chem. Inf. Model., vol. 53, no. 9, pp. 1689–1699, 2013.es_CO
    dc.relation.referencesM. Integrado, “Mildiu en cebolla.”es_CO
    dc.relation.referencesS. Takamatsu, S. Limkaisang, S. Kom-un, A. Bolay, and C. To-anun, “Identity of a powdery mildew fungus occurring on Paeonia and its relationship with Erysiphe hypophylla on oak,” Mycoscience, vol. 47, no. 6, pp. 367–373, 2006, doi: https://doi.org/10.1007/S10267-006-0317-5.es_CO
    dc.relation.referencesU. E. Junta de Andalucía, “Roya (Puccinia spp.),” Red alerta e Inf. Fitosanit. Cons. Agric. y pesca., pp. 1–4, 2010.es_CO
    dc.relation.referencesH. vastatrix Berk, B. Actualizado aumentado por, and I. Miguel Barquero Miranda, Instituto Del Cafe De Costa Rica Recomendaciones Para El Combate De La Roya Del Cafeto. 2013.es_CO
    dc.relation.referencesN. Muthukrishnan, F. Maleki, and K. Ovens, “B r i e f H i s t o r y of A r t i f i c i a l Intelligence,” p. 5821.es_CO
    dc.relation.referencesE. Anderson, Inteligencia artificial y sistemas expertos, no. 26. 1996.es_CO
    dc.relation.referencesP. Suresh Kumar, H. S. Behera, A. K. K, J. Nayak, and B. Naik, “Advancement from neural networks to deep learning in software effort estimation: Perspective of two decades,” Comput. Sci. Rev., vol. 38, p. 100288, 2020, doi: https://doi.org/10.1016/j.cosrev.2020.100288.es_CO
    dc.relation.referencesAhmed Fawzy Gad, Practical Computer Vision Applications Using Deep Learning with CNNs: With Detailed Examples in Python Using TensorFlow and Kivy. 2018.es_CO
    dc.relation.referencesA. E. Gaona Barrera and D. M. Ballesteros Larrotta, “Selección eficiente de arquitecturas neuronales empleando técnicas destructivas y de regularización,” Rev. Tecnura, vol. 16, no. 33, p. 158, 2012, doi: 10.14483/udistrital.jour.tecnura.2012.3.a11.es_CO
    dc.relation.referencesC. Peñafiel and R. Ávila, “Inteligencia Artificial,” Intel. Artif., vol. 2, no. 6, pp. 1–33, 2007, doi: 10.13140/2.1.3720.0960es_CO
    dc.relation.referencesM. McLoughlin, “Synoptic pericope order,” Ephemer. Theol. Lovan., vol. 85, no. 1, pp. 71– 97, 2009, doi: 10.2143/ETL.85.1.2040696.es_CO
    dc.relation.references“Procesamiento digital de imágenes,” Perfiles Educ., no. 72, 1996es_CO
    dc.relation.referencesM. Biasoni, “Métodos de umbralización de imágenes digitales basados en entropia de shannon y otros,” vol. XXX, pp. 1–4, 2011.es_CO
    dc.relation.referencesL. S. B. A. & Wolfman, “済無No Title No Title,” J. Chem. Inf. Model., vol. 53, no. 9, pp. 1689–1699, 2013, doi: 10.1017/CBO9781107415324.004.es_CO
    dc.relation.referencesJ. A. Taquía-Gutiérrez, “El procesamiento de imágenes y su potencial aplicación en empresas con estrategia digital,” Interfases, vol. 0, no. 010, p. 11, 2017, doi: 10.26439/interfases2017.n10.1767.es_CO
    dc.relation.referencesG. Viera-Maza, “Procesamiento de imágenes usando OpenCV aplicado en Raspberry Pi para la clasificación del cacao,” Thesis, p. 136, 2017, [Online]. Available: https://pirhua.udep.edu.pe/bitstream/handle/11042/2916/IME_218.pdf?sequence=1& isAllowed=y.es_CO
    dc.relation.referencesR. Magro, “Binarización de imágenes digitales y su algoritmia como herramienta aplicada a la ilustración entomológica,” Boletín la SEA, vol. 53, no. 53, pp. 443–464, 2013.es_CO
    dc.relation.referencesB. R. Soc, E. Hist, and N. Sec, “pr en s a En En pr en En en pr sa,” vol. 00, pp. 1–14, 2012es_CO
    dc.relation.referencesJ. A. Taquía-Gutiérrez, “Técnicas de procesamiento digital de imágenes y reconocimiento de patrones,” pp. 11–17, 2017, [Online]. Available: http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/nieto_b_d/capitulo2.pdf.es_CO
    dc.relation.referencesE. Básica et al., “REDES NEURONALES ARTIFICIALES- Xabier Bosogain Olabe.pdf,” [Online]. Available: http://cvb.ehu.es/open_course_ware/castellano/tecnicas/redes_neuro/contenidos/pdf /libro-del-curso.pdf.es_CO
    dc.relation.referencesÓ. Picazo Montoya, “Redes Neuronales Convolucionales Profundas para el reconocimiento de emociones en imágenes,” p. 45, 2018, [Online]. Available: http://oa.upm.es/51441/%0Ahttp://oa.upm.es/51441/1/TFM_OSCAR_PICAZO_MONTO YA.pdfes_CO
    dc.relation.referencesJ. Sebastian and G. Prieto, “Redes neuronales convolucionales y redes neuronales recurrentes en la transcripción automática,” no. July, 2019, doi: 10.13140/RG.2.2.10855.39843.es_CO
    dc.relation.referencesT. F. De Grado, “Aplicación de percepción mejorada para personas con problemas visuales usando deep learning y dispositivos vestibles,” 2020.es_CO
    dc.relation.referencesR. P. Sanchez, “Reconocimiento de imágenes mediante Raspberry Pi,” p. 91, 2016, [Online]. Available: https://www.semanticscholar.org/paper/Deep-Learning-para reconocimiento-de-imágenes-en-Pi Vlaeminch/10f5f265496d32dd1ae52c846497378792a681c2#paper-headees_CO
    dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2es_CO
    dc.type.coarversionhttp://purl.org/coar/resource_type/c_2df8fbb1es_CO
    Aparece en las colecciones: Ingeniería Electrónica

    Ficheros en este ítem:
    Fichero Descripción Tamaño Formato  
    Álvarez_2020_TG.pdfÁlvarez_2020_TG3,85 MBAdobe PDFVisualizar/Abrir


    Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.