• Repositorio Institucional Universidad de Pamplona
  • Trabajos de pregrado y especialización
  • Facultad de Ingenierías y Arquitectura
  • Ingeniería Electrónica
  • Por favor, use este identificador para citar o enlazar este ítem: http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/5306
    Registro completo de metadatos
    Campo DC Valor Lengua/Idioma
    dc.contributor.authorRodríguez Davila, Fernando.-
    dc.date.accessioned2022-12-13T15:15:04Z-
    dc.date.available2021-03-18-
    dc.date.available2022-12-13T15:15:04Z-
    dc.date.issued2021-
    dc.identifier.citationRodríguez Dávila, F. (2020). Desarrollo de un sistema de visión artificial remoto para la detección de antracnosis o mancha foliar en los cultivos de fresa [Trabajo de Grado Pregrado, Universidad de Pamplona]. Repositorio Hulago Universidad de Pamplona. http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/5306es_CO
    dc.identifier.urihttp://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/5306-
    dc.descriptionPaíses desarrollados han implementado tecnologías innovadoras en el sector agrícola, que le permiten al campesino detectar cuando hay presencia de anomalías en sus cultivos; a diferencia de países en vía de desarrollo como es el caso de Colombia, donde estamos en ese proceso de crecimiento y desarrollo de nuevas tecnologías asequibles al campesino del común o de bajos recursos, que le permitan optimizar la producción de los cultivos, permitiendo la detección de enfermedades por medio de herramientas y procesamientos basados en visión artificial. La visión artificial acompañado de un procesamiento digital de imágenes son los fundamentos principales en este proyecto. Por tanto, el objetivo principal de este trabajo es monitorear sectores previamente definidos que se acoplan a características específicas dentro de los cultivos de fresa, por medio de un drone que posee una cámara RGB se realizan las capturas de imágenes a un sector del cultivo seleccionado que luego pasaran por un preprocesamiento con el fin de adaptarlo al método de inteligencia artificial. Luego de la adaptación de los datos al método de inteligencia artificial se realizará el entrenamiento y por último la clasificación cualitativa de la enfermedad Antracnosis, por consiguiente, se realiza el proceso de validación del resultado del método de inteligencia artificial incluyendo un factor de confusión con el fin de garantizar una eficiencia mayor del 75%. Desde la adquisición de los Datos donde se estableció un plan de vuelo que cumplió con las condiciones previamente definidas, permitió adquirir la elaboración de un algoritmo de preprocesamiento que llevó cabo el recorte de zonas de interés del cultivo de fresa con el fin de extraer las imágenes individuales de los arbustos de fresa. Estas capturas individuales se redimensionaron a un tamaño estándar de 400x400 y con esas alteraciones se creó el set de entrenamiento y validación. Estos fueron proporcionados a una red neuronal convolucional de 4 capas convolucionales y 2 capas densa para su posterior entrenamiento con un numero de épocas de 3 y posteriormente la validación con el set de validación obteniendo un porcentaje del 78.08% superando las expectativas anteriormente mencionadas.es_CO
    dc.description.abstractEl autor no proporciona la información sobre este ítem.es_CO
    dc.format.extent92es_CO
    dc.format.mimetypeapplication/pdfes_CO
    dc.language.isoeses_CO
    dc.publisherUniversidad de Pamplona- Facultad de Ingenierías y Arquitectura.es_CO
    dc.subjectEl autor no proporciona la información sobre este ítem.es_CO
    dc.titleDesarrollo de un sistema de visión artificial remoto para la detección de antracnosis o mancha foliar en los cultivos de fresa.es_CO
    dc.typehttp://purl.org/coar/resource_type/c_7a1fes_CO
    dc.date.accepted2020-12-18-
    dc.relation.referencesJ. B. M. Gaitán, R. L. Ferrucho, and J. G. Á. Herrera, “Efecto de dos cepas de Trichoderma en el control de Botrytis cinerea y la calidad del fruto en fresa (Fragaria sp.),” Rev. Colomb. Ciencias Hortícolas, vol. 8, no. 1, pp. 44–56, 2014, doi: 10.17584/rcch.2014v8i1.2799.es_CO
    dc.relation.referencesM. A. Cano, “Estrategias biológicas para el manejo de enfermedades en el cultivo de fresa (Fragaria spp.),” Rev. Colomb. Ciencias Hortícolas, vol. 7, no. 2, pp. 263– 276, 2014, doi: 10.17584/rcch.2013v7i2.2240.es_CO
    dc.relation.referencesA. Baldovino, “Alternativas orgánicas para el logro de producciones más limpias de la fresa en Pamplona Norte de Santander,” 2018.es_CO
    dc.relation.referencesD. J. L. P. Coto, “MANEJO DE PLAGAS Y ENFERMEDADES EN PRODUCCIÓN ECOLÓGICA.”es_CO
    dc.relation.referencesR. Carmona Angulo, “Fresa,” 2009.es_CO
    dc.relation.referencesCámara de comercio de Bogotá, “Manual de fresa,” pp. 1–54, 2015.es_CO
    dc.relation.referencesG. Giménez, J. Paullier, and D. Maeso, Identificación y manejo de las principales enfermedades y plagas en el cultivo de frutilla, no. 82. 2003.es_CO
    dc.relation.referencesMinisterio de Agricultura, “Subsector productivo de la Fresa.”es_CO
    dc.relation.referencesK. Rane, “Antracnosis De La Rosa,” no. 14, 2004, [Online]. Available: https://ag.purdue.edu/btny/ppdl/Pages/POTW_old/6-14-04.html.es_CO
    dc.relation.referencesL. Urdaneta, M. E. Sanabria, D. Rodríguez, and M. Pérez de Camacaro, “Antracnosis causada por Colletotrichum acutatum Simmonds en frutos de fresa en los estados Lara y Trujillo, Venezuela,” Rev. la Fac. Agron., vol. 30, no. 4, pp. 504–528, 2013es_CO
    dc.relation.referencesC. Central, C. Central, C. Extensi, and S. Agr, “Manual de produccion de fresa,” 2015.es_CO
    dc.relation.referencesL. García, “Drones, el cielo está al alcance de todos,” p. 65, 2017, [Online]. Available: https://www.edubcn.cat/rcs_gene/treballs_recerca/2015-2016-03-1- TR.pdf.es_CO
    dc.relation.referencesDJI, “DJI Matrice 100 Technical Sheet,” vol. 1, p. 78, 2016, [Online]. Available: https://dl.djicdn.com/downloads/dev/Matrice/en/M100_In_the_Box_en_160304.pdfes_CO
    dc.relation.referencesDJI, “Manual Cámara Zenmuse Z3,” 2016.es_CO
    dc.relation.referencesDJI, “Manual de Mavic 2 Pro/Zoom,” pp. 1–68, 2019.es_CO
    dc.relation.referencesD. Conde Ortiz, “Inteligencia artificial con TensorFlow para predicción de comportamientos,” 2018, [Online]. Available: https://idus.us.es/handle/11441/80122#.X0neHv_vQyY.mendeley.es_CO
    dc.relation.referencesG. van R. and F. L. Drake, “Python language,” Python Ref. Manual, vol. PythonLabs, 2001.es_CO
    dc.relation.referencesJ. A. Perez Prieto, “Curso de Python Astronomia,” p. 128, 2018, [Online]. Available: http://www.iac.es/sieinvens/python course/docs/curso_python_astronomia_2018-02.pdf.es_CO
    dc.relation.referencesGoogle, “TensorFlow.” https://www.tensorflow.org/?hl=es-419. (accessed Nov. 28, 2020).es_CO
    dc.relation.referencesKeras, “Keras.” https://keras.io/about/ (accessed Nov. 28, 2020).es_CO
    dc.relation.referencesG. Viera-Maza, “Procesamiento de imágenes usando OpenCV aplicado en Raspberry Pi para la clasificación del cacao,” Thesis, p. 136, 2017, [Online]. Available: https://pirhua.udep.edu.pe/bitstream/handle/11042/2916/IME_218.pdf?sequence= 1&isAllowed=y.es_CO
    dc.relation.referencesC. Platero, “Procesamiento Morfológico,” Madrid Univ., pp. 171–198, 2012, [Online]. Available: http://scholar.google.com/scholar?hl=en&btnG=Search&q=intitle:Procesamiento+ morfol?gico#4.es_CO
    dc.relation.referencesF. J. Nuñez, “Diseño de un sistema de reconocimiento automático de matrículas de vehículos mediante una red neuronal convolucional,” Univ. Oberta Catalunya, p. 53, 2016, [Online]. Available:http://openaccess.uoc.edu/webapps/o2/bitstream/10609/52222/6/fnunezsTFM061 6memòria.pdf.es_CO
    dc.relation.referencesINCyTU, “Inteligencia Artificial Distribuida y Sistemas Multiagentes,” Intel. Artif., vol. 2, no. 6, pp. 1–6, 2018, doi: 10.4114/ia.v2i6.614es_CO
    dc.relation.referencesO. Datatau and O. H. News, “Getting Started with Deep Learning and Python Getting Started with Deep Learning and Python,” pp. 1–21, 2015.es_CO
    dc.relation.referencesP. Ashton, “Getting started: Getting started,” Quick Hits New Fac. Success. Strateg. by Award. Teach., pp. 4–6, 2004.es_CO
    dc.relation.referencesGoogle, “ Developers.” https://developers.google.com/machine learning/guides/text-classification?hl=es-419. (accessed Nov. 28, 2020).es_CO
    dc.relation.referencesG. De Catalunya, “PROYECTO: Aplicación práctica de la visión artificial en el control de procesos industriales.,” 2011es_CO
    dc.relation.referencesA. Moreno, “Clasificación de imágenes usando redes neuronales convolucionales en Python,” p. 80, 2019.es_CO
    dc.relation.referencesP. Constante, A. Gordon, O. Chang, E. Pruna, F. Acuna, and I. Escobar, “Artificial Vision Techniques to Optimize Strawberrys Industrial Classification,” IEEE Lat. Am. Trans., vol. 14, no. 6, pp. 2576–2581, 2016, doi: 10.1109/TLA.2016.7555221.es_CO
    dc.relation.referencesM. Bhange and H. A. Hingoliwala, “Smart Farming: Pomegranate Disease Detection Using Image Processing,” Procedia Comput. Sci., vol. 58, pp. 280–288, 2015, doi: 10.1016/j.procs.2015.08.022.es_CO
    dc.relation.referencesD. I. Patrício and R. Rieder, “Computer vision and artificial intelligence in precision agriculture for grain crops: A systematic review,” Comput. Electron. Agric., vol. 153, no. August, pp. 69–81, 2018, doi: 10.1016/j.compag.2018.08.001es_CO
    dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2es_CO
    dc.type.coarversionhttp://purl.org/coar/resource_type/c_2df8fbb1es_CO
    Aparece en las colecciones: Ingeniería Electrónica

    Ficheros en este ítem:
    Fichero Descripción Tamaño Formato  
    Rodríguez_2020_TG.pdfRodríguez_2020_TG3,02 MBAdobe PDFVisualizar/Abrir


    Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.