• Repositorio Institucional Universidad de Pamplona
  • Trabajos de pregrado y especialización
  • Facultad de Ingenierías y Arquitectura
  • Ingeniería Mecatrónica
  • Por favor, use este identificador para citar o enlazar este ítem: http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/4347
    Registro completo de metadatos
    Campo DC Valor Lengua/Idioma
    dc.contributor.authorCaballero Quintero, Jasyd David.-
    dc.date.accessioned2022-11-11T13:18:05Z-
    dc.date.available2021-03-16-
    dc.date.available2022-11-11T13:18:05Z-
    dc.date.issued2021-
    dc.identifier.citationCaballero Quintero, J. D. (2020). Dispositivo de sustitución sensorial para la mejora de la interacción social de personas con discapacidad visual [Trabajo de Grado Pregrado, Universidad de Pamplona]. Repositorio Hulago Universidad de Pamplona. http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/4347es_CO
    dc.identifier.urihttp://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/4347-
    dc.descriptionLa inclusión de las personas con discapacidad visual en tareas cotidianas, ha sido impulsada por distintos desarrollos tecnológicos, aumentando la independencia de es tos individuos. Con el desarrollo de este proyecto se impulsó aún más dicha inclusión, dotando a los usuarios con la capacidad de identificar expresiones faciales en una con versación, aumentando su confianza al momento de formular una respuesta, ya que tendrán en cuenta esta información adicional, siendo que el lenguaje corporal represen ta un gran porcentaje en las interacciones sociales. El prototipo consta de unas gafas que estarán dotadas de una cámara en el frente, un auricular en el lado izquierdo y una mini-computadora para realizar todo el procesamiento requerido. Las imágenes son to madas por la cámara en condiciones apropiadas de luz, analizadas con redes neuronales convolucionales (CNN) para detectar la posición del rostro y estimar las expresiones faciales provenientes del interlocutor, a partir de la emoción detectada se realiza la retroalimentación sonora al auricular con una pista de audio que le permita al usuario conocer esta información adicional en su conversación.es_CO
    dc.description.abstractThe inclusion of people with visual disability in daily tasks, has been boosted with some technologic developments, increasing the independency od these individuals. With the development of this proyect, the inclusion has been boosted more, endowing the users with the ability to identify facial expressions in a conversation, giving more con fidence at the moment of giving an answer, having this additional information in con sideration, since the body language represents a whole porcentage in social interaction. The prototype consists in a pair of glasses, with a camera in the front, a headphone in the left side and a tiny computer that is responsible of doing all the required processing. The pictures are took with the camera in appropriate light conditions, analyzed with convolutional neural networks (CNN) to detect the position of a face and estimate the facial expresions from the interlocutor. Depending on the detected emotion, the audio feedback is realized with an audio track, allowing the user to know this additional information in his conversation.es_CO
    dc.format.extent76es_CO
    dc.format.mimetypeapplication/pdfes_CO
    dc.language.isoeses_CO
    dc.publisherUniversidad de Pamplona- Facultad de Ingenierías y Arquitectura.es_CO
    dc.subjectDiscapacidad visual.es_CO
    dc.subjectDispositivo de sustitución sensorial.es_CO
    dc.subjectVisión artificial.es_CO
    dc.subjectRealimentación acústica o sonora.es_CO
    dc.subjectInteracción social.es_CO
    dc.subjectExpresiones faciales.es_CO
    dc.subjectRedes neuronales convolucionales.es_CO
    dc.titleDispositivo de sustitución sensorial para la mejora de la interacción social de personas con discapacidad visual.es_CO
    dc.typehttp://purl.org/coar/resource_type/c_7a1fes_CO
    dc.date.accepted2020-12-16-
    dc.relation.referencesMaría Arias. Autor: María Elisa Arias Roura. pages 1–70, 2010. URL http: //dspace.ucuenca.edu.ec/bitstream/123456789/2835/1/te4148.pdf.es_CO
    dc.relation.referencesSuárez Escudero and Juan Camilo. Discapacidad visual y ceguera en el adulto: revisión de tema. Medicina U.P.B., 30(2):170–180, 2011. ISSN 0120-4874.es_CO
    dc.relation.referencesJavier Checa, Benito Pura, Díaz Veiga, Rafael Pallero González, Almudena Ca cho González, Carmen Calvo, Novell Javier, Checa Benito, Miguel Díaz, Salabert Pura, Jorge Luis González Fernández, Luis González, García José, Luis González Sánchez, Rafael Pallero González María, Victoria Puig, Samaniego María, Victoria Quílez, and García Coordinación. Psicología y ceguera: Manual para la interven ción psicológica en el ajuste a la discapacidad visual. 2003. ISBN 8448401239.es_CO
    dc.relation.referencesBruno Liesen. El braille: origen, aceptación y difusión. pages 5–35, 01 2002.es_CO
    dc.relation.referencesYuhang Zhao, Elizabeth Kupferstein, Hathaitorn Rojnirun, Leah Findlater, and Shiri Azenkot. The Effectiveness of Visual and Audio Wayfinding Guidance on Smartglasses for People with Low Vision. Conference on Human Factors in Com puting Systems - Proceedings, (February), 2020. doi: 10.1145/3313831.337es_CO
    dc.relation.referencesMichele A. Williams, Amy Hurst, and Shaun K. Kane. ”Pray before you step out”: Describing personal and situational blind navigation behaviors. Proceedings of the 15th International ACM SIGACCESS Conference on Computers and Accessibility, ASSETS 2013, 2013. doi: 10.1145/2513383.2513449.es_CO
    dc.relation.referencesRita M. Párra. Realidad De Las Personas Con Discapacidad Visual Y Escola ridad Inconclusa En “San Pablo” De Manta Y Propuesta De Guía De Estra tegias Metodológicas Para Potenciar El Aprendizaje De Lectoescritura. page 144, 2015. URL https://dspace.ups.edu.ec/bitstream/123456789/10032/1/ UPS-GT000857.pdf.es_CO
    dc.relation.referencesNorshidah Mohamad Salleh and Khalim Zainal. How and why the visually impai red students socially behave the way they do. Procedia - Social and Behavioral Sciences, 9:859–863, 2010. ISSN 18770428. doi: 10.1016/j.sbspro.2010.12.249. URL http://dx.doi.org/10.1016/j.sbspro.2010.12.249.es_CO
    dc.relation.referencesC. Ferrari, T. Vecchi, L. B. Merabet, and Z. Cattaneo. Blindness and social trust: The effect of early visual deprivation on judgments of trustworthiness. Cons ciousness and Cognition, 55(September):156–164, 2017. ISSN 10902376. doi: 10.1016/j.concog.2017.08.005.es_CO
    dc.relation.referencesSungman Park, Yeongtae Jung, and Joonbum Bae. An interactive and intuitive control interface for a tele-operated robot (AVATAR) system. Mechatronics, 55 (August):54–62, 2018. ISSN 09574158. doi: 10.1016/j.mechatronics.2018.08.011. URL https://doi.org/10.1016/j.mechatronics.2018.08.011.es_CO
    dc.relation.referencesÁrni Kristjánsson, Alin Moldoveanu, Ómar I. Jóhannesson, Oana Balan, Simone Spagnol, Vigdís Vala Valgeirsdóttir, and Rúnar Unnthorsson. Designing sensory substitution devices: Principles, pitfalls and potential 1. Restorative Neurology and Neuroscience, 34(5):769–787, 2016. ISSN 18783627. doi: 10.3233/RNN-160647.es_CO
    dc.relation.referencesT. Ifukube, T. Sasaki, and C. Peng. A blind mobility aid modeled after echoloca tion of bats. IEEE Transactions on Biomedical Engineering, 38(5):461–465, 1991. doi: 10.1109/10.81565.es_CO
    dc.relation.referencesRoberta Klatzky, Dinesh Pai, and Eric Krotkov. Perception of material from contact sounds. Presence: Teleoperators and Virtual Environment, 9:399–410, 04 2000. doi: 10.1162/105474600566907.es_CO
    dc.relation.referencesAleksander Väljamäe and Mendel Kleiner. Spatial sound in auditory vision subs titution systems. volume 1, 05 2006es_CO
    dc.relation.referencesMolly Y. Zhou and William F. Lawless. An Overview of Artificial Intelligence in Education. Encyclopedia of Information Science and Technology, Third Edition, (1):2445–2452, 2014. doi: 10.4018/978-1-4666-5888-2.ch237.es_CO
    dc.relation.referencesGheorghe Tecuci. Artificial intelligence. Wiley Interdisciplinary Reviews: Compu tational Statistics, 4(2):168–180, 2012. ISSN 19395108. doi: 10.1002/wics.es_CO
    dc.relation.referencesShai Shalev-Shwartz and Shai Ben-David. Understanding machine learning: From theory to algorithms, volume 9781107057135. 2013. ISBN 9781107298019. doi: 10.1017/CBO9781107298019.es_CO
    dc.relation.referencesVillani C. WHAT IS ARTIFICIAL INTELLIGENCE? Villani mission on artificial intelligence. (March), 2018.es_CO
    dc.relation.referencesDamián Jorge Matich. Redes Neuronales: Conceptos Básicos y Aplicaciones. Historia, page 55, 2001. URL ftp://decsai.ugr.es/pub/usuarios/castro/ Material-Redes-Neuronales/Libros/matich-redesneuronales.pdf.es_CO
    dc.relation.referencesBravo Caicedo and Jesús Lopez. Redes Neuronales Artificiales. 2010. ISBN 970- 15-0571-9. doi: 10.1016/S0210-5691(05)74198-X.es_CO
    dc.relation.referencesFernando Izaurieta and Carlos Saavedra. Redes Neuronales Artificiales. Charlas de fisica, pages 1–15, 1999. ISSN 02105691. doi: 10.1016/S0210-5691(05)74198-X.es_CO
    dc.relation.referencesLionel Pigou, Sander Dieleman, Pieter Jan Kindermans, and Benjamin Schrauwen. Sign language recognition using convolutional neural networks. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 8925:572–578, 2015. ISSN 16113349. doi: 10.1007/978-3-319-16178-5_40.es_CO
    dc.relation.referencesErnesto Varela and Edwin Campbells. Redes Neuronales Artificiales: Una Revisión del Estado del Arte, Aplicaciones y Tendencias Futuras. Investigación y Desarrollo en TIC, 2(1):18–27, 2011. URL http://publicaciones.unisimonbolivar.edu. co/rdigital/inovacioning/index.php/identic/article/viewFile/21/29.es_CO
    dc.relation.referencesMario Campos. Inspiraciffn biolffgica de las redes neuronales artificia les, 2020. URL https://medium.com/soldai/inspiraci%C3%B3n-biol%C3% B3gica-de-las-redes-neuronales-artificiales-9af7d7b906a.es_CO
    dc.relation.referencesEduardo Rivera. Introduccion a redes neuronales artifi ciales, 2007. URL file:///C:/Users/Juan/Downloads/4. Introduccionaredesneuronalesartificiales(1).pdf.es_CO
    dc.relation.referencesSaad Albawi, Tareq Abed Mohammed, and Saad Al-Zawi. Understanding of a convolutional neural network. Proceedings of 2017 International Conference on Engineering and Technology, ICET 2017, 2018-January(April 2018):1–6, 2018. doi: 10.1109/ICEngTechnol.2017.8308186.es_CO
    dc.relation.referencesRikiya Yamashita, Mizuho Nishio, Richard Kinh Gian Do, and Kaori Togashi. Convolutional neural networks: an overview and application in radiology. Insights into Imaging, 9(4):611–629, 2018. ISSN 18694101. doi: 10.1007/s13244-018-0639-9.es_CO
    dc.relation.referencesIvars Namatēvs. Deep Convolutional Neural Networks: Structure, Feature Ex traction and Training. Information Technology and Management Science, 20(1): 40–47, 2018. ISSN 2255-9094. doi: 10.1515/itms-2017-0007.es_CO
    dc.relation.referencesShadman Sakib, Ahmed, Ahmed Jawad, Jawad Kabir, and Hridon Ahmed. An Overview of Convolutional Neural Network: Its Architecture and Applications. ResearchGate, (November), 2018. doi: 10.20944/preprints201811.0546.v1. URL https://www.researchgate.net/publication/329220700.es_CO
    dc.relation.referencesAndrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, and Hartwig Adam. MobileNets: Effi cient convolutional neural networks for mobile vision applications. arXiv, 2017es_CO
    dc.relation.referencesE. Redmon. Pinel Et Esquirol: Quelques Commentaires Sur Les Debuts D’Une Amitie. Annales Medico-Psychologiques, 134 II(1):59–61, 1976. ISSN 00034487.es_CO
    dc.relation.referencesSeeed. Sipeed m1n module ai development kit based on k210 (risc v). url https://www.seeedstudio.com/Sipeed-M1n-Module-AI-Development-Kit based-on-K210-p-4491.html.es_CO
    dc.relation.referencesSipeed. Maixpy wiki. url https://maixpy.sipeed.com/en/.es_CO
    dc.relation.referencesElaine Wu. Get started with k210: Hardware and programming environ ment. url https://www.seeedstudio.com/blog/2019/09/12/get-started-with-k210- hardware-and-programming-environment/.es_CO
    dc.relation.referencesDFRobot. Dfr0299 dfplayer mini. url https://wiki.dfrobot.com/DFPlayerMiniSKUDF R0299.es_CO
    dc.relation.referencesDidacticasElectrónicas. Convertidor dc/dc pololu. url https://www.didacticaselectronicas.com/index.php/fuentes-adaptadores/fuentes variables/conversor-dc-dc-pololu-ajust-elevador-5v-1-2a-fuente-elevador-step up-boost-conversor-dc-dc-5-voltaje-variable-alimentaci%C3%B3n-poder-pololu detail.es_CO
    dc.relation.referencesSigma electrónca. Módulo de carga tp4056. url https://www.sigmaelectronica.net/producto/tar-tp4056prot/.es_CO
    dc.relation.referencesSpartan Geek. Fusion 360, el software de ingeniería mecánica de autodesk. url https://spartangeek.com/blog/fusion-360-software-de ingenieria: :text=Fusion%20360%2es_CO
    dc.relation.referencesTensorflow. Tensorflow - compatibilidad con gpu. url https://www.tensorflow.org/install/gpu.es_CO
    dc.relation.referencesKaggle. Challenges in representation learning: Facial expression recognition challenge. url https://www.kaggle.com/c/challenges-in-representation-learning facial-expression-recognition-challenge/dataes_CO
    dc.relation.referencesDimitry. Image recognition with k210 boards and arduino ide/mi cropython. url https://www.instructables.com/Transfer-Learning-With-Sipeed MaiX-and-Arduino-IDE/.es_CO
    dc.relation.referencesStuart Rusell and Peter Norvig. Inteligencia Artificial. Un Enfoque Moderno. 2004. ISBN 0137903952. URL http://scholar.google.com/scholar?hl=en{&}btnG= Search{&}q=intitle:Inteligencia+Artificial:+un+enfoque+moderno{#}0es_CO
    dc.relation.referencesSami Abboud, Shlomi Hanassy, Shelly Levy-Tzedek, Shachar Maidenbaum, and Amir Amedi. EyeMusic: Introducing a ’visual’ colorful experience for the blind using auditory sensory substitution. Restorative Neurology and Neuroscience, 32 (2):247–257, 2014. ISSN 18783627. doi: 10.3233/RNN-130338es_CO
    dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2es_CO
    dc.type.coarversionhttp://purl.org/coar/resource_type/c_2df8fbb1es_CO
    Aparece en las colecciones: Ingeniería Mecatrónica

    Ficheros en este ítem:
    Fichero Descripción Tamaño Formato  
    Caballero_2020_TG.pdfCaballero_2020_TG2,51 MBAdobe PDFVisualizar/Abrir


    Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.