• Repositorio Institucional Universidad de Pamplona
  • Trabajos de pregrado y especialización
  • Facultad de Ingenierías y Arquitectura
  • Ingeniería Mecatrónica
  • Por favor, use este identificador para citar o enlazar este ítem: http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/3861
    Registro completo de metadatos
    Campo DC Valor Lengua/Idioma
    dc.contributor.authorGarcés Carrillo, Wladimir Arturo.-
    dc.date.accessioned2022-10-28T02:04:51Z-
    dc.date.available2018-03-19-
    dc.date.available2022-10-28T02:04:51Z-
    dc.date.issued2018-
    dc.identifier.citationGarcés Carrillo, W. A. (2017). Sistema de captura de movimiento para animación de personajes 3D y presentaciones de alto impacto [Trabajo de Grado Pregrado, Universidad de Pamplona]. Repositorio Hulago Universidad de Pamplona. http://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/3861es_CO
    dc.identifier.urihttp://repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/3861-
    dc.descriptionLa propuesta consiste en la creación de un sistema de captura de movimiento (MOCAP), para el modelado y animación de la mascota de la universidad, con el fin de generar material audiovisual educativo para la promoción institucional y para la creación de presentaciones de alto impacto. En su desarrollo fue necesario la creación, por medio de modelado grafico en 3D, de una de las mascotas de la universidad, y practicar sobre ella técnicas de animación y de modificación morfológica de “mallas”, en este caso la de rigging. Fueron necesarios conceptos en animación combinados con conceptos en robótica para la creación completa del rigging del personaje. También se necesitó para su desarrollo un análisis minucioso del sensor Kinect y de la librería PyKinect, usada para la extracción específica del Skeleton Tracking para su posterior implementación en la creación de gestos a partir del seguimiento de los puntos de las muñecas y para la extracción de los ángulos para el control del rigging del personaje hecho en Blender. Cabe especificar que los softwares se escribieron, enteramente en Python con ayuda de otras librerías como PyQt4 para el desarrollo de la interfaz, OpenCV para la visualización de los datos obtenidos o PyWin32 para emular eventos de teclado y mouse. Para la realización de los software’s, fueron necesarios conceptos como Programación Orientada a Objetos, programación Orientada a Eventos y Programación en Paralelo por medio de la ejecución de hilos. También se usó una lógica de control I/O para algunas órdenes de control de distintas etapas del programa. Teniendo en cuenta todo lo anterior. Se desarrolló un sistema de captura de movimiento capaz de recolectar los movimientos de una persona y disponerlos en un archivo de datos ordenados, para que posteriormente sea leído por otro programa para su reproducción en Blender. Se desarrolló un Script en Python, para ejecución en Blender, que permite cargar un archivo de datos ordenados, leerlo y traducir cada línea a movimiento de un robot virtual. Se desarrolló un personaje en 3D, a partir de la imagen institucional de la Universidad de Pamplona. Esta imagen podría servir para representar la universidad en sus distintas iniciativas para la recolección, reproducción, creación y desarrollo de material virtual de apoyo para los distintos materiales virtuales de la institución y su posterior implementación en las Aulas TIC. Se logró el desarrollo un sistema de captura de movimiento, como herramienta tecnológica y con propósitos de uso en las Aulas TIC, para el desarrollo de presentaciones de alto impacto. Esta herramienta permite controlar una diapositiva por medio de gestos de las extremidades superiores. Este proyecto entra como insumo a las propuestas a nivel mundial que quieren potencializar la educación por medio de herramientas tecnológicas que sirvan 6 para reproducir el conocimiento de manera efectiva a las nuevas generaciones de la sociedad tecnológica. Por último, los resultados esperados, como se dijo al principio, se verán reflejados en: La animación de las mascotas, que representan hoy, la imagen corporativa de la Universidad de Pamplona, y que la dotarán con producción audiovisual de calidad para el fortalecimiento de su gestión publicitaria; y en la gestión de presentaciones por medio de gestos corporales, que se enmarquen en el actual contexto de las presentaciones de alto impacto. A futuro, se cree que este sistema podrá tener otras aplicaciones como: Sistemas de rehabilitación deportiva, videojuegos, etc.es_CO
    dc.description.abstractEl autor no proporciona la información sobre este ítem.es_CO
    dc.format.extent107es_CO
    dc.format.mimetypeapplication/pdfes_CO
    dc.language.isoeses_CO
    dc.publisherUniversidad de Pamplona- Facultad de Ingenierías y Arquitectura.es_CO
    dc.subjectMOCAP.es_CO
    dc.subjectFotogrametría.es_CO
    dc.subjectProcesamiento de imagenes.es_CO
    dc.subjectCaptura de movimiento.es_CO
    dc.subjectPresentaciones de alto impacto.es_CO
    dc.subjectAnimación.es_CO
    dc.subjectRigging.es_CO
    dc.subjectSkeleton Traking.es_CO
    dc.subjectParadigma de programación.es_CO
    dc.titleSistema de captura de movimiento para animación de personajes 3D y presentaciones de alto impacto.es_CO
    dc.typehttp://purl.org/coar/resource_type/c_7a1fes_CO
    dc.date.accepted2017-12-19-
    dc.relation.referencesAlexiadis, D. S., & Daras, P. (2014). Quaternionic Signal Processing Techniques for Automatic Evaluation of Dance Performances From MoCap Data. IEEE TRANSACTIONS ON MULTIMEDIA, VOL 16, NO. 5, 1391-1406.es_CO
    dc.relation.referencesAyala, N. A., Mendívil, E. G., Salinas, P., & Rios, H. (2013). Kinesthetic Learning Applied to Mathematics Using Kinect. Procedia Computer Science 25, 131-135.es_CO
    dc.relation.referencesBarnachon, M., Bouakaz, S., Boufama, B., & Guillou, E. (2013). A real-time system for motion retrieval and interpretation. Pattern Recognition Letters 34, 1789-1798.es_CO
    dc.relation.referencesBonnechére, B., Jansen, B., Salvia, P., Bouzahouene, H., Omelina, L., Moiseev, F., . . . Jan, S. V. (2014). Validity and reliability of the Kinect within functional assessment. Gait & Posture 39, 593-598.es_CO
    dc.relation.referencesCassola, F., Morgado, L., Carvalho, F. d., Paredes, H., Fonseca, B., & Martinsa, P. (2014). Online Gym: a 3D virtual gymnasium using Kinect interaction. Procedia Technology 13 , 130-138es_CO
    dc.relation.referencesChang, Y.-J., Han, W.-Y., & Tsai, Y.-C. (2013). A Kinect-based upper limb rehabilitation system to assist. Research in Developmental Disabilities 34, 3654-3659.es_CO
    dc.relation.referencesClark, R. A., Pua, Y.-H., Fortin, K., Ritchie, C., Webster, K. E., Denehy, L., & Bryant, A. L. (2012). Validity of the Microsoft Kinect for assessment of postural control. Gait & Posture 36, 372-377.es_CO
    dc.relation.referencesDu, G., & Zhang, P. (2014). Markerless human–robot interface for dual robot manipulators using Kinect sensor. Robotics and Computer-Integrated Manufacturing , 150-159.es_CO
    dc.relation.referencesDutta, T. (2012). Applied Ergonomics 43, 645-649.es_CO
    dc.relation.referencesGalna, B., Barry, G., Jackson, D., Mhiripiri, D., Olivier, P., & Rochester, L. (2014). Accuracy of the Microsoft Kinect sensor for measuring movement in people with Parkinson’s disease. Gait & Posture 39, 1062-1068.es_CO
    dc.relation.referencesGonzález-Ortega, D., Díaz-Pernas, F., Martínez-Zarzuela, M., & Antón-Rodríguez, M. (2014). A Kinect-based system for cognitive rehabilitation exercises monitoring. computer methods and programs in biomedicine 113, 620-631.es_CO
    dc.relation.referencesGüdükbay, U., Demir, ˙., & Dedeoglu, Y. (2013). Motioncapture and human pose reconstruction from a single-view video sequence. DigitalSignalProcessing, 1441-1450.es_CO
    dc.relation.referencesHan, S., & Lee, S. (2013). A vision-based motion capture and recognition framework for behavior-based safety management. Automation in Construction 35, 131-141es_CO
    dc.relation.referencesHenseler, H., Kuznetsova, A., Vogt, P., & Rosenhahn, B. (2014). Validation of the Kinect device as a new portable imaging system for three-dimensional breast assessment. Journal of Plastic, Reconstructive & Aesthetic Surgery 67, 483-488.es_CO
    dc.relation.referencesIbañez, R., Soria, Á., Teyseyre, A., & Campo, M. (2014). Easy gesture recognition for Kinect. Advances in Engineering Software, 171-180.es_CO
    dc.relation.referencesJiang, B., Zhao, F., & Liu, X. (2014). Observation-oriented silhouette-aware fast full body tracking. Journal of Manufacturing Systems 33, 209-217.es_CO
    dc.relation.referencesKitagawa, M., & Windsor, B. (2008). MoCap for Artists: Workflow and Techniques for Motion Capture. AMSTERDAM, NEW YORK: Focal Presses_CO
    dc.relation.referencesSandau, M., Koblaucha, H., Moeslund, T. B., Aanæs, H., Alkjær, T., & Simonsen, E. B. (2014). Markerless motion capture can provide reliable 3D gait kinematics in the sagittal and frontal plane. Medical Engineering & Physics, 1168-1175.es_CO
    dc.relation.referencesUnzueta, L., Peinado, M., Boulic, R., & Suescun, Á. (2008). Full-body performance animation with Sequential Inverse Kinematics. Graphical Models 70, 87-104.es_CO
    dc.relation.referenceshao, X., Li, X., Pang, C., & Wang, S. (2013). Human action recognition based on semi supervised discriminant analysis with global constraint. Neurocomputing 105, 45-50.es_CO
    dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2es_CO
    dc.type.coarversionhttp://purl.org/coar/resource_type/c_2df8fbb1es_CO
    Aparece en las colecciones: Ingeniería Mecatrónica

    Ficheros en este ítem:
    Fichero Descripción Tamaño Formato  
    Garcés_2017_TG.pdfGarcés_2017_TG6,49 MBAdobe PDFVisualizar/Abrir


    Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.