Por favor, use este identificador para citar o enlazar este ítem: http://dspace.espoch.edu.ec/handle/123456789/21641
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorPaucar Samaniego, Jorge Luis-
dc.contributor.authorBuñay Cujilema, Javier Moises-
dc.contributor.authorMullo Yautibug, Jose Emilio-
dc.date.accessioned2024-06-13T20:47:15Z-
dc.date.available2024-06-13T20:47:15Z-
dc.date.issued2023-11-21-
dc.identifier.citationBuñay Cujilema, Javier Moises; Mullo Yautibug, Jose Emilio. (2023). Construcción de un prototipo electrónico traductor de lenguaje de señas a voz con base en procesamiento de imágenes. Escuela Superior Politécnica de Chimborazo. Riobamba.es_ES
dc.identifier.urihttp://dspace.espoch.edu.ec/handle/123456789/21641-
dc.descriptionEl objetivo de la presente investigación fue la construcción de un prototipo electrónico traductor de lenguaje de señas a voz con base en procesamiento de imágenes. Este prototipo se compone de tres bloques fundamentales: uno de adquisición de datos, que incorpora una cámara USB; un bloque de procesamiento, compuesto por una tarjeta de desarrollo Jetson Nano, donde se lleva a cabo el procesamiento de las imágenes capturadas; y finalmente, un bloque de visualización y reproducción de la información, compuesto por una pantalla y un altavoz, respectivamente. El bloque central extrae datos de las imágenes, específicamente de los 21 nudillos de la mano. Estos datos permiten la traducción de las letras del alfabeto de la Lengua de Señas Ecuatoriana al alfabeto común, lo que posibilita la generación de una amplia variedad de palabras mediante la concatenación de estas letras. Finalmente, estas palabras se presentan al usuario en formato de texto y sonido. Como resultados de las pruebas realizadas a distancias de 30 cm, 60 cm y 100 cm indican que su mejor rendimiento se alcanzó a una distancia de 30 cm, logrando un porcentaje de precisión en la detección del 93.21%. Con lo cual se concluye que el prototipo desarrollado logra una buena traducción, constituyéndose en una herramienta de ayuda para mejorar la comunicación de personas con discapacidad auditiva con aquellas que no la tienen. Se recomienda contar con iluminación adecuada en el entorno de captura y evitar situaciones de contraluz debido a que algunas condiciones de iluminación pueden hacer que sea difícil para el prototipo identificar las señas y gestos realizados por el usuario.es_ES
dc.description.abstractThe objective of the present research was to construct an electronic prototype for translating sign language into speech based on image processing. This prototype is made up of three fundamental blocks: one for data acquisition, which includes a USB camera; a processing block, composed of a Jetson Nano development board, where the processing of the captured images is carried out; and finally, a block for displaying and reproducing information, composed of a screen and a speaker, respectively. The central block extracts data from the images, specifically from the 21 knuckles of the hand. These data allow the translation of the letters of the Ecuadorian Sign Language alphabet into the standard alphabet, enabling the generation of a wide variety of words by the concatenation of these letters. Finally, these words are presented to the user in text and sound formats. The results of the tests conducted at distances of 30 cm, 60 cm, and 100 cm indicate that the best performance was achieved at a distance of 30 cm, with a detection accuracy of 93.21%. It is concluded that the developed prototype achieves good translation, making it a valuable tool to improve communication for individuals with hearing impairment with those who do not have such disabilities. It is recommended to have adequate lighting in the capture environment and avoid backlight situations because some lighting conditions can make it difficult for the prototype to identify the signs and gestures made by the user.es_ES
dc.language.isospaes_ES
dc.publisherEscuela Superior Politécnica de Chimborazoes_ES
dc.relation.ispartofseriesUDCTFIYE;108T0521-
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.subjectVISIÓN ARTIFICIALes_ES
dc.subjectCOMUNICACIÓNes_ES
dc.subjectDISCAPACIDAD AUDITIVAes_ES
dc.subjectLENGUAJE DE SEÑASes_ES
dc.subjectLENGUAJE ORALes_ES
dc.titleConstrucción de un prototipo electrónico traductor de lenguaje de señas a voz con base en procesamiento de imágenes.es_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.contributor.miembrotribunalLozada Yánez, Pablo Eduardo-
dc.rights.urihttps://creativecommons.org/licenses/by-nc-sa/3.0/ec/es_ES
Aparece en las colecciones: Ingeniero en Electrónica, Control y Redes Industriales; Ingeniero/a en Electrónica y Automatización

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
108T0521.pdf3,55 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons