Por favor, use este identificador para citar o enlazar este ítem: http://dspace.espoch.edu.ec/handle/123456789/9724
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorVeloz Cherrez, Diego Fernando-
dc.contributor.authorMorales Montero, Hugo Marcelo-
dc.contributor.authorYánez Jácome, Cristian Danilo-
dc.date.accessioned2019-03-07T15:42:01Z-
dc.date.available2019-03-07T15:42:01Z-
dc.date.issued2018-03-
dc.identifier.citationMorales Montero, Hugo Marcelo; Yánez Jácome, Cristian Danilo. (2018). Diseño e implementación de un sistema inalámbrico que permita interactuar con el entorno a personas con limitación motriz utilizando el movimiento de ojos y comandos de voz. Escuela Superior Politécnica de Chimborazo. Riobamba.es_ES
dc.identifier.urihttp://dspace.espoch.edu.ec/handle/123456789/9724-
dc.descriptionEl objetivo del trabajo de investigación fue el diseño y la implementación de un sistema inalámbrico que permita interactuar con el entorno a personas con limitación motriz utilizando el movimiento de ojos y comandos de voz, el prototipo fue diseñado mediante NI Vision Acquisition para el procesamiento de imagen. La captura de imágenes se implementó con una cámara web usb conectada al Raspberry PI 3, la cual se acopló cerca del ojo para la adquisición de imágenes, mediante un script desarrollado en Python, la Raspberry permite capturar y almacenar la imagen tomada del ojo, la cual es analizada y procesada en LabView determinando dos movimientos: arriba y abajo, y en segunda estancia el control respectivo de los puertos de entrada y salida (GPIO) del Raspberry en función del movimiento del ojo, la imagen es compartida mediante un servidor SAMBA en la red local de tal manera que LabView procesa la imagen de acuerdo a una clasificación de patrones y de forma, asignándole una calificación en función de las muestras almacenadas; al determinar la posición del ojo, se envía la orden a su respectivo actuador a través de la red inalámbrica wifi usando módulos ESP8266; los comandos de voz están perfilados bajo tarjetas de desarrollo Arduino mas un módulo de reconocimiento de voz Module V3 que mediante el uso de un micrófono se cumple la función de control remoto básico usando la tecnología inalámbrica infrarrojo (IR), además de la configuración de un comando de voz para activar el procesamiento de imágenes, las respectivas pruebas de funcionamiento del prototipo se ejecutaron con personas discapacitadas, determinando que el prototipo tiene de una fiabilidad del 80% con respecto a su funcionalidad y una latencia máxima medida 1,13 segundos en el procesamiento de imagen. Al entrenar los comandos de voz se recomienda pronunciar y modular claramente las palabras.es_ES
dc.description.abstractThe objective of this research was the desing and implementation of a wireless system that allows interacting with environment to people with motor limitation using eye movement and voice commands, the prototype was designed using NI Vision Acquisition to the processing og image. Image captures were implemented witch a USB webcam connected to the Rasberry PI 3, which was coupled near the eye to the image acquisition using a script developed in Python. The Raspberry allows capturing and storing the image taken from the eye that is analyzed and processed in LabView by determining two movements: up and down. Secondly, the respective control of the input and output ports (GPIO) of the Raspberry depending on the movement of the eye. The image is shared by a SAMBA server in the local networks in such a way that LabView processes the image according to a classification of patterns and shape assigning a qualification based on the stored samples. When determining the position of the eye, the order is sent to it´s respective actuator through the WI-FI wireless network using ESP8266 modules. The voice commands are outlined under Arduino development cards plus a voice recognition module Module V3 that by using a microphone the basic remote control function is fulfilled using infrared (IR) wireless technology. In addition to the configuration of a voice command to activate image processing, the respective prototype performance tests were performed with disabled people, determining that the prototype has a reliability of 80% with respect to it´s functionality and a maximum latency of 11,3 seconds in the processing og image. When training voice commands, it is recommended to pronounce and modelate the words.es_ES
dc.language.isospaes_ES
dc.publisherEscuela Superior Politécnica de Chimborazoes_ES
dc.relation.ispartofseriesUDCTFIYE;98T00194-
dc.subjectTELECOMUNICACIONESes_ES
dc.subjectPROCESAMIENTO DE IMAGENESes_ES
dc.subjectDISCAPACIDAD MOTRIZes_ES
dc.subjectCOMUNICACIONES INALÁMBRICASes_ES
dc.subjectSISTEMAS DE RECONOCIMIENTO DE VOZes_ES
dc.titleDiseño e implementación de un sistema inalámbrico que permita interactuar con el entorno a personas con limitación motriz utilizando el movimiento de ojos y comandos de voz.es_ES
dc.typebachelorThesises_ES
dc.contributor.miembrotribunalMoreno Montenegro, Franklin Geovanni-
Aparece en las colecciones: Ingeniero en Electrónica, Telecomunicaciones y Redes; Ingeniero/a en Telecomunicaciones

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
98T00194.pdf6,24 MBAdobe PDFVista previa
Visualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.