Por favor, use este identificador para citar o enlazar este ítem: http://dspace.espoch.edu.ec/handle/123456789/21234
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorLozada Yánez, Pablo Eduardo-
dc.contributor.authorGranizo Tapia, Jefferson Ermel-
dc.contributor.authorPucha Aldaz, Jimsop Santiago-
dc.date.accessioned2024-06-04T17:00:08Z-
dc.date.available2024-06-04T17:00:08Z-
dc.date.issued2021-11-09-
dc.identifier.citationGranizo Tapia, Jefferson Ermel; Pucha Aldaz, Jimsop Santiago. (2021). Construcción de un sistema prototipo de monitoreo y alerta en tiempo real para el uso de implementos de seguridad industrial en centros de trabajo mediante visión artificial. Escuela Superior Politécnica de Chimborazo. Riobamba.es_ES
dc.identifier.urihttp://dspace.espoch.edu.ec/handle/123456789/21234-
dc.descriptionEn el presente trabajo de titulación se realizó la implementación de un prototipo de monitoreo y alerta en tiempo real para el uso de implementos de seguridad industrial en centros de trabajo mediante visión artificial. El prototipo está conformado por 4 etapas: entrenamiento, alimentación, adquisición de datos y procesamiento. En la primera etapa se realiza el entrenamiento de la red neuronal convolucional Yolov4-tiny mediante la red pre entrenada Darknet para la detección de las distintas clases de estudio (casco, chaleco, orejeras, botas de seguridad, guante y personas) en la plataforma virtual Google Colab, en la segunda etapa se realiza el proceso de alimentación del prototipo mediante un adaptador de 12v 3A, el cual permite el correcto funcionamiento del prototipo, en la tercera etapa se realiza la adquisición de datos mediante el módulo Raspberry Pi Cámara V2 de 8Mpx que está diseñado para un mejor desempeño con el sistema embebido utilizado en la cuarta etapa, que se enfoca en el procesamiento de datos mediante la Raspberry PI 4 Modelo B de 8GB, el cual está programado mediante Python, el algoritmo de detección basado en Yolov4-tiny previamente entrenado para la detección de clases en equipos de protección personal, una vez identificadas las distintas clases en la imagen obtenida en la tercera etapa, el prototipo discernirá si los equipos de protección personal (EPPS) utilizados son correctos o se debe realizar una corrección en ellos, dando como resultado imágenes que se almacenarán tanto en el prototipo como en Google Drive para el posterior estudio de las mismas. Los resultados obtenidos mediante el prototipo realizado dieron como resultado una efectividad de la precisión media promedio por clase de estudio superior al 85% el cual es ampliamente más efectivo que el mostrado por el Dataset pre entrenado Yolo Coco que tiene un 57.9% de efectividad. Por los resultados obtenidos esta investigación puede ser susceptible a futuras modificaciones para trabajos futuros.es_ES
dc.description.abstractThis research project aimed to develop a real-time monitoring and alert prototype for use in industrial safety implementation in work centers using artificial vision. Prototype development consisted of 4 stages: training, feeding, data acquisition, and processing. In the first stage, the Yolov4-tiny convolutional neural network was trained using the pre-trained Darknet network to detect the different research classifications (helmet, vest, earmuffs, safety boots, gloves, and people) on the virtual Google Colab platform. In the second stage, the process of feeding the prototype was carried out using a 12v 3A adapter, which ensured the correct functioning of the prototype. In the third stage, data acquisition is carried out using the Raspberry Pi module Camera V2, 8Mpx, which was designed for better performance with the embedded system used in the fourth stage, which focuses on data processing using the 8GB Raspberry PI 4 Model B, which was programmed using Python with the detection algorithm based on Yolov4- tiny previously trained for detecting classifications in personal protective equipment. Once the different categories have been identified in the images obtained in the third stage, the prototype will discern if the personal protective equipment (PPE) used is correct or a correction needs to be made, resulting in images that will be stored both in the prototype as well as on Google Drive for further study of same. The results obtained through the prototype demonstrated the effectiveness of average precision per study classification as greater than 85%, which is significantly more effective than that shown by the pre-trained Yolo Coco Dataset, which has 57.9% effectiveness. In conclusion, the results obtained suggest that further modifications as part of future research should be considered.es_ES
dc.language.isospaes_ES
dc.publisherEscuela Superior Politécnica de Chimborazoes_ES
dc.relation.ispartofseriesUDCTFIYE;108T0391-
dc.rightsinfo:eu-repo/semantics/openAccesses_ES
dc.subjectVISION ARTIFICIALes_ES
dc.subjectRED NEURONALes_ES
dc.subjectRED NEURONAL CONVOLUCIONAL YOLOes_ES
dc.subjectINTERNETes_ES
dc.subjectEQUIPOS DE PROTECCIÓN PERSONALes_ES
dc.subjectSOFTWAREes_ES
dc.subjectGOOGLE COLABes_ES
dc.subjectHARDWAREes_ES
dc.titleConstrucción de un sistema prototipo de monitoreo y alerta en tiempo real para el uso de implementos de seguridad industrial en centros de trabajo mediante visión artificial.es_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.contributor.miembrotribunalArellano Aucancela, Alberto Leopoldo-
dc.rights.urihttps://creativecommons.org/licenses/by-nc-sa/3.0/ec/es_ES
Aparece en las colecciones: Ingeniero en Electrónica, Control y Redes Industriales; Ingeniero/a en Electrónica y Automatización

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
108T0391.pdf3,4 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons