Revista Tecnológica - ESPOL http://rte.espol.edu.ec/index.php/tecnologica Revista Tecnológica ESPOL - Publicaciones Científicas es-ES nsolorza@espol.edu.ec (Nayeth Solórzano, Ph.D.) rte@espol.edu.ec (Soporte Técnico RTE) Fri, 26 Nov 2021 19:30:17 -0500 OJS 3.3.0.7 http://blogs.law.harvard.edu/tech/rss 60 Comparación de Modelos Empíricos de pérdida LPWAN por Propagación en el campus Prosperina de la ESPOL: Resultados derivados de un estudio empírico http://rte.espol.edu.ec/index.php/tecnologica/article/view/824 <p>La tecnología de largo alcance LoRa, como parte de tecnologías de bajo consumo energético LPWAN, permite establecer comunicaciones inalámbricas a kilómetros de distancia con bajas tasas de transmisión. Sus características, inducen a la creación de nuevas líneas de investigación para comprender su comportamiento en diversos ambientes y diferenciarlas de otras tecnologías similares. En esta investigación, se caracteriza a la tecnología LoRa en contraste con Sigfox y NBIoT. Se evalúa el efecto de pérdidas en la propagación que tiene la tecnología LoRa, con mediciones realizadas en ambientes tanto abiertos como cubiertos por vegetación, dentro de las instalaciones de la Escuela Superior Politécnica del Litoral (ESPOL), campus Gustavo Galindo Velasco o Prosperina. Se establece un modelo de pérdida por gradiente, utilizando regresión de mínimos cuadrados (LS). Se registra el parámetro RSSI en paquetes enviados a través de una topología punto a punto entre nodos, y se obtiene un valor de potencia promedio recibida en cada nodo. El modelo obtenido, es de gradiente múltiple y se lo compara con otros modelos de propagación como el modelo de pérdida en espacio libre (FSL), y tres modelos empíricos como son, modelo COST-231 Hata, modelo de la ciudad de Dortmund (Alemania) y el modelo de la ciudad de Oulu (Finlandia), siendo este último el que presenta menor error de dispersión con el modelo obtenido.</p> Geovanny Arguello Andrade, PhD. Boris Ramos, Edison Del Rosario Derechos de autor 2021 Geovanny Arguello Andrade, PhD. Boris Ramos, Edison Del Rosario https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/824 Fri, 26 Nov 2021 00:00:00 -0500 Análisis Comparativo de Métodos de Consenso sobre Plataformas Blockchain http://rte.espol.edu.ec/index.php/tecnologica/article/view/828 <p>En la presente investigación se plantea realizar un análisis comparativo entre los diferentes métodos de consenso existentes, los cuales son los encargados de registrar, validar y realizar transacciones dentro de la tecnología Blockchain. Se identifica la presencia de propiedades consideradas como esenciales para su aplicabilidad y eficacia. Se considera características relevantes que permitan determinar cuál o cuáles de los diferentes métodos de consenso ayudan a mejorar problemas de escalabilidad o seguridad que tiene, hasta el momento, esta tecnología en cada plataforma. Se determina el valor de cada una de las características y posteriormente se asigna ponderaciones. Cada una de las características consideradas para la comparación no poseen la misma relevancia, por lo cual, se realiza una nueva ponderación que permite obtener resultados de acuerdo al valor e importancia de éstas en cada uno de los protocolos. Finalmente, se determina que los protocolos con mejores características son Tolerancia Delegada de Fallas Bizantinas, Prueba de Participación Delegada y Prueba de Trabajo; siendo Tolerancia Delegada de Fallas Bizantinas el mejor método por realizar 10.000 transacciones por segundo con baja latencia y un bajo consumo de recursos, entre las características más relevantes.</p> Ximena Campaña Iza, Xavier Zumba Sampedro, Mario Morales Morales, Santiago Morales Cardoso Derechos de autor 2021 Ximena Campaña Iza, Xavier Zumba Sampedro, Mario Morales Morales, Santiago Morales Cardoso https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/828 Fri, 26 Nov 2021 00:00:00 -0500 Análisis del rendimiento de los protocolos OLSR, DSDV y AODV en una Red MANET http://rte.espol.edu.ec/index.php/tecnologica/article/view/829 <p>Este artículo presenta una propuesta de análisis y comparación entre los protocolos de enrutamiento proactivo OLSR y DSDV, y reactivo AODV en una red MANET. Se definen dos escenarios: el primero representando un equipo de fútbol atacando y el segundo defendiendo. Se varía el área de movimiento de los nodos para simular cada escenario. Para ello, se realiza una investigación sobre los problemas que presentan estos algoritmos de enrutamiento para redes Ad Hoc en diferentes ámbitos. De esta forma, obtener un panorama de las estrategias y soluciones que existen actualmente. A partir de la información recopilada, se propone realizar una simulación utilizando NS3, para obtener resultados que se asemejen a la realidad. La comparación se realiza a base de las métricas de throughput, PDR y Delay. En cada simulación, la velocidad de los nodos y la posición inicial se ajustan según el comportamiento de un jugador de fútbol real. Los nodos se mueven en una trayectoria aleatoria dentro del área específica, y uno de éstos envía datos a un nodo fijo situado en el borde del campo. El tráfico transmitido está caracterizado para simular datos biométricos realistas. A partir de los resultados, se concluye que AODV y DSDV tienen un mejor rendimiento que OLSR y el intervalo óptimo de transmisión es de 20 segundos. Además, con una potencia de transmisión de 10 dBm se garantiza el 100% del throughput en el receptor.</p> Christian Quinde, Paúl Astudillo, Santiago González Derechos de autor 2021 Christian Quinde, Paúl Astudillo, Santiago González https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/829 Fri, 26 Nov 2021 00:00:00 -0500 Evaluación y comparación de algoritmos para la detección automática de eventos sísmicos http://rte.espol.edu.ec/index.php/tecnologica/article/view/830 <p>La detección temprana de eventos sísmicos permite reducir daños materiales, el número de personas afectadas e incluso salvar vidas. En particular, la actividad sísmica en Ecuador es alta, dado que se encuentra en el denominado Cinturón de Fuego del Pacífico. En tal contexto, el presente artículo tiene como objetivo comparar algoritmos para la detección automática de eventos sísmicos. Dicha comparación se realiza con respecto a la funcionalidad y configuración de los parámetros requeridos para cada algoritmo. Además, la implementación se lleva a cabo sobre una plataforma computacional tipo SBC (Single Board Computer) con la finalidad de obtener una herramienta portable, escalable, económica y de bajo costo computacional. Los métodos comparados son: Classic STA/LTA, Recursive STA/LTA, Delayed STA/LTA, Z-detector, Baer and Kradolfer picker y AR-AIC (Autoregressive-Akaike-Information-Criterion-picker). Para la evaluación y comparación se desarrollan múltiples experimentos empleando registros sísmicos reales proporcionados por la Red Sísmica del Austro (RSA), disponibles como fuente de entrada a los algoritmos. Como resultado se obtiene que el algoritmo Classic STA/LTA presenta el mejor rendimiento, ya que del total de eventos reales (58), solo un evento no fue detectado. Además, se consiguen 6 falsos negativos, logrando un 98,2% de precisión. Cabe recalcar que el software utilizado para la comparación de algoritmos de detección de eventos sísmicos está disponible de forma libre.</p> Alvaro Armijos Sarango, Iván Palacios Serrano, Santiago González Martínez Derechos de autor 2021 Alvaro Armijos Sarango, Iván Palacios Serrano, Santiago González Martínez https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/830 Fri, 26 Nov 2021 00:00:00 -0500 Análisis de métodos OMA para la extracción de parámetros modales sobre edificios existentes http://rte.espol.edu.ec/index.php/tecnologica/article/view/832 <p>En este artículo se presenta la aplicación de métodos de análisis modal operacional (OMA, Operational Modal Analysis) con el objetivo de caracterizar los parámetros modales (v.g. frecuencias y modos de vibración) de una edificación. El estudio se realiza sobre un escenario real consistente en un edificio esencial. En concreto se emplea: el método de descomposición en el dominio de la frecuencia (FDD, Frequency Domain Decomposition) y su versión mejorada (EFDD, Enhanced-FDD). En una primera etapa, se lleva a cabo una evaluación estructural preliminar del edificio (empleando el método de inspección visual rápida, RVS), un levantamiento de dimensiones y ensayos en campo para la caracterización mecánica de sus componentes, todo ello con el propósito de conseguir un análisis modal convencional lo más fiable posible en términos de sus parámetros modales. Con base en este análisis modal, se diseña un plan de instrumentación con acelerómetros triaxiales de sistemas microelectromecánicos (MEMS); el proceso de instrumentación abarca tres etapas: la adquisición, el control y el almacenamiento de información. La principal contribución de este trabajo consiste en la evaluación de la aplicación de los métodos FDD y EFDD sobre un edificio esencial, con la particularidad del uso de vibraciones de microsismicidad para la identificación de parámetros modales. El análisis de los resultados obtenidos determina una frecuencia fundamental del edificio de 1.43 Hz, y evidencia un comportamiento modal no recomendado.</p> Víctor Samaniego Galindo, Iván Palacios Serrano, José Placencia León, Milton Muñoz Calle, Santiago González Martínez, Juan Jiménez Pacheco Derechos de autor 2021 Víctor Samaniego Galindo, Iván Palacios Serrano, José Placencia León, Milton Muñoz Calle, Santiago González Martínez, Juan Jiménez Pacheco https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/832 Fri, 26 Nov 2021 00:00:00 -0500 Nativos digitales y desinformación: un acercamiento desde el sur de Ecuador http://rte.espol.edu.ec/index.php/tecnologica/article/view/834 <p>Esta investigación indaga en las prácticas de verificación informativa en los nativos digitales, con el uso de herramientas tecnológicas. El objetivo es poner a prueba un chatbot para realizar verificación informativa con elementos de inteligencia artificial; adicionalmente se busca conocer los hábitos de consumo informativo y el conocimiento sobre la desinformación y los sistemas de verificación de contenidos. Se emplea una metodología cualitativa a partir del trabajo con grupo focal. La población se constituye entre personas de sexo masculino y femenino de las generaciones jóvenes, conocidos como nativos digitales, cuyas edades se centran entre la segunda década de vida. Se recolectan datos primarios, a partir de un testeo guiado por tres bloques de preguntas: preguntas de estímulo-inicio, preguntas de desarrollo, bloque de cierre. Los resultados permiten inferir que los nativos digitales gozan de competencia mediática al momento de navegar en entornos digitales, sin que esto implique experticia al momento de interactuar con la desinformación o desarrollar su verificación, para lo cual se reconoce una necesidad formativa. Resulta novedoso y útil, para esta población, el desarrollo y empleo de herramientas que aporten a comprender mejor el fenómeno desinformativo y cómo abordarlo en los entornos cercanos con los cuales se relacionan.</p> Rocío Elizalde Robles, Claudia Rodríguez-Hidalgo Derechos de autor 2021 Rocío Elizalde Robles, Claudia Rodríguez-Hidalgo https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/834 Fri, 26 Nov 2021 00:00:00 -0500 Aplicación de Fuzzy-AHP y COPRAS en la selección de la mejor alternativa para el maquinado a alta velocidad de estructuras delgadas en aleaciones de aluminio Al 5083 http://rte.espol.edu.ec/index.php/tecnologica/article/view/836 <p>En la siguiente investigación se muestra una metodología que combina el método multicriterio COPRAS y el de inteligencia artificial AHP Difuso, que busca mejorar la toma de decisiones dentro de los procesos de planeación en los talleres de maquinado. El primero de los métodos permite determinar el criterio de mayor importancia a cumplir como exigencia en la fabricación; el segundo método, busca la selección de la mejor alternativa, con los valores para el maquinado a alta velocidad que permita fabricar la pieza rectangular de aleación de aluminio 5083. Para el análisis multicriterio los parámetros seleccionados en el proceso de maquinado de piezas de aluminio de estructura delgada son: la rugosidad superficial y la deformación de la pieza. Al aplicar el método Fuzzy-AHP, se determina que el criterio de mayor peso lo constituye la deformación de la pieza en la estructura delgada. Con la evaluación de los criterios, se aplica COPRAS y el resultado del índice de utilidad determina que la alternativa tres es la mejor, por tanto, al implementar los parámetros de entrada: S = 15000 rpm, doc= 0.30 mm, ts= 7.0 mm, F= 9000 m/min, se garantiza la calidad en la superficie y baja deformación de la pieza. Se concluye que la metodología de Fuzzy-AHP y COPRAS resulta una excelente herramienta, con un bajo costo y buena fiabilidad, como solución a aplicar en los talleres de maquinado para mejorar la toma de decisiones en la planeación de procesos.</p> Hiovanis Castillo Pantoja, Ángel Infante Haynes, Roberto Pérez Rodríguez, Ricardo Ávila Rondón Derechos de autor 2021 Hiovanis Castillo Pantoja, Ángel Infante Haynes, Roberto Pérez Rodríguez, Ricardo Ávila Rondón https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/836 Fri, 26 Nov 2021 00:00:00 -0500 Virtualización de las asignaturas de estudios generales en la formación universitaria. Propuesta de concepción teórico-metodológica para su aplicación http://rte.espol.edu.ec/index.php/tecnologica/article/view/837 <p>Los estudios generales en la formación universitaria al ser de tronco común en todas las carreras han acarreado problemas de espacio para cumplir con su oferta. Estas asignaturas proporcionan conocimientos y habilidades que complementan la formación profesional. La virtualización permite integrar o reemplazar, según sea el caso, la presencialidad en los procesos de enseñanza-aprendizaje, lo que favorece al ahorro de recursos y la adaptación en espacio-tiempo de las necesidades de los estudiantes y docentes conforme a la disponibilidad de herramientas tecnológicas que en la actualidad forman parte del proceso educativo. Este informe desarrolla una concepción teórico-metodológica con dimensiones y componentes que orientan el proceso de virtualización educativa para los estudios generales en la formación universitaria, como opción para la optimización de recursos y generación de nuevos espacios de aprendizaje basados en dimensiones con dos componentes: el teórico y el metodológico, en el cual se precisan las orientaciones para el desarrollo de la concepción. En el componente teórico se establecen las bases conceptuales de la propuesta mientras que en el componente metodológico se presentan las etapas del componente y sus respectivas acciones para su implementación en las asignaturas de estudios generales en la formación universitaria.</p> José Medina Crespo Derechos de autor 2021 José Medina Crespo https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/837 Fri, 26 Nov 2021 00:00:00 -0500 Plataforma para Análisis de Mercado a través de Datos de Redes Sociales http://rte.espol.edu.ec/index.php/tecnologica/article/view/839 <p>En la actualidad, en especial en tiempos de pandemia, el comercio electrónico se convierte en la manera predominante de comercializar productos y servicios en el mundo. Un estudio realizado por la Cámara Ecuatoriana de Comercio Electrónico, en el año 2020, demuestra que las compras y ventas a través de canales digitales se han incrementado al menos 15 veces desde el inicio de la pandemia. Por lo tanto, para realizar estudios de mercado las empresas deben buscar nuevas formas de extraer información para luego desarrollar un análisis de la misma y así obtener una ventaja competitiva. La extracción de datos es un proceso complejo y poco escalable, de manera que, esta investigación presenta una metodología para la extracción de información de un sector industrial determinado. La metodología consiste en dos pasos fundamentales, primero se realiza un ranking de las principales fuentes de información disponibles y más utilizadas en un determinado sector de la industria, se consideran varias características y opinión de expertos. Segundo, se propone una plataforma, la cual integra las fuentes de información mejor rankeadas y realiza la extracción de datos. Finalmente, estos datos se presentan en un Dashboard con la disponibilidad de poder descargar y hacer uso en estudios posteriores. Se concluye que las 4 plataformas que mayor beneficio ofrecen para esta investigación son: Google Trends, Facebook, YouTube y Twitter. También existen fuentes de información que al aplicar el análisis propuesto tienen una calificación alta, sin embargo, la extracción de los datos es difícil debido a sus políticas de seguridad.</p> Patricio Fajardo Cárdenas, Ariel Bravo, Andrés Auquilla, Paúl Vanegas Derechos de autor 2021 Patricio Fajardo Cárdenas, Ariel Bravo, Andrés Auquilla, Paúl Vanegas https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/839 Fri, 26 Nov 2021 00:00:00 -0500 Evaluación del reconocimiento de voz entre los servicios de Google y Amazon aplicado al Sistema Integrado de Seguridad ECU 911 http://rte.espol.edu.ec/index.php/tecnologica/article/view/840 <p>El reconocimiento automático de voz (ASR) es una de las ramas de la inteligencia artificial que hace posible la comunicación entre el humano y la máquina, logrando que el usuario pueda interactuar con las máquinas de manera natural. En los últimos años, los sistemas ASR se han incrementado hasta el punto de lograr transcripciones casi perfectas, en la actualidad son muchas las empresas que desarrollan sistemas ASR tales como Google, Amazon, IBM, Microsoft. El objetivo de este trabajo es evaluar los sistemas de reconocimiento de voz de Google Speech to Text y Amazon Transcribe con el fin de determinar cuál de ellas ofrece una mayor precisión al momento de convertir el audio en texto. La precisión de las transcripciones se evalúa a través de la tasa de error por palabra (WER) la cual analiza las palabras eliminadas, sustituidas e insertadas con respecto a un texto de referencia de transcripción humana. Después de someter estos sistemas a diferentes ambientes de ruido se observa que el sistema con mayor rendimiento en el proceso de transcripción es el de Amazon Transcribe; por tal razón, se concluye que el servicio de Amazon muestra un mayor desempeño con respecto al servicio de Google tanto con audios con un nivel de ruido de fondo más alto y con audios con un nivel de ruido de fondo más bajo.</p> Juan José Peralta Vásconez, Carlos Andrés Narváez Ortiz, Marcos Patricio Orellana Cordero, Paúl Andrés Patiño León, Priscila Cedillo Orellana Derechos de autor 2021 Juan José Peralta Vásconez, Carlos Andrés Narváez Ortiz, Marcos Patricio Orellana Cordero, Paúl Andrés Patiño León, Priscila Cedillo Orellana https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/840 Fri, 26 Nov 2021 00:00:00 -0500 Comparando técnicas de minería de datos en un centro de emergencias http://rte.espol.edu.ec/index.php/tecnologica/article/view/844 <p>El procesamiento del lenguaje natural es un campo dentro de la inteligencia artificial que estudia cómo modelar computacionalmente el lenguaje humano. La representación de palabras a través de vectores, conocida como Word embeddings, se populariza en los últimos años a través de técnicas como Doc2Vec o Word2Vec. El presente estudio evalúa el uso de Doc2Vec en un conjunto de conversaciones recopiladas por el centro de emergencia ECU911, perteneciente al cantón Cuenca de la provincia del Azuay durante el año 2020, con el fin de clasificar los incidentes para que el operador pueda tomar la mejor decisión, en cuanto a las acciones a realizar cuando se presente una emergencia. Además, se compara Doc2Vec con la técnica Word2Vec para verificar su nivel de desempeño tanto en precisión como en tiempo. A base de las pruebas realizadas se concluye que Doc2Vec tiene un desempeño sólido al utilizar modelos entrenados con gran corpus, superando a Word2Vec en este aspecto.</p> Paúl Andrés Patiño León, Byron Gutiérrez García, Brandon Llivisaca , Marcos Orellana, Priscila Cedillo Derechos de autor 2021 Paúl Andrés Patiño León, Byron Gutiérrez García, Brandon Llivisaca , Marcos Orellana, Priscila Cedillo https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/844 Fri, 26 Nov 2021 00:00:00 -0500 Implementación del algoritmo K-means para clusterización de señales EEG durante la aplicación de una prueba Stroop http://rte.espol.edu.ec/index.php/tecnologica/article/view/847 <p>El análisis de datos y la generación de modelos mediante aprendizaje automático (Machine Learning - ML por sus siglas en inglés) es una de las técnicas más usadas por la comunidad científica para obtener conocimiento que no se puede interpretar o analizar a simple vista. En este documento, se aborda el tema específico de la obtención, procesamiento de datos y modelado de los mismos mediante técnicas de agrupamiento, concretamente el algoritmo de K-Means. Los datos se obtienen a través de una herramienta de interfaz cerebro computador (ICC - BCI por sus siglas en inglés) basada en electroencefalograma (EEG), mientras un sujeto de prueba realiza una tarea de tipo Stroop, la cual permite a los psicólogos evaluar el control inhibitorio de las personas. La aplicación de este tipo de algritmo en esta área especifica, busca poder identificar patrones dentro de las señales EEG relacionados al estado del sujeto. La captura de datos se ejecuta en tres diferentes horas del día, matutina , vespertina, y nocturna, durante dos días consecutivos, con el objetivo de obtener variabilidad en los datos. Si bien la muestra de datos es pequeña, se puede emplear como punto de partida para el análisis del algoritmo K-means en señales EEG durante la ejecución del test Stroop. Los resultados se muestran tanto desde el punto de vista técnico como psicológico, y se puede ver en la clusterización realizada con las señales en el dominio del tiempo, que existe un patrón de agrupación según la hora del día en la que se realiza el test. Por otra parte, para la clusterización con las señales en el dominio de la frecuencia este patrón no resulta tan evidente. Desde la perspectiva psicológica, se comprueba que el proceso de aprendizaje y de acomodación al momento de realizar una prueba psicológica, disminuye su potencial.</p> Paúl Cárdenas Delgado, Daniela Prado, Bruno Iglesias, Ronnie Urdiales, Marcos Orellana, Priscila Cedillo Orellana Derechos de autor 2021 Paúl Cárdenas Delgado, Daniela Prado, Bruno Iglesias, Ronnie Urdiales, Marcos Orellana, Priscila Cedillo Orellana https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/847 Fri, 26 Nov 2021 00:00:00 -0500 Balanceo de un poste, controlado por una inteligencia artificial usando una placa Arduino http://rte.espol.edu.ec/index.php/tecnologica/article/view/852 <p>El proceso de automatización (AP) actual es de gran importancia en el mundo digitalizado, en rasgos generales, representa un aumento en la calidad de producción con el trabajo hecho a mano. El equilibrio es una capacidad natural del ser humano que está relacionada en trabajos y conducta inteligente. Equilibrarse representa un desafío adicional en los procesos de automatización, debido a la presencia de múltiples variables involucradas. Este artículo presenta el equilibrio físico y dinámico de un poste en el que un agente, mediante el uso de aprendizaje por refuerzo (RL), tiene la capacidad de explorar su entorno, detectar su posición a través de sensores, aprendiendo por sí mismo cómo mantener un poste equilibrado bajo perturbaciones en el mundo real. El agente usa los principios de RL para explorar y aprender nuevas posiciones y correcciones que conducen a recompensas más significativas en términos de equilibrio del poste. Mediante el uso de una matriz Q, el agente explora las condiciones futuras y adquiere información de política que hace posible mantener el equilibrio. Todo el proceso de entrenamiento y pruebas se realizan y gestionan íntegramente en un microcontrolador Arduino. Con la ayuda de sensores, servo motores, comunicaciones inalámbricas e inteligencia artificial, todos estos componentes se fusionan en un sistema que recupera constantemente el equilibrio bajo cambios aleatorios de posición. Los resultados obtenidos demuestran que a través de RL un agente puede aprender por sí mismo a utilizar sensores, actuadores genéricos y resolver problemas de balanceo incluso bajo las limitaciones que presenta un microcontrolador.</p> Jose Luis Revelo, Oscar Chang Derechos de autor 2021 Jose Luis Revelo, Oscar Chang https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/852 Fri, 26 Nov 2021 00:00:00 -0500 Enfoque de aprendizaje automático para la estimación de la pobreza multidimensional http://rte.espol.edu.ec/index.php/tecnologica/article/view/853 <p>En las ciencias sociales ha predominado un análisis teórico en sus investigaciones. La escasez de datos, su dificultad para recolectarlos y almacenarlos, ha sido la principal limitación para que las ciencias sociales adopten enfoques cuantitativos. Sin embargo, la gran cantidad de información generada en los últimos años, principalmente a través del uso de Internet, ha permitido que las ciencias sociales incluyan cada vez más análisis cuantitativos. Este estudio propone el uso de tecnologías como Machine Learning (ML) para solventar esta escasez de datos. El objetivo es estimar el índice de pobreza multidimensional a nivel de persona en un territorio en particular de Ecuador mediante el uso de modelos de regresión de Machine Learning (ML) partiendo de una cantidad limitada de datos para entrenamiento. Se comparan 10 modelos ML, tales como modelos lineales, regularizados y ensamblados. Random Forest se desempeña de manera sobresaliente frente a los otros modelos. Se llega a un error del 7,5% en la validación cruzada y del 7,48% con el conjunto de datos de prueba. Las estimaciones se comparan con aproximaciones estadísticas del IPM en una zona geográfica y se obtiene que el IPM promedio estimado por el modelo en comparación con el promedio informado por los estudios estadísticos difiere en 1%.</p> Mario Ochoa, Ricardo Castro, Alexander Arias Pallaroso, Antonia Machado, Dolores Sucozhanay Derechos de autor 2021 Mario Ochoa, Ricardo Castro, Alexander Arias Pallaroso, Antonia Machado, Dolores Sucozhanay https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/853 Fri, 26 Nov 2021 00:00:00 -0500 Influencia emocional en árbitros de fútbol aplicando tecnologías de sensores http://rte.espol.edu.ec/index.php/tecnologica/article/view/854 <p>En el ámbito deportivo, las decisiones arbitrales siempre han estado bajo la lupa de los deportistas, directivos y espectadores, por tal motivo se mantiene en constante evaluación y entrenamiento el tema de reducir el error. Es necesario exponer que la toma de decisiones se puede generar bajo la influencia directa de las emociones, puesto que el proceso de respuestas emocionales es inconsciente y pueden interferir durante el desarrollo de diversas actividades, en este caso, a las relacionadas con el arbitraje. Por ello, se genera un prototipo de sensores en función a los parámetros fisiológicos de la temperatura corporal y la frecuencia cardiaca como patrones de expresión de diversos estados emocionales de este grupo de deportistas, y a base de la representación del modelo de afectividad positiva y negativa, se identifica el estado o cambios de estados emocionales durante la ejecución de un partido. Luego, con uso del material audiovisual se realiza, con criterio de expertos, el análisis de toma de decisiones de los participantes en estas pruebas. Los árbitros participantes, en las pruebas de campo, se les registra con mayor frecuencia dos estados relacionados con valencia positiva y solo un estado de valencia negativa, sin embargo, en la mayoría de los casos, en el análisis de datos se observa que la toma de decisiones se alinea correctamente con el reglamento.</p> Luis Espín Pazmiño, Margareth Enderica Malo Derechos de autor 2021 Luis Espín Pazmiño, Margareth Enderica Malo https://creativecommons.org/licenses/by-nc/4.0 http://rte.espol.edu.ec/index.php/tecnologica/article/view/854 Fri, 26 Nov 2021 00:00:00 -0500