http://rte.espol.edu.ec/index.php/tecnologica/issue/feed Revista Tecnológica - ESPOL 2021-11-26T19:30:17-05:00 Nayeth Solórzano, Ph.D. nsolorza@espol.edu.ec Open Journal Systems Revista Tecnológica ESPOL - Publicaciones Científicas http://rte.espol.edu.ec/index.php/tecnologica/article/view/824 Comparación de Modelos Empíricos de pérdida LPWAN por Propagación en el campus Prosperina de la ESPOL: Resultados derivados de un estudio empírico 2021-08-23T10:45:01-05:00 Geovanny Arguello Andrade geomaarg@espol.edu.ec Boris Ramos bramos@espol.edu.ec Edison Del Rosario edelros@espol.edu.ec <p>La tecnología de largo alcance LoRa, como parte de tecnologías de bajo consumo energético LPWAN, permite establecer comunicaciones inalámbricas a kilómetros de distancia con bajas tasas de transmisión. Sus características, inducen a la creación de nuevas líneas de investigación para comprender su comportamiento en diversos ambientes y diferenciarlas de otras tecnologías similares. En esta investigación, se caracteriza a la tecnología LoRa en contraste con Sigfox y NBIoT. Se evalúa el efecto de pérdidas en la propagación que tiene la tecnología LoRa, con mediciones realizadas en ambientes tanto abiertos como cubiertos por vegetación, dentro de las instalaciones de la Escuela Superior Politécnica del Litoral (ESPOL), campus Gustavo Galindo Velasco o Prosperina. Se establece un modelo de pérdida por gradiente, utilizando regresión de mínimos cuadrados (LS). Se registra el parámetro RSSI en paquetes enviados a través de una topología punto a punto entre nodos, y se obtiene un valor de potencia promedio recibida en cada nodo. El modelo obtenido, es de gradiente múltiple y se lo compara con otros modelos de propagación como el modelo de pérdida en espacio libre (FSL), y tres modelos empíricos como son, modelo COST-231 Hata, modelo de la ciudad de Dortmund (Alemania) y el modelo de la ciudad de Oulu (Finlandia), siendo este último el que presenta menor error de dispersión con el modelo obtenido.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Geovanny Arguello Andrade, PhD. Boris Ramos, Edison Del Rosario http://rte.espol.edu.ec/index.php/tecnologica/article/view/828 Análisis Comparativo de Métodos de Consenso sobre Plataformas Blockchain 2021-08-23T10:45:27-05:00 Ximena Campaña Iza xmcampana@uce.edu.ec Xavier Zumba Sampedro wxzumba@uce.edu.ec Mario Morales Morales mmoralesm@uce.edu.ec Santiago Morales Cardoso smorales@uce.edu.ec <p>En la presente investigación se plantea realizar un análisis comparativo entre los diferentes métodos de consenso existentes, los cuales son los encargados de registrar, validar y realizar transacciones dentro de la tecnología Blockchain. Se identifica la presencia de propiedades consideradas como esenciales para su aplicabilidad y eficacia. Se considera características relevantes que permitan determinar cuál o cuáles de los diferentes métodos de consenso ayudan a mejorar problemas de escalabilidad o seguridad que tiene, hasta el momento, esta tecnología en cada plataforma. Se determina el valor de cada una de las características y posteriormente se asigna ponderaciones. Cada una de las características consideradas para la comparación no poseen la misma relevancia, por lo cual, se realiza una nueva ponderación que permite obtener resultados de acuerdo al valor e importancia de éstas en cada uno de los protocolos. Finalmente, se determina que los protocolos con mejores características son Tolerancia Delegada de Fallas Bizantinas, Prueba de Participación Delegada y Prueba de Trabajo; siendo Tolerancia Delegada de Fallas Bizantinas el mejor método por realizar 10.000 transacciones por segundo con baja latencia y un bajo consumo de recursos, entre las características más relevantes.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Ximena Campaña Iza, Xavier Zumba Sampedro, Mario Morales Morales, Santiago Morales Cardoso http://rte.espol.edu.ec/index.php/tecnologica/article/view/829 Análisis del rendimiento de los protocolos OLSR, DSDV y AODV en una Red MANET 2021-08-23T10:46:03-05:00 Christian Quinde Romero christian.quinde@outlook.com Paúl Astudillo Picón paul_alejo7@outlook.es Santiago González Martínez santiago.gonzalezm@ucuenca.edu.ec <p>Este artículo presenta una propuesta de análisis y comparación entre los protocolos de enrutamiento proactivo OLSR y DSDV, y reactivo AODV en una red MANET. Se definen dos escenarios: el primero representando un equipo de fútbol atacando y el segundo defendiendo. Se varía el área de movimiento de los nodos para simular cada escenario. Para ello, se realiza una investigación sobre los problemas que presentan estos algoritmos de enrutamiento para redes Ad Hoc en diferentes ámbitos. De esta forma, obtener un panorama de las estrategias y soluciones que existen actualmente. A partir de la información recopilada, se propone realizar una simulación utilizando NS3, para obtener resultados que se asemejen a la realidad. La comparación se realiza a base de las métricas de throughput, PDR y Delay. En cada simulación, la velocidad de los nodos y la posición inicial se ajustan según el comportamiento de un jugador de fútbol real. Los nodos se mueven en una trayectoria aleatoria dentro del área específica, y uno de éstos envía datos a un nodo fijo situado en el borde del campo. El tráfico transmitido está caracterizado para simular datos biométricos realistas. A partir de los resultados, se concluye que AODV y DSDV tienen un mejor rendimiento que OLSR y el intervalo óptimo de transmisión es de 20 segundos. Además, con una potencia de transmisión de 10 dBm se garantiza el 100% del throughput en el receptor.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Christian Quinde, Paúl Astudillo, Santiago González http://rte.espol.edu.ec/index.php/tecnologica/article/view/830 Evaluación y comparación de algoritmos para la detección automática de eventos sísmicos 2021-08-16T11:31:40-05:00 Alvaro Eduardo Armijos Sarango alvaro.armijos@ucuenca.edu.ec Iván Santiago Palacios Serrano ivan.palacios@ucuenca.edu.ec Santiago González Martínez santiago.gonzalezm@ucuenca.edu.ec <p>La detección temprana de eventos sísmicos permite reducir daños materiales, el número de personas afectadas e incluso salvar vidas. En particular, la actividad sísmica en Ecuador es alta, dado que se encuentra en el denominado Cinturón de Fuego del Pacífico. En tal contexto, el presente artículo tiene como objetivo comparar algoritmos para la detección automática de eventos sísmicos. Dicha comparación se realiza con respecto a la funcionalidad y configuración de los parámetros requeridos para cada algoritmo. Además, la implementación se lleva a cabo sobre una plataforma computacional tipo SBC (Single Board Computer) con la finalidad de obtener una herramienta portable, escalable, económica y de bajo costo computacional. Los métodos comparados son: Classic STA/LTA, Recursive STA/LTA, Delayed STA/LTA, Z-detector, Baer and Kradolfer picker y AR-AIC (Autoregressive-Akaike-Information-Criterion-picker). Para la evaluación y comparación se desarrollan múltiples experimentos empleando registros sísmicos reales proporcionados por la Red Sísmica del Austro (RSA), disponibles como fuente de entrada a los algoritmos. Como resultado se obtiene que el algoritmo Classic STA/LTA presenta el mejor rendimiento, ya que del total de eventos reales (58), solo un evento no fue detectado. Además, se consiguen 6 falsos negativos, logrando un 98,2% de precisión. Cabe recalcar que el software utilizado para la comparación de algoritmos de detección de eventos sísmicos está disponible de forma libre.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Alvaro Armijos Sarango, Iván Palacios Serrano, Santiago González Martínez http://rte.espol.edu.ec/index.php/tecnologica/article/view/832 Análisis de métodos OMA para la extracción de parámetros modales sobre edificios existentes 2021-08-23T10:46:42-05:00 Víctor Samaniego Galindo victor.samaniegog@ucuenca.edu.ec Iván Palacios Serrano ivan.palacios@ucuenca.edu.ec José Placencia León jose.placencial@ucuenca.edu.ec Milton Muñoz Calle milton.munozc@ucuenca.edu.ec Santiago González Martínez santiago.gonzalezm@ucuenca.edu.ec Juan Jiménez Pacheco juan.jimenez@ucuenca.edu.ec <p>En este artículo se presenta la aplicación de métodos de análisis modal operacional (OMA, Operational Modal Analysis) con el objetivo de caracterizar los parámetros modales (v.g. frecuencias y modos de vibración) de una edificación. El estudio se realiza sobre un escenario real consistente en un edificio esencial. En concreto se emplea: el método de descomposición en el dominio de la frecuencia (FDD, Frequency Domain Decomposition) y su versión mejorada (EFDD, Enhanced-FDD). En una primera etapa, se lleva a cabo una evaluación estructural preliminar del edificio (empleando el método de inspección visual rápida, RVS), un levantamiento de dimensiones y ensayos en campo para la caracterización mecánica de sus componentes, todo ello con el propósito de conseguir un análisis modal convencional lo más fiable posible en términos de sus parámetros modales. Con base en este análisis modal, se diseña un plan de instrumentación con acelerómetros triaxiales de sistemas microelectromecánicos (MEMS); el proceso de instrumentación abarca tres etapas: la adquisición, el control y el almacenamiento de información. La principal contribución de este trabajo consiste en la evaluación de la aplicación de los métodos FDD y EFDD sobre un edificio esencial, con la particularidad del uso de vibraciones de microsismicidad para la identificación de parámetros modales. El análisis de los resultados obtenidos determina una frecuencia fundamental del edificio de 1.43 Hz, y evidencia un comportamiento modal no recomendado.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Víctor Samaniego Galindo, Iván Palacios Serrano, José Placencia León, Milton Muñoz Calle, Santiago González Martínez, Juan Jiménez Pacheco http://rte.espol.edu.ec/index.php/tecnologica/article/view/834 Nativos digitales y desinformación: un acercamiento desde el sur de Ecuador 2021-08-23T10:47:15-05:00 Rocío Margoth Elizalde Robles rmelizalde1@utpl.edu.ec Claudia Rodríguez-Hidalgo cvrodriguzx@utpl.edu.ec <p>Esta investigación indaga en las prácticas de verificación informativa en los nativos digitales, con el uso de herramientas tecnológicas. El objetivo es poner a prueba un chatbot para realizar verificación informativa con elementos de inteligencia artificial; adicionalmente se busca conocer los hábitos de consumo informativo y el conocimiento sobre la desinformación y los sistemas de verificación de contenidos. Se emplea una metodología cualitativa a partir del trabajo con grupo focal. La población se constituye entre personas de sexo masculino y femenino de las generaciones jóvenes, conocidos como nativos digitales, cuyas edades se centran entre la segunda década de vida. Se recolectan datos primarios, a partir de un testeo guiado por tres bloques de preguntas: preguntas de estímulo-inicio, preguntas de desarrollo, bloque de cierre. Los resultados permiten inferir que los nativos digitales gozan de competencia mediática al momento de navegar en entornos digitales, sin que esto implique experticia al momento de interactuar con la desinformación o desarrollar su verificación, para lo cual se reconoce una necesidad formativa. Resulta novedoso y útil, para esta población, el desarrollo y empleo de herramientas que aporten a comprender mejor el fenómeno desinformativo y cómo abordarlo en los entornos cercanos con los cuales se relacionan.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Rocío Elizalde Robles, Claudia Rodríguez-Hidalgo http://rte.espol.edu.ec/index.php/tecnologica/article/view/836 Aplicación de Fuzzy-AHP y COPRAS en la selección de la mejor alternativa para el maquinado a alta velocidad de estructuras delgadas en aleaciones de aluminio Al 5083 2021-08-23T10:48:06-05:00 Hiovanis Pantoja sotosilva74@gmail.com Ángel Infante Haynes ehaynes@uho.edu.cu Roberto Pérez Rodríguez roberto.perez@uho.edu.cu Ricardo Lorenzo Ávila Rondón rlar001@yahoo.com <p>En la siguiente investigación se muestra una metodología que combina el método multicriterio COPRAS y el de inteligencia artificial AHP Difuso, que busca mejorar la toma de decisiones dentro de los procesos de planeación en los talleres de maquinado. El primero de los métodos permite determinar el criterio de mayor importancia a cumplir como exigencia en la fabricación; el segundo método, busca la selección de la mejor alternativa, con los valores para el maquinado a alta velocidad que permita fabricar la pieza rectangular de aleación de aluminio 5083. Para el análisis multicriterio los parámetros seleccionados en el proceso de maquinado de piezas de aluminio de estructura delgada son: la rugosidad superficial y la deformación de la pieza. Al aplicar el método Fuzzy-AHP, se determina que el criterio de mayor peso lo constituye la deformación de la pieza en la estructura delgada. Con la evaluación de los criterios, se aplica COPRAS y el resultado del índice de utilidad determina que la alternativa tres es la mejor, por tanto, al implementar los parámetros de entrada: S = 15000 rpm, doc= 0.30 mm, ts= 7.0 mm, F= 9000 m/min, se garantiza la calidad en la superficie y baja deformación de la pieza. Se concluye que la metodología de Fuzzy-AHP y COPRAS resulta una excelente herramienta, con un bajo costo y buena fiabilidad, como solución a aplicar en los talleres de maquinado para mejorar la toma de decisiones en la planeación de procesos.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Hiovanis Castillo Pantoja, Ángel Infante Haynes, Roberto Pérez Rodríguez, Ricardo Ávila Rondón http://rte.espol.edu.ec/index.php/tecnologica/article/view/837 Virtualización de las asignaturas de estudios generales en la formación universitaria. Propuesta de concepción teórico-metodológica para su aplicación 2021-08-23T10:48:43-05:00 José Medina Crespo jose.medina2807@gmail.com <p>Los estudios generales en la formación universitaria al ser de tronco común en todas las carreras han acarreado problemas de espacio para cumplir con su oferta. Estas asignaturas proporcionan conocimientos y habilidades que complementan la formación profesional. La virtualización permite integrar o reemplazar, según sea el caso, la presencialidad en los procesos de enseñanza-aprendizaje, lo que favorece al ahorro de recursos y la adaptación en espacio-tiempo de las necesidades de los estudiantes y docentes conforme a la disponibilidad de herramientas tecnológicas que en la actualidad forman parte del proceso educativo. Este informe desarrolla una concepción teórico-metodológica con dimensiones y componentes que orientan el proceso de virtualización educativa para los estudios generales en la formación universitaria, como opción para la optimización de recursos y generación de nuevos espacios de aprendizaje basados en dimensiones con dos componentes: el teórico y el metodológico, en el cual se precisan las orientaciones para el desarrollo de la concepción. En el componente teórico se establecen las bases conceptuales de la propuesta mientras que en el componente metodológico se presentan las etapas del componente y sus respectivas acciones para su implementación en las asignaturas de estudios generales en la formación universitaria.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 José Medina Crespo http://rte.espol.edu.ec/index.php/tecnologica/article/view/839 Plataforma para Análisis de Mercado a través de Datos de Redes Sociales 2021-08-23T10:52:17-05:00 Patricio Fajardo Cárdenas patricio.fajardo96@ucuenca.edu.ec Ariel Bravo bravoariel1234@gmail.com Andrés Auquilla andres.auquilla@ucuenca.edu.ec Paúl Vanegas paul.vanegas@ucuenca.edu.ec <p>En la actualidad, en especial en tiempos de pandemia, el comercio electrónico se convierte en la manera predominante de comercializar productos y servicios en el mundo. Un estudio realizado por la Cámara Ecuatoriana de Comercio Electrónico, en el año 2020, demuestra que las compras y ventas a través de canales digitales se han incrementado al menos 15 veces desde el inicio de la pandemia. Por lo tanto, para realizar estudios de mercado las empresas deben buscar nuevas formas de extraer información para luego desarrollar un análisis de la misma y así obtener una ventaja competitiva. La extracción de datos es un proceso complejo y poco escalable, de manera que, esta investigación presenta una metodología para la extracción de información de un sector industrial determinado. La metodología consiste en dos pasos fundamentales, primero se realiza un ranking de las principales fuentes de información disponibles y más utilizadas en un determinado sector de la industria, se consideran varias características y opinión de expertos. Segundo, se propone una plataforma, la cual integra las fuentes de información mejor rankeadas y realiza la extracción de datos. Finalmente, estos datos se presentan en un Dashboard con la disponibilidad de poder descargar y hacer uso en estudios posteriores. Se concluye que las 4 plataformas que mayor beneficio ofrecen para esta investigación son: Google Trends, Facebook, YouTube y Twitter. También existen fuentes de información que al aplicar el análisis propuesto tienen una calificación alta, sin embargo, la extracción de los datos es difícil debido a sus políticas de seguridad.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Patricio Fajardo Cárdenas, Ariel Bravo, Andrés Auquilla, Paúl Vanegas http://rte.espol.edu.ec/index.php/tecnologica/article/view/840 Evaluación del reconocimiento de voz entre los servicios de Google y Amazon aplicado al Sistema Integrado de Seguridad ECU 911 2021-08-23T10:51:28-05:00 Juan José Peralta Vásconez jjperalta@es.uazuay.edu.ec Carlos Andrés Narváez Ortiz carlos.05.narvaez@es.uazuay.edu.ec Marcos Patricio Orellana Cordero marore@uazuay.edu.ec Paúl Andrés Patiño León andpatino@uazuay.edu.ec Priscila Cedillo Orellana priscila.cedillo@ucuenca.edu.ec <p>El reconocimiento automático de voz (ASR) es una de las ramas de la inteligencia artificial que hace posible la comunicación entre el humano y la máquina, logrando que el usuario pueda interactuar con las máquinas de manera natural. En los últimos años, los sistemas ASR se han incrementado hasta el punto de lograr transcripciones casi perfectas, en la actualidad son muchas las empresas que desarrollan sistemas ASR tales como Google, Amazon, IBM, Microsoft. El objetivo de este trabajo es evaluar los sistemas de reconocimiento de voz de Google Speech to Text y Amazon Transcribe con el fin de determinar cuál de ellas ofrece una mayor precisión al momento de convertir el audio en texto. La precisión de las transcripciones se evalúa a través de la tasa de error por palabra (WER) la cual analiza las palabras eliminadas, sustituidas e insertadas con respecto a un texto de referencia de transcripción humana. Después de someter estos sistemas a diferentes ambientes de ruido se observa que el sistema con mayor rendimiento en el proceso de transcripción es el de Amazon Transcribe; por tal razón, se concluye que el servicio de Amazon muestra un mayor desempeño con respecto al servicio de Google tanto con audios con un nivel de ruido de fondo más alto y con audios con un nivel de ruido de fondo más bajo.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Juan José Peralta Vásconez, Carlos Andrés Narváez Ortiz, Marcos Patricio Orellana Cordero, Paúl Andrés Patiño León, Priscila Cedillo Orellana http://rte.espol.edu.ec/index.php/tecnologica/article/view/844 Comparando técnicas de minería de datos en un centro de emergencias 2021-08-23T10:59:05-05:00 Paúl Andrés Patiño León andpatino@uazuay.edu.ec Byron Stalyn Gutiérrez García bgutierrez@es.uazuay.edu.ec Brandon Iván Llivisaca Largo brando@es.uazuay.edu.ec Marcos Orellana marore@uazuay.edu.ec Priscila Cedillo icedillo@uazuay.edu.ec <p>El procesamiento del lenguaje natural es un campo dentro de la inteligencia artificial que estudia cómo modelar computacionalmente el lenguaje humano. La representación de palabras a través de vectores, conocida como Word embeddings, se populariza en los últimos años a través de técnicas como Doc2Vec o Word2Vec. El presente estudio evalúa el uso de Doc2Vec en un conjunto de conversaciones recopiladas por el centro de emergencia ECU911, perteneciente al cantón Cuenca de la provincia del Azuay durante el año 2020, con el fin de clasificar los incidentes para que el operador pueda tomar la mejor decisión, en cuanto a las acciones a realizar cuando se presente una emergencia. Además, se compara Doc2Vec con la técnica Word2Vec para verificar su nivel de desempeño tanto en precisión como en tiempo. A base de las pruebas realizadas se concluye que Doc2Vec tiene un desempeño sólido al utilizar modelos entrenados con gran corpus, superando a Word2Vec en este aspecto.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Paúl Andrés Patiño León, Byron Gutiérrez García, Brandon Llivisaca , Marcos Orellana, Priscila Cedillo http://rte.espol.edu.ec/index.php/tecnologica/article/view/847 Implementación del algoritmo K-means para clusterización de señales EEG durante la aplicación de una prueba Stroop 2021-08-23T10:57:31-05:00 Paúl Cárdenas Delgado paul.cardenasd@ucuenca.edu.ec Daniela Prado daniela.pradoc@ucuenca.edu.ec Bruno Iglesias biglesias@es.uazuay.edu.ec Ronnie Urdiales rurdiales@es.uazuay.edu.ec Marcos Orellana marore@uazuay.edu.ec Irene Priscila Cedillo Orellana priscila.cedillo@ucuenca.edu.ec <p>El análisis de datos y la generación de modelos mediante aprendizaje automático (Machine Learning - ML por sus siglas en inglés) es una de las técnicas más usadas por la comunidad científica para obtener conocimiento que no se puede interpretar o analizar a simple vista. En este documento, se aborda el tema específico de la obtención, procesamiento de datos y modelado de los mismos mediante técnicas de agrupamiento, concretamente el algoritmo de K-Means. Los datos se obtienen a través de una herramienta de interfaz cerebro computador (ICC - BCI por sus siglas en inglés) basada en electroencefalograma (EEG), mientras un sujeto de prueba realiza una tarea de tipo Stroop, la cual permite a los psicólogos evaluar el control inhibitorio de las personas. La aplicación de este tipo de algritmo en esta área especifica, busca poder identificar patrones dentro de las señales EEG relacionados al estado del sujeto. La captura de datos se ejecuta en tres diferentes horas del día, matutina , vespertina, y nocturna, durante dos días consecutivos, con el objetivo de obtener variabilidad en los datos. Si bien la muestra de datos es pequeña, se puede emplear como punto de partida para el análisis del algoritmo K-means en señales EEG durante la ejecución del test Stroop. Los resultados se muestran tanto desde el punto de vista técnico como psicológico, y se puede ver en la clusterización realizada con las señales en el dominio del tiempo, que existe un patrón de agrupación según la hora del día en la que se realiza el test. Por otra parte, para la clusterización con las señales en el dominio de la frecuencia este patrón no resulta tan evidente. Desde la perspectiva psicológica, se comprueba que el proceso de aprendizaje y de acomodación al momento de realizar una prueba psicológica, disminuye su potencial.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Paúl Cárdenas Delgado, Daniela Prado, Bruno Iglesias, Ronnie Urdiales, Marcos Orellana, Priscila Cedillo Orellana http://rte.espol.edu.ec/index.php/tecnologica/article/view/852 Balanceo de un poste, controlado por una inteligencia artificial usando una placa Arduino 2021-08-23T10:52:51-05:00 Jose Luis Revelo Orellana jose.revelo@yachaytech.edu.ec Oscar Chang ochang@yachaytech.edu.ec <p>El proceso de automatización (AP) actual es de gran importancia en el mundo digitalizado, en rasgos generales, representa un aumento en la calidad de producción con el trabajo hecho a mano. El equilibrio es una capacidad natural del ser humano que está relacionada en trabajos y conducta inteligente. Equilibrarse representa un desafío adicional en los procesos de automatización, debido a la presencia de múltiples variables involucradas. Este artículo presenta el equilibrio físico y dinámico de un poste en el que un agente, mediante el uso de aprendizaje por refuerzo (RL), tiene la capacidad de explorar su entorno, detectar su posición a través de sensores, aprendiendo por sí mismo cómo mantener un poste equilibrado bajo perturbaciones en el mundo real. El agente usa los principios de RL para explorar y aprender nuevas posiciones y correcciones que conducen a recompensas más significativas en términos de equilibrio del poste. Mediante el uso de una matriz Q, el agente explora las condiciones futuras y adquiere información de política que hace posible mantener el equilibrio. Todo el proceso de entrenamiento y pruebas se realizan y gestionan íntegramente en un microcontrolador Arduino. Con la ayuda de sensores, servo motores, comunicaciones inalámbricas e inteligencia artificial, todos estos componentes se fusionan en un sistema que recupera constantemente el equilibrio bajo cambios aleatorios de posición. Los resultados obtenidos demuestran que a través de RL un agente puede aprender por sí mismo a utilizar sensores, actuadores genéricos y resolver problemas de balanceo incluso bajo las limitaciones que presenta un microcontrolador.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Jose Luis Revelo, Oscar Chang http://rte.espol.edu.ec/index.php/tecnologica/article/view/853 Enfoque de aprendizaje automático para la estimación de la pobreza multidimensional 2021-08-23T10:56:23-05:00 Mario Esteban Ochoa Guaraca mario.esteban.ochoa@gmail.com Ricardo Castro ricardo.castro@microsoft.com Alexander Arias Pallaroso alexander.arias@ucuenca.edu.ec Antonia Machado antonia.machado@ucuenca.edu.ec Dolores Sucozhanay dolores.sucozhanay@ucuenca.edu.ec <p>En las ciencias sociales ha predominado un análisis teórico en sus investigaciones. La escasez de datos, su dificultad para recolectarlos y almacenarlos, ha sido la principal limitación para que las ciencias sociales adopten enfoques cuantitativos. Sin embargo, la gran cantidad de información generada en los últimos años, principalmente a través del uso de Internet, ha permitido que las ciencias sociales incluyan cada vez más análisis cuantitativos. Este estudio propone el uso de tecnologías como Machine Learning (ML) para solventar esta escasez de datos. El objetivo es estimar el índice de pobreza multidimensional a nivel de persona en un territorio en particular de Ecuador mediante el uso de modelos de regresión de Machine Learning (ML) partiendo de una cantidad limitada de datos para entrenamiento. Se comparan 10 modelos ML, tales como modelos lineales, regularizados y ensamblados. Random Forest se desempeña de manera sobresaliente frente a los otros modelos. Se llega a un error del 7,5% en la validación cruzada y del 7,48% con el conjunto de datos de prueba. Las estimaciones se comparan con aproximaciones estadísticas del IPM en una zona geográfica y se obtiene que el IPM promedio estimado por el modelo en comparación con el promedio informado por los estudios estadísticos difiere en 1%.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Mario Ochoa, Ricardo Castro, Alexander Arias Pallaroso, Antonia Machado, Dolores Sucozhanay http://rte.espol.edu.ec/index.php/tecnologica/article/view/854 Influencia emocional en árbitros de fútbol aplicando tecnologías de sensores 2021-08-23T10:52:33-05:00 Luis Espín Pazmiño luis.espinp@ug.edu.ec Margareth Priscilla Enderica Malo margareth.endericam@ug.edu.ec <p>En el ámbito deportivo, las decisiones arbitrales siempre han estado bajo la lupa de los deportistas, directivos y espectadores, por tal motivo se mantiene en constante evaluación y entrenamiento el tema de reducir el error. Es necesario exponer que la toma de decisiones se puede generar bajo la influencia directa de las emociones, puesto que el proceso de respuestas emocionales es inconsciente y pueden interferir durante el desarrollo de diversas actividades, en este caso, a las relacionadas con el arbitraje. Por ello, se genera un prototipo de sensores en función a los parámetros fisiológicos de la temperatura corporal y la frecuencia cardiaca como patrones de expresión de diversos estados emocionales de este grupo de deportistas, y a base de la representación del modelo de afectividad positiva y negativa, se identifica el estado o cambios de estados emocionales durante la ejecución de un partido. Luego, con uso del material audiovisual se realiza, con criterio de expertos, el análisis de toma de decisiones de los participantes en estas pruebas. Los árbitros participantes, en las pruebas de campo, se les registra con mayor frecuencia dos estados relacionados con valencia positiva y solo un estado de valencia negativa, sin embargo, en la mayoría de los casos, en el análisis de datos se observa que la toma de decisiones se alinea correctamente con el reglamento.</p> 2021-11-26T00:00:00-05:00 Derechos de autor 2021 Luis Espín Pazmiño, Margareth Enderica Malo