Tesis Doctorado
Permanent URI for this collection
Browse
Browsing Tesis Doctorado by Subject "Algoritmos"
Now showing 1 - 6 of 6
Results Per Page
Sort Options
Item Desarrollo de algoritmo de detección de eventos de riesgo para grúas horquillas basado en Deep Learning y Transfer Learning.(Universidad de Concepción, 2024) Radrigán Figueroa, Luciano Ignacio; Godoy Medel, SebastiánEsta investigación tiene como objetivo diseñar e implementar un algoritmo basado en Deep Learning y Transfer Learning para la detección de eventos de riesgo en grúas horquillas, empleando una cantidad limitada de datos. La metodología se estructuró en varias etapas: (1) recopilación y etiquetado de videos según la normativa OSHA 3949; (2) preprocesamiento de datos, incluyendo técnicas de aumento de datos e imágenes; (3) entrenamiento de modelos supervisados para la clasificación de eventos de riesgo; (4) adaptación mediante Transfer Learning de modelos pre-entrenados, optimizando su generalización; y (5) evaluación y validación comparativa frente a herramientas estandarizadas como NVIDIA DeepStream SDK y Amazon Rekognition Custom Labels. El algoritmo propuesto alcanzó un F1-score superior al 0.95, superando el umbral de 0.85 establecido para su aceptación. En comparación, Amazon Rekognition obtuvo por sobre un un F1-score 0.95, mientras que NVIDIA DeepStream SDK logró un 0.83. El modelo desarrollado demostró una mayor eficiencia en el uso de datos para el reentrenamiento y menor tiempo de inferencia en sistemas embebidos, destacando por su menor peso y capacidad para operar en entornos con recursos limitados. Un aspecto crítico fue la capacidad del modelo para generalizar, una necesidad fundamental en el contexto industrial, donde la recopilación de datos etiquetados, especialmente sobre actividades de riesgo, es costosa y limitada. Estas actividades no pueden replicarse intencionalmente debido a las implicaciones de seguridad, lo que plantea desafíos únicos para el diseño de modelos robustos. El uso de Transfer Learning fue clave para superar esta limitación, permitiendo al modelo aprender patrones generales de conjuntos de datos preexistentes y adaptarse eficazmente a nuevas condiciones operativas con pocos datos específicos. Este enfoque no solo mejoró la precisión, sino que también redujo los costos y el tiempo de desarrollo. Asimismo, las pruebas en sistemas embebidos validaron el desempeño del modelo en entornos reales, asegurando su capacidad para operar en tiempo real. Esto resulta crítico para aplicaciones industriales donde la detección rápida y precisa de eventos de riesgo puede prevenir accidentes y optimizar la seguridad y la eficiencia operativa.Item Desarrollo de algoritmos para la clasificación de textos biomédicos utilizando expresiones regulares y aprendizaje activo.(Universidad de Concepción, 2021) Flores Jara, Chistopher Alejandro; Pezoa Núñez, Jorge; Figueroa Iturrieta, RosaLos algoritmos de clasificación de textos, los cuales sirven de apoyo a los procesos de toma de decisiones clínicas, requieren costosos ejemplos de entrenamiento etiquetados por profesionales especializados. El aprendizaje activo (AL) busca disminuir ese costo al reducir el número de textos etiquetados que se requieren para lograr un determinado desempeño en los algoritmos de clasificación. Si bien el AL ha sido estudiado en algoritmos de clasificación lineales y probabilísticos, y recientemente, en algoritmos basados en redes neuronales profundas (DNNs), no ha sido estudiado en algoritmos de clasificación basados en expresiones regulares. Debido a ésto, el objetivo de esta tesis es desarrollar algoritmos para la clasificación de textos biomédicos utilizando expresiones regulares y AL. Las principales contribuciones de este trabajo respecto al uso de expresiones regulares para la clasificación de textos biomédicos corresponden al desarrollo de un algoritmo denominado FREGEX (extractor de características basado en expresiones regulares) para la generación automática un espacio de características utilizando textos biomédicos en español, a un algoritmo denominado CREGEX (clasificador de textos basado en expresiones regulares) que permite clasificar textos biomédicos y a una estrategia de consulta que junto a un criterio de detención transforman a CREGEX en un algoritmo de clasificación de textos biomédicos de AL. Los resultados indican que FREGEX generó un espacio de características representativo para CREGEX y cercano al lenguaje natural. En la mayoría de los casos, el desempeño de CREGEX fue superior a los clasificadores basados en una máquina de soporte vectorial (SVM), Naïve Bayes (NB) y en una representación de codificador bidireccional de transformadores (BERT) en términos de aciertos (ACC) y valor-F (F1), con resultados sobre el 88 % en ambas métricas de desempeño. Las curvas de aprendizaje indican que el AL redujo eficientemente el número de ejemplos de entrenamiento necesarios para obtener un mismo desempeño en términos de ACC y F1 en comparación al resto de los clasificadores. En este sentido, el criterio de detención aplicado al proceso de AL de CREGEX permitió utilizar sólo entre un 32 % a un 50 % del total de ejemplos de entrenamiento, con una diferencia de desempeño inferior al 2 % respecto del valor máximo posible de la curva de aprendizaje.Item Maximizing reliability of data networks to face multiple failures via optimal route selection.(Universidad de Concepción, 2022) Boettcher Palma, Nicolás; Pezoa Núñez, JorgeLas catástrofes naturales, dependiendo de su tamaño y magnitud, pueden producir fallos a gran escala en la infraestructura de la red de telecomunicaciones. Estos fallos pueden provocar interrupciones del servicio debido a la desconexión de los nodos de la red. Para evitar la desconexión de la red, el mecanismo proactivo de tener un par de rutas entre los nodos tiene los tiempos de respuesta más rápidos. Los algoritmos de enrutamiento geo-diverso por regiones son los más utilizados para hacer frente a los desastres geográficos a gran escala, pero restringen una separación mínima entre las rutas y suponen que los fallos pueden ocurrir en cualquier lugar. En este trabajo, consideramos que las catástrofes a gran escala están compuestas por múltiples fallos independientes. Para conseguir una red confiable, proponemos la siguiente metodología. En primer lugar, consideramos un modelo de amenaza basado en una distribución de probabilidad de fallos geolocalizados obtenida a partir de registros históricos. En segundo lugar, desarrollamos un modelo de riesgo en el que la probabilidad de fallo del enlace es proporcional al área de intersección entre la distribución de probabilidad y la zona vulnerable del enlace. Por último, calculamos un par de rutas entre todos los pares de nodos de la red utilizando algoritmos de enrutamiento que minimizan la probabilidad de fallo del par de rutas. Aplicamos nuestra metodología en tres redes del mundo real con incendios detectados por satélites de la NASA. Observamos que nuestros algoritmos de enrutamiento seleccionan diferentes pares de rutas en función de la época de peligro. En promedio, los algoritmos propuestos lograron establecer rutas en más del 99,83% de los casos, superando a todos los algoritmos analizados en el estado del arte. Además, las soluciones de pares de rutas propuestas, fueron capaces de obtener una media de ATTR superior al 99,9% en los escenarios analizados, a pesar de la existencia de múltiples regiones de amenaza, aprovechando el conocimiento de donde se han producido históricamente los fallos.Item Un nuevo algoritmo para analizar sistemas eléctricos de potencia con filtros activos y cargas no lineales.(Universidad de Concepción, 2008) Mahomar Jananía, José Salvador; Morán Tamayo, Luis AlejandroEn este trabajo se presenta un método analítico que permite evaluar el desempeño de las compensaciones tanto shunt, serie e híbridas usando filtros activos. El método está basado en el análisis del arreglo de matrices de transferencia, las cuales relacionan las corrientes inyectadas al sistema eléctrico de potencia y los voltajes de alimentación, con voltajes generados en las barras y las corrientes de ramas. La metodología presenta un enfoque a nivel de sistema completo, a diferencia de otros que consideran al filtro activo y a la red eléctrica como un modelo simplificado. La metodología considera la teoría del análisis nodal del sistema en el plano de la frecuencia, donde toda la red eléctrica se puede representar por sus elementos primitivos, formados por ramas, fuentes de voltaje, impedancia del tipo RLC serie y por fuentes de corrientes conectadas en las barras. Se empieza de la ecuación general de nodos, donde éstas matrices se pueden formar fácilmente, considerando cada fuente por su equivalente Norton. La técnica empleada observa las respuestas de los voltajes de barras y corrientes de rama, al ubicar los compensadores en diferentes puntos de la red eléctrica, lo que corresponde a evaluar la matriz de impedancia de barras, realizando un barrido de frecuencia, evaluando así posibles resonancias, y visualizando cual barra es más sensible. Este método es principalmente gráfico y su gran ventaja radica en que se utilizan las impedancias del sistema completo, las cuales son fáciles de determinar. Esto se valida mediante la aplicación del algoritmo a sistemas con múltiples barras, los resultados evidencian lo útil y eficiente que resulta el método.Item Predicción de eventos tempranos de somnolencia mediante un conjunto de datos multifactoriales en conductores de vehículos.(Universidad de Concepción, 2024) Mora Pantoja, Hermes Javier; Pino Quiroga, Esteban; Echaveguren Navarro, TomásDurante la última década, el número de accidentes vehiculares se ha incrementado signi cativamente, dejando más de un millón de víctimas fatales cada año. Su principal desencadenante está relacionado con fallas humanas, donde la conducción somnolienta, la distracción y fatiga son sus tres principales causas. La somnolencia es el factor humano que más accidentes causa y es el desafío más difícil de superar al momento de mejorar la seguridad en la vía. Los principales estudios muestran que, en Chile, los accidentes de tránsito han pasado a ser la segunda causa de muerte en la población joven menor de 30 años, dejando más de 86 mil accidentes de tránsito en 2022. Además, como la somnolencia es una manifestación de una causa subyacente originada por múltiples factores como la monotonía de la tarea, el entorno del camino, el tiempo transcurrido en la tarea o la privación del sueño previo, no existe un único método para su detección. En este sentido, un sujeto somnoliento tiene una reducida capacidad de percepción del espacio y velocidad, aumentando el tiempo de reacción y reduciendo la coordinación ojo-manos. Esto pone en grave riesgo tanto al conductor como a los demás actores de la vía. En consecuencia, se han diseñado diversos proyectos de investigación y dispositivos basados en señales siológicas del chofer, evaluaciones de su desempeño o datos del vehículo para detectar si el conductor está somnoliento o alerta en cada intervalo de tiempo. Estos dispositivos alertan al automovilista sobre su estado somnoliento presente para que tome acción sobre la situación. No obstante, estimar el tiempo en el cual el conductor experimentará un evento somnoliento dentro de los subsiguientes minutos es mucho más desa ante que monitorear su estado actual. Este enfoque permite alertar al conductor mientras aún tiene una adecuada capacidad de reacción ya que no está bajo efectos de la somnolencia. Por lo tanto, en este trabajo de investigación se expone el diseño de un sistema basado en un algoritmo de regresión y un modelo de pronóstico para estimar el tiempo de ocurrencia del subsiguiente evento somnoliento. En estos modelos se utilizan datos multimodales compuestos por señales de Electroencefalografía (EEG), Electrocardiografía (ECG), Electromiografía (EMG), fuerza de agarre mediante sensores Force Sensitive Resistor (FSR) y datos técnicos del vehículo virtual, obtenidos en un experimento de conducción simulada con 36 participantes. El modelo de regresión utiliza redes CNNs mediante una arquitectura ResNet y genera una salida del nivel de somnolencia para el tiempo t0. El algoritmo de pronóstico está basado en redes Long Short Term Memory (LSTM) bidireccionales y emplea como entrada los resultados del modelo de regresión para estimar el nivel de somnolencia de los siguientes minutos (t0 → t0+n) en intervalos de 28 segundos. Adicionalmente, los modelos implementados también se entrenaron con diferentes combinaciones y categorías de sensores, buscando la mejor categoría y número de electrodos para de nir el sistema con la precisión más alta. Como resultado, el análisis inicial de los datos reveló que al menos el 50% de los participantes experimentó somnolencia a partir de los siete minutos de iniciado el tercer bloque experimental. Asimismo, al utilizar los datos EEG de prueba, el mejor sistema implementado obtuvo un valor test_accuracy de 0.887 en el rango [0 a 5] minutos (t0 → t0+5) y 0.798 a los siete minutos. Además, el modelo de regresión alcanzó un valor test_accuracy de 0.905 al utilizar únicamente datos FSR. Por otro lado, el rendimiento de los modelos propuestos para la etapa de pronóstico se validaron utilizando la métrica Root Mean Square Error (RMSE) en las fases de entrenamiento, validación y prueba con sus respectivos data-sets. Los resultados de este trabajo permiten concluir que es posible utilizar datos siológicos del conductor para pronosticar el tiempo de aparición de subsiguientes eventos somnolientos dentro de una ventana temporal de nida. Asimismo, el uso de datos FSR mostró resultados prometedores en los algoritmos de regresión y pronóstico, toda vez que estos sensores no son invasivos y permiten aplicaciones adicionales como monitorear el confort del conductor y pasajeros al ubicarse en los asientos del vehículo.Item Simulador de Fibras Cerebrales para validar los algoritmos de clustering de fibras y parcelación de la corteza basada en conectividad estructural.(Universidad de Concepción, 2024) Poo Pérez, Elida Rosa; Guevara, Pamela; Hernández, CeciliaLas imágenes de difusión, combinadas con algoritmos de tractografía, permiten reconstruir los principales fascículos de materia blanca de manera in vivo. Diversos métodos han sido desarrollados para procesar los datos generados por la tractografía, con el fin de identificar las principales estructuras y conexiones cerebrales, junto con sus funciones. Entre estos métodos se encuentran el clustering de fibras y la parcelación cortical que son importantes en la neurociencia computacional y han sido la base de varios estudios de materia blanca. Sin embargo, estos métodos carecen de un ground truth. Una alternativa para evaluar la eficacia de estos algoritmos es el uso de conjuntos de datos de fibras simulados. No obstante, la simulación de las fibras cerebrales representa un desafío debido a su forma irregular y compleja. El objetivo de esta tesis es implementar un simulador de fascículos cerebrales para validar los algoritmos de clustering de fibras y parcelación cortical basada en conectividad estructural. Se proponen dos estrategias de simulación: una basada en curvas exponenciales y otra en splines. La primera estrategia utiliza centroides y los extremos de las fibras se modifican con funciones exponenciales. La segunda usa el centroide, un modelo tubular para modelar el fascículo y splines para la representación de las fibras que lo componen. Los algoritmos fueron validados mediante la simulación de fascículos de un atlas de Materia Blanca Profunda. Los fascículos simulados se compararon con los del atlas, y ambos algoritmos mostraron distancias inter-fascículo bajas y altos porcentajes de intersección entre los fascículos originales y los simulados. Sin embargo, el algoritmo basado en splines superó al de las curvas exponenciales, obteniendo valores más altos en las medidas comparativas. Para probar la utilidad del simulador se simularon datos de cerebro completo para evaluar el rendimiento de los algoritmos de clustering: QuickBundles y Fast Fiber Clustering. Los resultados indican que QuickBundles tiende a dividir menos y Fast Fiber Clustering tiende a fusionar menos. La agrupación correcta de los clusters por parte de ambos algoritmos disminuye, cuando se aumenta el número de fascículos. Además, los dos algoritmos de clustering muestran un comportamiento robusto frente a la permutación de los datos de entrada. El simulador basado en curvas splines fue extendido para incluir formas más complejas en los extremos, como las parcelas corticales. Este modelo mantiene la forma tubular en las regiones intermedias y central, mientras que las externas las modela según los vértices de las parcelas. Usando esta extensión del simulador de fascículos y una parcelación basada en distancia geodésica se generó una base de datos simulada de parcelaciones y sus conexiones. Esta base de datos se utilizó para evaluar el comportamiento de un algoritmo de parcelación basado en conectividad estructural. Finalmente, se realizó una comparación entre las parcelas generadas por el algoritmo de parcelación basado en conectividad y las obtenidas por el algoritmo basado en distancia geodésica utilizando el coeficiente de DICE y el Índice de Rand Ajustado, lo que resultó en aproximadamente 120 parcelas similares por hemisferio. El simulador de fascículos cerebrales presentado en este trabajo representa una herramienta innovadora ya que no existe ninguna similar en el estado del arte. En el contexto actual, es el primer simulador de fascículos de fibras cerebrales capaz de evaluar algoritmos de análisis de tractografía cerebral utilizando datos realistas. Además, los códigos del simulador y la base de datos simulada se ponen a disposición de la comunidad científica, facilitando su acceso y uso para futuras investigaciones.