Tesis Magíster
Permanent URI for this collection
Browse
Recent Submissions
Item Evidence-driven simulated data in reinforcement learning training for personalized mhealth interventions.(Universidad de Concepción, 2025) Galgano Cabrera, Giorgio Stefano Ian Michele; Caro Seguel, Juan CarlosItem Una optimización integrada de la producción de madera aserrada y el mantenimiento de los equipos críticos.(Universidad de Concepción, 2025) Seguel González, Waldo Andrés; Contreras Bolton, Carlos EmilioEsta investigación propone un modelo de optimización integrada para la planificación de producción y mantenimiento en aserraderos, considerando las etapas secuenciales de aserrío, almacenamiento en tránsito y secado en cámaras. A diferencia de los enfoques tradicionales que tratan estos procesos por separado, se incorpora la evolución dinámica de la confiabilidad de los equipos críticos, representada mediante distribuciones de Weibull y priorizada con el método estadístico Jack-Knife. El modelo propuesto es formulado como un problema de programación lineal entera mixta, que minimiza el makespan global del sistema bajo restricciones operativas, tanto de mantenimiento como de secuenciación de productos. La solución es validada a través de dos instancias de prueba, una con cuatro productos y otra con nueve productos y diferentes cantidades de cada producto a producir. Los resultados muestran que el enfoque integrado permite reducir el tiempo total de producción, mejorar la disponibilidad de los equipos y disminuir los costos operativos frente a un modelo que no considera el mantenimiento en la etapa de optimización. Además, al incorporar la probabilidad de falla y simular condiciones reales, se observa que el modelo basado en confiabilidad es más robusto y mejora el desempeño en makespan y costos comparado con el modelo sin considerar el mantenimiento desde un principio. Esta propuesta contribuye al desarrollo de herramientas avanzadas para la gestión de activos en la industria forestal, fortaleciendo la sostenibilidad operativa y la toma de decisiones estratégicas.Item Machine Learning-Based Classifier of Gait Profiles of Individuals with Cerebral Palsy treated in the ORITEL Network.(Universidad de Concepción, 2025) Ulloa Barrientos, Rosario María; Pino Quiroga, Esteban JavierThis thesis aimed to develop a gait pattern classifier for individuals with cerebral palsy (CP), using data collected from multiple motion analysis laboratories within the Organización Internacional de Teletones (ORITEL) network. To achieve this, the multicenter database Movement Analysis Network was created and standardized, comprising 156 studies from 8 laboratories, ensuring consistency and comparability across different motion capture systems. Eight machine learning models were evaluated, considering class balancing strategies. The mul tilayer perceptron (MLP) with class weighting achieved the best performance, reaching an accuracy of 82% and Fl-scores of 0.81 for diparesis, 0.63 for hemiparesis, and 0.98 for the control group. Externa] validation on 63 additional trials confirmed the model's generalization capability, although performance for hemiparesis remained lower due to class imbalance. Feature importance analysis and statistical tests (Median, Mann-Whitney U, Cliff's delta, and Bonferroni correction), showed that spatiotemporal parameters such as double support, swing phase, and stance phase, together with specific kinematic features such as minimum angle knee flexion/extesion (acLKFE), were key discriminators between hemiparesis and diparesis. These findings aligned with clinical literature and reinforced the interpretability of the model. An exploratory analysis of treatment associations was also conducted. For hemiparesis, the most frequent treatments were orthoses, orthopedic surgery, and physical therapy, while for diparesis the most common were botulinum toxin, orthopedic surgery, and physical therapy. Although Jimited by incomplete treatment information, this analysis provided preliminary insights and a basis for future studies on treatment effectiveness. In conclusion, this research successfully achieved its objectives: building a standardized multi center database, developing a robust gait classifier, identifying clinically relevant features, and explor ing preliminary associations with treatments. The database Movement Analysis Network represents a substantial contribution to multicenter gait research and has the potential to become a key too! for supporting clinical decision-making in the management of cerebral palsy.Item Parcelación cortical multiescala intersujeto basada en la conectividad cerebral.(Universidad de Concepción, 2025) Molina Muñoz, Joaquín Ignacio; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEl conectoma humano es una red de interacciones entre elementos estructurales y funcionales del cerebro, permitiendo procesar y controlar las funciones corporales. Esta red está compuesta principalmente por dos tejidos: la materia blanca, que corresponde a las vías de comunicación cerebral, y la materia gris, que cumple el rol funcional del cerebro. Asimismo, una parte de la materia gris es la corteza cerebral, la cual puede ser dividida en regiones homogéneas mediante un proceso llamado parcelación cortical, que en general es basado en anatomía, funcionalidad o en conectividad. En particular, las parcelaciones basadas en conectividad estructural, utilizan imágenes de resonancia magnética por difusión (dMRI) y algoritmos de tractografía, que permiten la estimación de fibras cerebrales en forma de polilíneas 3D. Así, es posible subdividir la corteza utilizando clustering sobre la información de conectividad o a partir de la conexión de fascículos de fibras cerebrales. Sin embargo, aún no existe una parcelación aceptada universalmente como referencia y algunas de sus características son inciertas, tales como el número y tamaño óptimo de las parcelas. De la misma manera, la masiva cantidad de datos, variabilidad inter-sujeto y establecer correspondencia espacial entre sujetos, son grandes limitantes para realizar este tipo de estudios. Este trabajo presenta un nuevo método de parcelación cortical multiescala intersujeto basada en conectividad estructural. Este enfoque utiliza atlas de fibras cerebrales para obtener una cantidad razonable de fascículos correspondientes entre sujetos. Los fascículos fueron filtrados y, sus extremos inicial y final fueron intersectados con las superficies corticales de los sujetos, definiendo subparcelas, las cuales fueron agrupadas a partir de un clustering jerárquico en base a su información de conectividad y traslape. Finalmente, se aplicaron distintas particiones, obteniendo distintos niveles de granularidad. Los resultados demuestran un método de parcelación robusto, con un altos índices de reproducibilidad test-retest, en especial para el nivel de granularidad de 200 clusters que obtuvo un índice global de 83%. Se encontraron altos niveles de homogeneidad en la conectividad intra-parcela para la parcelación de 288 parcelas, con un valor global de 0.626, siendo mayor a otros atlas presentes en el estado del arte. Asimismo, se obtuvieron varias parcelas con un valor alto de coeficiente de Silhouette, indicando su alta similitud intra-parcela y baja similitud inter-parcela. El valor de Silhouette global fue 0.208, mayor a los obtenido con otros atlas. También, se calcularon coincidencias con los atlas Desikan, Brainnetome, y los propuestos por Lefranc et al. (2016) y López et al. (2020), encontrando mayores similitudes con los atlas basados en conectividad estructural, siendo el atlas de López et al. el con mayores coincidencias, que presenta 81 parcelas en común con la parcelación propuesta de 288 parcelas.Item Modelos y algoritmos para el Moving Firefighter Problem.(Universidad de Concepción, 2025) Medina González, Claudio Alfonso; Contreras Bolton, Carlos EmilioEsta tesis aborda el Moving Firefighter Problem (MFP), una extensión del clásico Firefighter Problem (FP), que modela la contención de fenómenos que se propagan en redes. El MFP introduce una representación más realista del problema al incorporar el movimiento de los bomberos en la red, cuya capacidad de respuesta depende de las distancias euclidianas entre nodos. Esta consideración hace que el tiempo de protección ya no sea uniforme y aumenta significativamente la complejidad del problema, lo que incrementa notablemente los tiempos de resolución. Actualmente, solo existe un modelo de programación cuadrática en la literatura, que resuelve eficientemente tamaños pequeños del problema. Para enfrentar este desafío, se proponen tres enfoques: un modelo de programación lineal entera, un modelo de programación con restricciones, y una metaheurística basada en el Iterated Local Search y Simulated Annealing (ILS-SA). Este último combina perturbaciones controladas con una búsqueda local con dos tipos de intensidades, junto con un mecanismo de aceptación probabilística dependiente de una temperatura que desciende a medida que avanzan las iteraciones. Esta estrategia permite equilibrar exploración e intensificación, mejorando la calidad de las soluciones y evitando quedar atrapado en óptimos locales. Los modelos y algoritmo propuestos son validados en un conjunto de 160 instancias de la literatura. Los resultados computacionales evidenciaron que el modelo de programación con restricciones logró encontrar mejores soluciones o cercanas al óptimo en tiempos de cómputo considerablemente más bajos que los modelos de programación cuadrática y lineal entera. Por su parte, el ILS-SA obtuvo soluciones competitivas con una notable reducción del tiempo de cómputo, destacando su utilidad para instancias de mayor tamaño o escenarios donde se requiere una respuesta rápida.Item Predicción de la fractura en el conformado incremental de láminas de PVC.(Universidad de Concepción, 2025) Torres Valdés, Luis Alberto; Medina Muñoz, Carlos AndrésEl conformado incremental (ISF) ha emergido como una solución innovadora frente a los procesos tradicionales de conformado de lamina, ofreciendo mayor flexibilidad en la fabricación de piezas especializadas, que se producen en lotes pequeños. El ISF destaca por no usar matrices o utillajes especializados, lo que permite generar geometrías complejas con diferentes materiales. No obstante, su adopción a escala industrial aún se ve limitada por la escasa comprensión de los mecanismos de fractura que se producen durante el proceso, por lo que generar herramientas para predecir la aparición de la falla es el desafío actual. Frente a este escenario, el presente trabajo propone caracterizar un modelo desacoplado de fractura dúctil para el Cloruro de polivinilo (PVC), basado en el modelo Bai-Wierzbiki, con el objetivo de preveer el inicio de la falla en el proceso de conformado mediante el uso de simulaciones numéricas, sin la necesidad de fabricar la pieza. Si bien este modelo fue originalmente desarrollado para metales, en esta investigación se adapta y calibra para su aplicación en láminas poliméricas de PVC, considerando que su comportamiento a temperatura ambiente se asemeja al de un material dúctil. Para ello, se diseñaron y ensayaron probetas que reproducen distintos estados de esfuerzos, caracterizados por la triaxialidad y el parámetro de Lode. Paralelamente, se llevaron a cabo simulaciones de los ensayos mediante el Método de Elementos Finitos (MEF), con la finalidad de determinar los parámetros necesarios para ajustar el modelo de fractura. De esta manera, mediante técnicas de optimización se creó una superficie de fractura en el espacio 3D que indica la deformación a la fractura para distintos estados de carga. La forma asimétrica de la superficie ayuda a que el error relativo promedio sea solo de un 3.2% respecto a los seis ensayos experimentales usados en la calibración. Se evaluó la capacidad predictiva del modelo de fractura mediante la prueba de línea y de tronco cónico realizados por SPIF, obteniendo resultados que, pese a no ser totalmente precisos (error relativo promedio 10.4 %), son coherentes con el comportamiento presentado por la superficie a la fractura. Esta superficie, a pesar de tener una concavidad que difiere con respecto de los metales, se ajusta adecuadamente a lo registrado en literatura sobre la caracterización de la fractura de polímeros, los cuales presentan una mayor tenacidad a la fractura en condiciones de corte que en tracción.Item Propuesta de optimización del agendamiento de citas médicas post alta a partir de epicrisis utilizando programación lineal entera mixta.(Universidad de Concepción, 2025) Valdés Brito, Francisca Belén; Figueroa Iturriaga, Rosa Liliana; Sbarbaro Hofer, Daniel Gerónimo; Cartes Velásquez, Ricardo AndrésEn Chile, la epicrisis resume los diagnósticos, procedimientos, complicaciones e indicaciones de egreso de cada paciente y especifica los controles post-alta que debe cumplir. Actualmente, debido a la falta de sistemas automatizados de priorización, en algunos centros de salud el personal clínico debe trasladas físicamente dichas epicrisis hasta los mesones de interconsulta para gestionar las citas médicas. Este proceso manual no discrimina la gravedad de los casos, generando demoras y distribuyendo de forma desigual la carga asistencial. Esta tesis de magister desarrolló y validó una herramienta de optimización que asigna las citas post-altas de forma automática, equitativa y oportuna, garantizando la atención prioritaria de los pacientes más críticos y respetando las restricciones operativas de los policlínicos. La propuesta integra un Sistema Basado en Reglas (SBR) utilizando las variables clínicas desde la epicrisis junto a un modelo de Programación Lineal Entera Mixta (MILP), para asignar un puntaje de prioridad calculado a partir de diferentes variables como urgencia de diagnóstico, etapa GES (Garantías Explícitas en Salud), edad, entre otras para agendarlo óptimamente a la agenda. El modelo, se definió sobre un horizonte de 20 días hábiles consecutivos segmentados en bloques horarios de 30 min, considerando un total de 276 bloques y una capacidad de 13 box disponibles. El modelo fue validado mediante 14 escenarios agrupados variaciones de demanda y capacidad. En condiciones normales, mantuvo la cobertura total (100%) y redujo el retraso extremo del percentil 95. Ante incrementos progresivos de demanda (hasta +30%), la cobertura permaneció prácticamente completa, y se optimizaron notablemente los retrasos extremos. Escenarios con demanda creciente, se conservó la cobertura total, reduciendo retrasos y liberando horas médicas. Con menos capacidad disponible, también mantuvo cobertura total, disminuyó los tiempos de espera y mejoró la equidad en la distribución de carga laboral. El método sugiere un proceso automatizado centrado en la prioridad clínica, capaz de absorber fluctuaciones de demanda y capacidad sin comprometer la cobertura ni equidad entre casos. Su implementación disminuiría tiempos de espera, optimizaría recursos y liberaría horas administrativas, convirtiéndose en una referencia y modelo para la implementación de soluciones similares en otros contextos hospitalarios.Item Analytical Solution for Optimal Stiffness and Damping for Comfort and Road-Holding in the Half Car Model.(Universidad de Concepción, 2025) Gutiérrez Burgos, Haidar Manuel; Leaman Weiffenbach, Félix AlbertoEsta investigación explora el análisis de covarianza en el Modelo de Medio Vehículo (HCM) para derivar parámetros óptimos de suspensión que maximicen, por separado, el confort y la adherencia. Se modelan las irregularidades del camino como perturbaciones de ruido blanco Gaussiano, excluyendo acciones del conductor y eventos discretos. La investigación comienza reproduciendo técnicas existentes de optimización de la suspensión para el Modelo de Cuarto de Vehículo (QCM, por sus siglas en inglés) utilizando análisis tanto en el dominio del tiempo como en el dominio de la frecuencia. Estos enfoques complementarios producen expresiones analíticas idénticas para parámetros óptimos enfocados en adherencia y confort. Posteriormente, la investigación extiende estas metodologías analíticas al Modelo de Medio Vehículo de un solo eje, incorporando explícitamente una barra estabilizadora como elemento de interconexión. Esta extensión da como resultado expresiones analíticas para los indicadores de rendimiento y coeficientes óptimos de la suspensión. Las ecuaciones derivadas ilustran explícitamente la influencia de la barra estabilizadora, demostrando que los parámetros de la suspensión deben optimizarse considerando las rotaciones angulares del chasis. Se identifican desviaciones significativas en los parámetros óptimos en comparación con soluciones más simples del QCM, lo que resalta la necesidad de tener en cuenta la dinámica del chasis incluso en escenarios sin barra estabilizadora. Para el HCM de dos ejes, se adoptan métodos numéricos debido a la complejidad analítica, especialmente por la correlación con desfase de tiempo. Los resultados revelan configuraciones óptimas asimétricas dependientes de la velocidad, incluso en vehículos simétricos. Un análisis de sensibilidad destaca que la estimación precisa de parámetros impacta más que la modelación del desfase. Este análisis integral supera las limitaciones de modelos simplificados e introduce metodologías avanzadas para optimizar el diseño de suspensiones en términos de confort y adherencia.Item Diseño e implementación de una suite de optimización preliminar del sistema ADCS en CubeSats de observación terrestre en órbitas bajas.(Universidad de Concepción, 2025) Tacul Vargas, Matías Ignacio; Leaman Weiffenbach, Félix AlbertoLos CubeSats, nanosatélites de bajo costo, se han convertido en una herramienta ampliamente utilizada en diversas aplicaciones espaciales, especialmente en misiones de observación terrestre. En este tipo de misiones, es fundamental orientar con precisión la carga útil hacia la superficie terrestre para garantizar la calidad de los datos recolectados. Sin embargo, tanto el rendimiento como el costo de estos satélites dependen en gran medida de las características de los sensores y actuadores que los componen. En este contexto, el presente estudio aborda el desafío de identificar el conjunto óptimo de componentes del sistema de determinación y control de actitud (ADCS), ajustándose a los requisitos específicos de cada misión. Con este propósito, se desarrolló una suite de simulación que modela tanto la dinámica orbital como la actitud del CubeSat, integrando sensores y actuadores en el Subsistema de Determinación y Control de Actitud (ADCS). Esta suite incorpora algoritmos de estimación, como una variante del filtro de Kalman extendido, y controladores LQR o PD según requerimiento. Se diseño una suite de optimización capaz de encontrar un equilibrio entre costo y rendimiento, considerando las restricciones impuestas por los System Engineering envelopes (como masa y potencia) y los Measures of Performance (MoP) definidos por el usuario. Dado que el problema de optimización no es convexo y presenta múltiples mínimos locales, se evaluaron diversos algoritmos, destacando el método de Powell como el más robusto. Este algoritmo, implementado a través del módulo scipy.optimize en Python, demostró una alta capacidad para alcanzar mínimos globales sin requerir derivadas explícitas. Como demostración, se ejecutó un caso práctico de optimización utilizando magnetorquers, donde se seleccionaron componentes físicos óptimos bajo restricciones técnicas representativas de la misión SUCHAI-3. El estudio reveló que para métricas como la agilidad, la autoridad del actuador tiene un impacto crítico, mientras que para métricas como el jitter o la exactitud, la precisión de los sensores es más determinante. Los resultados indicaron que el diseño optimo de un ADCS debe balancear cuidadosamente los SE Envelopes y los MoP según el objetivo de la misión, siendo posible, mediante esta metodología, seleccionar componentes específicos en función de su contribución al rendimiento general del sistema. Esta herramienta será evaluada a futuro como un optimizador no solo aplicable a CubeSats, sino también, con las adaptaciones necesarias, como una solución para otros tipos de vehículos aéreos, como los RPAS, incorporando cambios o mejoras al algoritmo de optimización según los requerimientos de cada plataforma.Item Algoritmo y acelerador hardware para la estimación de cuantiles en propiedades de flujos de red.(Universidad de Concepción, 2025) Gallardo Pavesi, Carolina Sofía; Figueroa Toro, Miguel Ernesto; Hernández Rivas, CeciliaLa medición y análisis del tráfico de datos es fundamental para la gestión y seguridad de redes de datos, ya que nos permite detectar e identificar elementos o eventos que no coinciden con el comportamiento típico, llamados anomalías. Estas anomalías nos ayudan a detectar posibles fallas o ataques. Una red de datos puede ser modelada por conexiones entre dos puntos llamadas flujos. Al analizar la distribución de ciertas propiedades de estos flujos, tales como el número de paquetes (denominado como frecuencia en la literatura) o la cantidad de bytes útiles enviados (payload), podemos detectar anomalías en el corto y largo plazo. Estas distribuciones pueden ser caracterizadas usando cuantiles, donde el cuantil de un elemento es la fracción de elementos del conjunto que son menores o iguales a este. No obstante, para poder tomar acciones correctivas oportunamente, el análisis de esta distribución debe realizarse de manera rápida y en línea. Dado los grandes volúmenes de tráfico y la velocidad de los enlaces modernos, esto es costoso computacionalmente, por lo que un procesador de propósito general es insuficiente para abordar el problema y utilizar aceleradores hardware se vuelve una opción atractiva. Sin embargo, estos dispositivos poseen una cantidad de memoria interna reducida, lo que hace imposible calcular en línea el valor exacto de estos cuantiles para trazas de tamaño típico en redes de alta velocidad, ya que implica almacenar las frecuencias para cada flujo. Como una forma de abordar este problema, se han propuesto estructuras de datos probabilísticas, llamadas sketches, que permiten estimar propiedades de grandes volúmenes de datos, tales como los cuantiles, con una eficiencia espacial alta. Sin embargo, dado que ciertas propiedades de los flujos, tales como la frecuencia, se acumulan a través de múltiples paquetes, éstas deben actualizarse en el sketch cada vez que llega un nuevo paquete. Los algoritmos que permiten trabajar con este modelo asumen un universo (el rango al que pueden pertenecer los elementos insertados) fijo y el espacio utilizado depende del tamaño de este universo, por lo que utilizarlos se vuelve poco conveniente. Por otra parte, se puede utilizar un sketch de estimación de frecuencia que permita acumular el número de paquetes por flujo y realizar el análisis de cuantiles sobre esta información. No obstante, estimar la frecuencia de todos los flujos mediante este sketch no es compatible con las restricciones de memoria ya que requeriría almacenar el identificador de cada flujo en la traza. En trabajos recientes, se ha demostrado que, almacenando únicamente la frecuencia de los flujos más grandes, es posible aproximar la distribución de la frecuencia del resto de los flujos mediante suposiciones respecto a su distribución estadística [1]. En este trabajo, proponemos un algoritmo de estimación de cuantiles que combina un sketch de estimación de frecuencia junto con otras estructuras de datos para estimar la frecuencia de los flujos más grandes. Usando estas frecuencias, estimamos los parámetros de una distribución estadística de tipo power-law que describe la frecuencia del resto de los flujos. Usando esta aproximación y las frecuencias reales de los top-𝐾, se responden dos tipos de consultas de cuantiles: (i) Dado un valor de cuantil, determinar la frecuencia que se encuentra en ese cuantil. (ii) Dada una frecuencia, encontrar el cuantil en el que ésta se encuentra. Adicionalmente, presentamos la arquitectura de un acelerador hardware que implementa este algoritmo sobre un dispositivo FPGA. El algoritmo propuesto responde consultas sobre 9 trazas de CAIDA [2] con un error absoluto promedio entre 0.0004% y 0.0122% para consultas de cuantil dado un valor de frecuencia y un error absoluto promedio entre 0.43 y 2.09 cuentas para consultas de frecuencia dado un valor de cuantil. La arquitectura propuesta fue implementada en un FPGA AMD XCU280 UltraScale+, alcanzando una frecuencia máxima de 392MHz en el procesamiento de paquetes. El acelerador puede recibir un nuevo paquete en cada ciclo de reloj, soportando una tasa de recepción de peor caso de 200Gbps. Por otro lado, la latencia máxima de consulta es de 38.5 𝜇𝑠 para consultas de frecuencia dado un valor de cuantil y 4.2 𝜇𝑠 para consultas de cuantil dado un valor de frecuencia.Item Análisis de las consecuencias económicas y medioambientales del uso de autos eléctricos en Chile.(Universidad de Concepción, 2025) Arancibia Zapata, César Eduardo; Pradenas Rojas, Lorena del Carmen; Jensen Castillo, María MagdalenaThis study evaluates the economic and environmental impacts of electric vehicle adoption in Chile through three scenarios (sustainable, conservative, non-sustainable) for the period 2025-2050. Using machine learning models and international subsidy frameworks adapted to Chilean conditions, we project Battery Electric Vehicles (BEV) market penetration, energy demand, emissions, and consumer costs. Results show that aggressive policy intervention (including 25% purchase subsidies and expanded charging infrastructure) could achieve 100% BEV sales by 2035, reducing transportation CO₂ emissions by 28%. Chile's renewable-dominated grid can support full electrification with only 4% of national generation capacity. Despite a 25% energy penalty from heating in cold climates, BEVs demonstrate 184% lower emissions than conventional vehicles and 18% lower annual costs under supportive policies. Lithium extraction for domestic BEV production poses localized environmental challenges regarding water usage. The transition requires coordinated government intervention combining financial incentives, infrastructure development, and sustainable mining practices to prevent electromobility from becoming exclusive to high-income sectors.Item Parcelación cortical basada en conectividad estructural mejorada para base de datos HCP y su aplicación intra-sujeto.(Universidad de Concepción, 2025) Stockle Cornejo, Martín Ignacio; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEsta tesis se sitúa en el campo de la neurociencia, con un enfoque especifico en la parcelación de la superficie cortical del cerebro humano basada en imágenes de resonancia magnética (MRI). Esta busca dividir la corteza cerebral, la cual es una capa externa y altamente plegada del cerebro, en múltiples regiones basándose en diversos criterios y datos, con el fin de estudiar su función, conectividad y posibles implicaciones en funciones cognitivas y comportamentales, lo cual lo convierte en algo esencial para acercarnos a la comprensión del cerebro humano, la personalización de tratamientos neurológicos y detección de anomalías especificas en individuos. Entre las diversas metodologías existentes para la parcelación cortical, este estudio se centra en el enfoque desarrollado por Narciso Lopez, cuyo método combina el uso de atlas de fibras cerebrales con datos de imágenes medicas de múltiples sujetos, permitiendo obtener una representación promedio de la parcelación cortical. Para ello, se genera a partir de la MRI anatómica de cada sujeto una representación del mallado de la superficie cortical y a partir de la MRI de difusión se genera un conjunto de datos de tractografía, que es una representación de las vías de conexión de la materia blanca del cerebro humano, denominadas fibras neuronales. El método detecta en cada sujeto los fascículos de fibras del atlas y obtiene la intersección de cada fascículo con su mallado de la superficie cortical. A continuación, para cada fascículo, une las intersecciones de todos los sujetos, las que definen las subparcelas preliminares de la superficie. Estas subparcelas se encuentran contenidas en parcelas anatómicas pertenecientes al atlas Desikan-Killiany. Finalmente, estas subparcelas son procesadas y fusionadas, obteniendo una versión promedio de la parcelación de la superficie cortical. La principal contribución de esta investigación radica en la implementación de mejoras al método original para su adaptación a la base de datos del Human Connectome Project (HCP), que cuenta con mayor calidad y representatividad, incorporando mejoras como la incorporación de un nuevo atlas de fibras cortas y la segmentación del atlas de fibras largas, lo que permite aumentar la cobertura de la superficie cortical. Además, se optimizan aspectos clave del algoritmo, como la obtención de centroides para la alineación de fascículos, la eliminación precisa de subparcelas y ti ángulos, y la modificación del calculo de probabilidades. Además, se desarrollan diversos métodos de visualización de fascículos y parcelaciones para apoyar el proceso de elaboración de los algoritmos y la formulación de resultados, tales como una herramienta para visualización de la parcelación de la superficie cortical como una matriz de mallados en la cual se destacan cada parcela por separado, y una herramienta de visualización en una misma figura el mallado, fascículos y parcelas. Por ´ultimo, se evalúa una propuesta para la generación de parcelaciones individualizadas basadas en la parcelación promedio de la superficie cortical, aprovechando el registro del procesamiento de subparcelas promedio para replicarlo en su propio procesamiento de subparcelas individuales, obteniendo en un individuo su propia parcelación de la superficie cortical. Los resultados obtenidos muestran avances significativos en la parcelación promedio, como una cobertura de la superficie cortical mayor, alcanzando un 95.99% de cobertura, que equipara la representatividad de la superficie cortical presentada en atlas anteriores. Sin embargo, persisten desafíos en la generación de parcelaciones individualizadas. Los índices DICE y los porcentajes de cobertura indican que la similitud entre la parcelación promedio y las parcelaciones individualizadas obtenidas con el método propuesto son insuficientes, llegando a tan solo 50.45% de cobertura, donde un 29.49% son de solapamiento, reflejando limitaciones en la capacidad del algoritmo para capturar las características individuales de la conectividad cortical. En conclusión, esta investigación ha logrado avances relevantes en la representación de la conectividad estructural del cerebro humano, mejorando tanto la calidad de las parcelaciones promedio como las herramientas para su estudio. No obstante, la obtención de parcelaciones individualizadas precisa de futuras investigaciones que incorporen nuevas propuestas de procesamiento de las parcelas y nuevas métricas de evaluación para aumentar la certeza de la representatividad de las parcelaciones obtenidas.Item Mineral classification using SWIR hyperspectral imaging: From classical machine learning techniques to transformers.(Universidad de Concepción, 2025) Cifuentes Ramírez, José Ignacio; Rojas Norman, Alejandro José; Garcés Hernández, Hugo OmarThis work provides a comprehensive review of supervised models for hyperspectral imag ing, from classical machine learning techniques to state-of-the-art Transformers. Additionally, this research proposes a multispectral optical sensor that harnesses capabilities from SWIR hyperspectral to SWIR-multispectral for mineral classification using classical machine learning techniques. Furthermore, a novel 1D-RMC model was described using a solid mathematical foundation, thereby ensuring its implementation and performance viability based on previous results levering the spectral domain. Experiments were carried out using three datasets: one containing nine classes of minerals, the second containing reflectance images of 130 samples of 76 distinct minerals, and third, to ensure the 1D-RMC capabilities, the standard hyperspectral dataset "Indian Pines" and "Houston2013.” The results showed that it is feasible to build an optical sensor with five channels to obtain competitive results compared with hyperspectral data using machine learning techniques. Furthermore, the proposed deep learning models out performed the traditional machine learning algorithms by at least 3% in terms of accuracy and F1-score for the mineral dataset. Finally, 10 well-known models, including Transfomers, were compared with 1D-RMC, obtaining competitive results with state-of-the-art backbone network models, suprassing by at least 2% in terms of Overall Accuracy (OA), average accuracy (AA), and Kappa (κ) metrics.Item Evaluación del método de Iosipescu para determinación de resistencia al corte (IFSS) y su aplicación en fibras de carbono recicladas.(Universidad de Concepción, 2025) Romero Yanine, Felipe Nicolás; Salas Salgado, Alexis FidelEl uso de materiales compuestos se ha potenciado durante los últimos años debido a sus altas propiedades especificas. La integridad de la interfase fibra-matriz, se cuantifica utilizando la resistencia al corte interfacial (IFSS), siendo un parámetro clave para garantizar una transferencia de carga eficiente. La critica situación ambiental actual, hace necesario estudiar procesos de recuperación de fibras. La pirólisis de dos pasos, se presenta como un proceso energéticamente conveniente. Sin embargo, el proceso degrada esta interfase al eliminar el sizing y depositar carbón pirolítico, afectando las propiedades mecánicas de las fibras recicladas. Tradicionalmente, el IFSS se evalúa mediante técnicas micromecánicas como el Single Fiber Fragmentation Test (SFFT), las cuales requieren instrumentación especializada y presentan limitaciones en matrices opacas o interfaces con alta adherencia. Frente a ello se propone utilizar ensayos a nivel hebra de Iosipescu como una alternativa accesible, rápida y representativa del comportamiento interfacial en condiciones reales de uso que puede reemplazar el método de Iosipescu. En conjunto, los resultados obtenidos permiten validar parcialmente la aplicabilidad del ensayo de Iosipescu como una técnica complementaria y de menor costo para estimar el IFSS en fibras recicladas por pirólisis. Aunque no sustituye las metodologías a microescala, su uso, ofrece una vía prometedora para complementar la caracterización mecánica de materiales compuestos reciclados, favoreciendo el desarrollo de estrategias sostenibles de reutilización en el marco de una economía circular.Item Superresolución en un sistema plenóptico infrarrojo de onda corta multiespectral.(Universidad de Concepción, 2025) Lermanda Sandoval, Joaquín Alonso; Torres Inostroza, SergioEl avance e invención de nuevas técnicas de captura de imágenes infrarrojas en los últimos años han permitido no solamente obtener imágenes más detalladas, sino que además obtener información de una escena cualesquiera que, sin las previamente mencionadas técnicas, no se podría conocer. Los ámbitos en los cuales se desempeña el infrarrojo (IR) son tan variados como únicos, implicando así que no existe una sola solución correcta para los problemas existentes. Sin embargo, el uso de esta tecnología posee desventajas notorias respecto a otras bandas espectrales, particularmente, la baja resolución de imagen producto de la tecnología del sensor IR, lo que provoca imágenes de baja calidad en una banda espectral que ya posee problemas como el Fixed Pattern Noise (FPN) y blur. La presente investigación se centra alrededor del desarrollo de un sistema plenóptico con las capacidades de resolver la baja resolución del espectro mediante superresolución (SR), en particular del short wave infrared (SWIR), utilizando además un método de eliminación de ruido con características multiespectrales, para generar un sistema óptico completo. Se aumenta la resolución del SWIR mediante iteraciones de un método Plug and Play basado en Alternating Direction Method of Multiplier (ADMM) para asemejarla a otras bandas espectrales como el near infrared (NIR). Posteriormente, se emplean métricas de calidad de imagen para comparar con los resultados obtenidos por otros métodos de SR, desarrollando pruebas de simulación y experimentales. Se eligen escenas donde el objeto de interés a medir posea detalle suficiente para poder realizar comparaciones y donde la componente espectral muestre diferencias, evaluando así el comportamiento de la resolución en varios espectros. Lo anterior resulta en imágenes con resolución aumentada, sin ruido y características multiespectrales variadas que de acuerdo a métricas de imágenes comunes como lo son PSNR, SSIM y una del IR llamada RLP. Comparando con otros métodos de SR, la mejora del método propuesto no solo supera en SSIM, sino que también en eliminación de ruido de manera considerable, generando así un sistema óptico completo.Item Generación automática de una metaheurística para el problema de asignación de cirugías electivas considerando afinidad y preferencias en el equipo quirúrgico.(Universidad de Concepción, 2025) Ríos Fierro, Francisco Alejandro; Contreras Bolton, Carlos EmilioLa programación de cirugías electivas implica asignar pacientes a quirófanos en días y bloques horarios junto con un equipo quirúrgico. Aunque este problema ha sido ampliamente estudiado, la afinidad humana y las preferencias de recursos de los cirujanos, factores que mejoran el bienestar, acortan la duración de los procedimientos y fomentan un mejor ambiente laboral, rara vez han sido incluidos. En enfoques tradicionales, dichos factores se tratan como restricciones duras en los modelos, exigiendo un nivel mínimo de afinidad en cada equipo. Sin embargo, esta rigidez puede reducir el número de cirugías agendadas, una decisión que podría afectar la salud de un paciente. Para mitigarlo, surgieron modelos con sistemas de penalización por puntajes: cada cirujano dispone de un presupuesto diario que le permite integrarse en equipos mejor afinados y acceder a recursos preferidos, manteniendo el equilibrio en las asignaciones. Estos sistemas son incorporados a los modelos matemáticos. Sin embargo, suelen ser muy pesados computacionalmente, requiriendo largos tiempos de ejecución, realidades que pocos hospitales pueden afrontar sin afectar la práctica clínica. Así, esta tesis propone un framework de generación de un algoritmo metaheurístico, capaz de resolver la asignación de cirugías electivas en plazos cortos y de ofrecer soluciones competitivas. La generación automática explora todo el espacio de parámetros sin necesidad de calibración manual, garantizando una calidad difícil de alcanzar por ajustes convencionales. Para la calibración, se diseñan doce operadores de diversificación, diez de intensificación, dos de destrucción, tres constructores de soluciones iniciales y tres criterios de aceptación. Este conjunto de operadores equilibra búsqueda global y local, aumentando la robustez de la metaheurística en diversos escenarios. Se implementó un framework para llevar a cabo la calibración automática, seleccionando iterativamente las mejores combinaciones de operadores y parámetros. La metaheurística resultante se comparó con modelos matemáticos de la literatura y con metaheurísticas clásicas en tres tiempos limites definidos. Los resultados muestran que el algoritmo generado automáticamente produce mejores soluciones que los modelos matemáticos en el mismo tiempo y se sitúa en primer lugar frente a las metaheurísticas clásicas. Su implementación en un hospital ofrece menores tiempos de cómputo y mayor eficiencia operativa ante la llegada constante de pacientes, además de formar equipos quirúrgicos con mejor afinidad, repercutiendo positivamente en el bienestar del personal y de los pacientes.Item Estudio del desgaste y la energía de la conminución en un molino rotatorio utilizando el método de elementos discretos.(Universidad de Concepción, 2025) Ruiz Sepúlveda, Cristóbal Andrés Ignacio; Vicuña Molina, Cristián JavierLos molinos son máquinas rotativas que se utilizan en diversas industrias para la reducción de tamaño de materiales. Se destaca la industria minera por emplear estos dispositivos en los procesos de conminución de mineral. Estos equipos están compuestos principalmente por un rotatorio horizontal revestido internamente para proteger la superficie contra el desgaste y transmitir energía a la carga. Además, pueden operar bajo diversas combinaciones de nivel de llenado y de carga, donde cada condición operativa tendrá un efecto en su rendimiento, ya sea en términos del desgaste de sus recubrimientos o de la energía de conminución. Actualmente, estos equipos presentan dos problemas principales. El primero, es que solo entre el 1% y el 5% de la energía total suministrada se utiliza en la conminución de mineral, desperdiciándose el resto en forma de calor o por colisiones elásticas entre la carga. El segundo, es el desgaste de los recubrimientos, siendo la principal causa de la disminución del tiempo de operación y el aumento de los costos de mantenimiento. Dado que estos equipos han mantenido su diseño y metodología de trabajo debido a los altos costos de transición, resulta más conveniente ajustar las condiciones operativas para el desarrollo de estrategias de operación. Entre las investigaciones realizadas sobre molinos, no existen estudios que permitan identificar que condición(es) de operación permite(n) tener una menor tasa de desgaste en los recubrimientos, y al mismo tiempo, obtener un mayor beneficio respecto a la eficiencia energética de la conminución. Esto se debe a que, en la mayoría de estos estudios se centran en analizar el efecto del desgaste o la energía de la conminución bajo una única condición operativa, sin tener en cuenta cambios simultáneos en el nivel de llenado y la velocidad de rotación. Además, estos temas se han estudiado de forma independiente, sin establecer una relación entre ambos. En esta investigación se estudia el efecto de las condiciones operativas en el desgaste de los recubrimientos de un molino rotatorio a escala de laboratorio. Se desarrolla un modelo de elementos discretos (DEM), el cual considera la velocidad de rotación y el nivel de carga como variables operativas. El modelo es validado experimentalmente para múltiples condiciones operativas mediante la comparación de torque, distribución espacial de la carga y fuerza normal. Se propone una metodología para centralizar el estudio del desgaste mediante los modelos de Archard, SIEM, Finnie y Bitter. Por otro lado, para las mismas condiciones operativas, se evalúa la eficiencia del proceso de conminución, donde se analiza la energía de impacto y de corte en la carga. Se desarrolla un procedimiento visual para conocer la distribución energética en el interior del molino. En cuanto a los modelos de desgaste, los resultados muestran que los modelos Archard y SIEM predicen de manera similar las mismas zonas de desgaste. Cuando existen impactos, el modelo de Finnie subestima el daño por desgaste a comparación con el modelo de Bitter. Por lo general, un incremento en el nivel de llenado disminuye el desgaste, especialmente a bajas velocidades. En cambio, un incremento en la velocidad de rotación aumenta el desgaste cuando no existen impactos. Sin embargo, a elevadas velocidades, su efecto en el desgaste dependerá de la cantidad de carga suspendida en el aire y la aglomerada. En cuanto a la energía de la conminución, la forma de la distribución energética está relacionada con el desgaste en los recubrimientos, la cual a su vez dependerá de la condición operativa del molino. Un incremento en el nivel de llenado disminuye el rendimiento del equipo. Un incremento en la velocidad de rotación, por lo general, tiende aumentar las energías de impacto y de corte.Item Evaluación experimental de un interferómetro óptico para señales de telecomunicaciones.(Universidad de Concepción, 2025) Melo Dospital, Cristóbal Alberto; Saavedra Mondaca, Gabriel Alejandro; Moreira Lima, Gustavo de AquinoEl crecimiento exponencial en la demanda de datos ha impulsado el desarrollo de nuevas tecnologías, capaces de ampliar la capacidad de las redes ópticas actuales. Las fibras ópticas multinúcleo representan una solución prometedora, permitiendo aplicar técnicas de multiple xación por división espacial y superar las limitaciones de las fibras monomodo. Sin embargo, su adopción depende del desarrollo de dispositivos compatibles capaces de gestionar y con mutar señales entre los diferentes núcleos. Este trabajo presenta el diseño, implementación y evaluación experimental de un conmutador óptico de alta velocidad basado en un interferómetro Mach-Zehnder con una configuración 4x4, utilizando divisores de haz multinúcleo. El dispositi vo emplea interferencia óptica para realizar conmutaciones en menos de 0.7 µs, tres órdenes de magnitud más rápido que los conmutadores microelectromecánicos actuales, con un crosstalk promedio inferior a-18 dB, destacando su aplicabilidad en redes ópticas avanzadas. Para garantizar coherencia temporal en la transmisión, se compensaron los retardos entre ca minos con segmentos adicionales de fibra. Las pruebas experimentales incluyeron transmisiones entre 1 y 600 Gbps, usando modulaciones QPSK, 16-QAM y 64-QAM. Se evaluaron visibilidad interferométrica, crosstalk, tiempo de subida, penalización en la tasa de error de bits y relación señal a ruido óptica. Se observaron valores de visibilidad superiores a 0.90 tanto en configuraciones interfero métricas 2x2 como 4x4. Específicamente, para velocidades de transmisión de 1 y 10 Gbps, la visibilidad promedio se mantuvo alrededor de 0.94, con una relación señal a ruido óptica supe rior a 40 dB. En transmisiones de mayor velocidad, la visibilidad alcanzó valores cercanos a 0.93 para modulación QPSK, 0.91 para 16-QAM y aproximadamente 0.76 para 64-QAM operando a 72 GBaud, evidenciando una mayor sensibilidad al ruido de emisión espontánea amplificada en modulaciones de orden superior, lo cual resalta la necesidad crítica del control preciso de esta relación para garantizar el rendimiento óptimo del sistema. Finalmente, se evaluó la operación del dispositivo con múltiples longitudes de onda en un escenario WDM, demostrando su viabilidad técnica para futuras redes basadas en MCF. Parte de los resultados de este trabajo fueron presentados oralmente en la Latin American Optics and Photonics Conference 2024 y publicados en la revista Nature Communications Engineering.Item Desempeño sísmico de pilotes geotérmicos.(Universidad de Concepción, 2025) Calderón Cuminao, Javiera Valentina; Montalva Alvarado, Gonzalo AndrésDada la necesidad presente de generar fuentes de energía sustentables, el uso de la energía geotérmica y las aplicaciones en el campo de la ingeniería civil se ha propuesto el uso de los Pilotes Geotérmicos, los cuales cumplen una función dual como intercambiadores de calor y cómo elementos de fundación. Durante su operación, los pilotes geotérmicos son sometidos a cambios de temperatura, los que inducen deformaciones y esfuerzos en el material circundante. La respuesta de la interfaz suelo-pilote, alterada por los cambios térmicos y sometida a cargas sísmicas, no es clara. Este estudio evalúa la respuesta sísmica de los pilotes geotérmicos, analizando desde una perspectiva multidisciplinaria los efectos de los ciclos térmicos sobre el suelo y el eventual cambio en su comportamiento mecánico y dinámico. Empleando PLAXIS 2D, se utiliza el método de elementos finitos para modelar un pilote geotérmico aislado sometido a variaciones de temperatura, carga estática y carga sísmica. Los ciclos térmicos producen una redistribución de los esfuerzos y variaciones en la resistencia de fuste en régimen estático. Se estudió la respuesta sísmica del pilote analizando el efecto de los ciclos térmicos en los asentamientos sísmicos obtenidos. Dichos asentamientos fueron fuertemente influenciados por el contenido de energía del movimiento incidente, el que se caracterizó por medio de la Duración Significativa (D05-95) y la Velocidad Absoluta Acumulada (CAV). Se obtuvo un grado elevado de correlación entre el CAV y los asentamientos sísmicos. Se encontraron diferencias entre un 3% y un 5% en los asentamientos sísmicos obtenidos para un mismo registro sísmico y distintos ciclos térmicos. Similarmente, se obtuvieron diferencias del 1% en la tensión admisible. El estudio realizado arroja luces sobre la aplicabilidad de los pilotes geotérmicos en ambientes activos sísmicamente.Item Voxel and streamline based multimodal variational autoencoder for fiber segmentation in tractography.(Universidad de Concepción, 2025) Navarrete Caro, Sebastían Andrés; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaLas imágenes de resonancia magnética por difusión (dMRI) son una técnica no invasiva que mide la difusión de las moléculas de agua en el cerebro. En la materia blanca, esta difusión es anisotrópica y sigue predominantemente la dirección de los axones neuronales. Utilizando modelos de difusión, es posible estimar la orientación local de las fibras en cada vóxel. Mediante algoritmos de tractografía es posible generar reconstrucciones tridimensionales de los tractos de materia blanca, denominados datos de tractografía. Estos datos pueden incluir cientos de miles o incluso millones de fibras, lo que hace necesaria su segmentación para identificar aquellas relevantes para el estudio. La segmentación manual por expertos, aunque considerada el estándar de oro, no es viable en grandes bases de datos debido al tiempo requerido y a la variabilidad entre expertos. Por ello, se han desarrollado distintos algoritmos de segmentación automática de datos de tractografía a lo largo de los años. Esta tesis presenta un nuevo enfoque para la segmentación de fibras cerebrales basado en el uso de un autoencoder variacional multimodal, que integra tanto información espacial de las tractografías como información anatómica proveniente de distintas modalidades de MRI. El método fue entrenado utilizando conjuntos de datos de tractografía probabilística de la base de datos pública HCP y evaluado comparando los resultados de la segmentación con los fascículos de referencia empleados en la creación del algoritmo TractSeg. El método de segmentación propuesto opera en el espacio latente del modelo entrenado, donde se aplica un algoritmo de clasificación basado en radio. Este algoritmo fue optimizado para permitir el uso eficiente de radios personalizados para cada clase, y se desarrolló un procedimiento automático para la optimización de dichos radios. Además, se analizaron distintas combinaciones de datos de entrada, encontrándose que el modelo que incluye información de tractografías, imágenes de anisotropía fraccional (FA), imágenes T1w y los primeros picos de la fODF obtuvo el mejor desempeño. El desempeño del método propuesto fue evaluado en la segmentación de 66 fascículos de 30 sujetos, comparándose con el método de segmentación TractSeg. Los resultados indican que el método propuesto permite segmentar una mayor cantidad de fibras con una menor distancia entre ellas y una mayor co rrelación de densidad de los fascículos, aunque con un desempeño ligeramente inferior en las métricas basadas en máscaras.