Tesis Magíster
Permanent URI for this collection
Browse
Recent Submissions
Item Ubicando pares de vértices en ciclos hamiltonianos.(Universidad de Concepción, 2026) Zúñiga Cavieres, Daniel; Sanhueza Matamala, NicolásEn esta tesis daremos una demostración a la conjetura de Enomoto para grafos de tamaño lo suficientemente grande. Enomoto conjeturó que si un grafo con n vértices tiene grado mínimo al menos n/2 + 1, entonces para todo par de vértices x, y existe un ciclo hamiltoniano C tal que la distancia de x a y en el ciclo C es exactamente ⌊n/2⌋. Nuestra demostración no utiliza el Lema de Regularidad de Szemerédi, por lo que el valor mínimo de n para el cual nuestro resultado es cierto es considerablemente menor al conocido hasta la fecha. Nuestra principal herramienta es la Tricotomía de los grafos de Dirac, además de distintos resultados que aseguran la existencia de caminos hamiltonianos entre cualquier par de vértices, y resultados relacionados a grafos expansores robustos.Item Desarrollo de sistema para medir y ajustar la presión de las telas sobre la piel en personas que han sufrido quemaduras.(Universidad de Concepción, 2026) Moraga Ramírez, Valeria Constanza; Aqueveque Navarro, Pablo EstebanLas quemaduras graves representan un desafío significativo para la salud a nivel mundial, en términos de discapacidad motora y además estético, por lo que prevenir la aparición de cicatrices hipertróficas y favorecer una cicatrización adecuada es primordial. Hoy en día existen diversos tratamientos que tienen esto como objetivo, donde se destaca la terapia de compresión por sus beneficios tanto en la mejora de las características fisiológicas y estéticas de las cicatrices, como en el manejo del dolor. No obstante, la presión ejercida por las prendas no suele medirse directamente, sino que se estima un valor ideal de acuerdo con lo visual y sensación del paciente, esto principalmente por la falta de sistemas de medición para este propósito. Por esto, se plantea el desarrollo de un sistema usando sensores, que permita medir con precisión la presión ejercida por las telas sobre la piel, facilitando así al personal médico la evaluación de la efectividad del tratamiento. Dado que este trabajo se enfoca en el tratamiento con cicatrices, se realiza una búsqueda de sensores que posean alta sensibilidad y adaptabilidad, especialmente en condiciones húmedas, y que puedan ser utilizados en esta área delicada. En primera instancia se diseña un prototipo usando sensores capacitivos para monitorear la presión, donde los se concluye que la relación capacitancia vs. presión difiere de lo esperado, presentando valores superiores a los en la literatura. Esto se atribuye al diseño y configuración de los sensores, y a la conductividad de la piel en contacto directo con este. Por esto, y a partir de la revisión bibliográfica, se reformula el sistema de monitoreo utilizando medición de presión neumática mediante una compresa de aire. Esto también permite explorar la condición de ajuste manual de presión, como una propuesta de aumento de compresión provisoria en el tratamiento. La calibración muestra una relación lineal entre la presión teórica y la medida, junto con una adecuada precisión y estabilidad temporal. Las pruebas realizadas evidencian que la anatomía de la mano influye en la variabilidad de las mediciones, siendo mayor en zonas palmares complejas y menor en superficies más planas. Del mismo modo, el ajuste de presión entre 20 a 25 mmHg también se consiguió, donde en las 4 zonas medidas las pendientes registradas en el minuto de medición post intervención no son significativas, y según el análisis estadístico presenta características asociadas a una distribución normal. En conjunto, los resultados confirman que la medición neumática y ajuste constituye una alternativa viable y confiable para cuantificar objetivamente la presión ejercida por prendas compresivas.Item Segmentación automática del test Timed Up and Go mediante BiLSTM con datos de una IMU: extracción de biomarcadores cinemáticos.(Universidad de Concepción, 2025) Rojas Sandoval, Loreto Valentina; Aqueveque Navarro, Pablo EstebanEl Timed Up and Go (TUG) es una prueba funcional ampliamente utilizada para evaluar la movilidad, el equilibrio y el riesgo de caídas, especialmente en adultos mayores y personas con patologías neurológicas. Sin embargo, su enfoque tradicional basado en el tiempo total presenta limitaciones significativas al no considerar aspectos cualitativos del movimiento, como la estabilidad durante los giros y la coordinación al levantarse. Para abordar estas limitaciones, la integración de unidades de medición inercial (IMU) y algoritmos, ha permitido segmentar el TUG en subetapas específicas, mejorando la precisión en la detección de deficiencias motoras. Este trabajo propone un método automatizado para la segmentación de las seis subetapas del TUG utilizando una única unidad de medición inercial (IMU) ubicada en la región lumbar y un modelo de aprendizaje profundo basado en arquitecturas BiLSTM. Se recopilaron 315 ensayos de TUG provenientes de participantes de distintos rangos etarios y niveles funcionales, incluyendo sujetos sanos y personas con disfunción. Las señales inerciales fueron preprocesadas y etiquetadas manualmente en Label Studio para generar el dataset de entrenamiento. El modelo BiLSTM, compuesto por dos capas bidireccionales apiladas y una capa fully connected final, fue entrenado con un split 80/20 utilizando Adam, una tasa de aprendizaje de 0.0005 y 150 épocas. El modelo alcanzó un desempeño robusto, con precisiones y F1-scores superiores al 90% en la mayoría de las subetapas, y errores temporales (MAE) entre 0.28 y 0.40 segundos. La comparación con evaluadores clínicos demostró una alta concordancia, con ICC de hasta 0.98 para el tiempo total del TUG y valores de MAE similares a los observados entre los propios clínicos. Además, la segmentación automática permitió la extracción de 60 biomarcadores cinemáticos y temporales seleccionados mediante Recursive Feature Elimination (RFE), los cuales presentaron una alta capacidad discriminativa entre grupos etarios y funcionales (AUC de hasta 0.98 en la etapa de segundo giro). Finalmente, se establecieron rangos de referencia estratificados por edad para los biomarcadores derivados, y se observaron correlaciones significativas con la edad en varios de ellos, lo que confirma su relevancia clínica. Los resultados sugieren que este enfoque basado en una única IMU y un modelo BiLSTM constituye una herramienta precisa, reproducible y clínicamente útil para la segmentación automática del TUG y la caracterización del movimiento humano.Item Estudio mecanístico mediante espectroscopía infrarroja in situ de la oxidación selectiva de metanol sobre catalizadores de molibdeno y vanadio.(Universidad de Concepción, 2025) Fuentes Soto, Bastián Alexis; Karelovic Burotto, Alejandro IvánMethanol oxidative dehydrogenation on titania supported metal oxide catalysts was studied to clarify different mechanistic proposals reported in the literature. Operando spectroscopic and isotopic transient experiments under controlled reaction conditions, combined with correlations between catalyst structure and product distribution, revealed how the nature of redox sites governs the methyl formate formation and integrates the reaction pathways into a coherent framework. Sub-monolayer MoO3/TiO2 and V2O5/TiO2 catalysts, dominated by highly dispersed interfacial M–O–Ti linkages (M = Mo, V), stabilize formate-type intermediates which favor methyl formate production through the formate–mediated route. In contrast, catalysts featuring crystalline M–O–M domains promote the hemiacetal intermediate, where less stabilized intermediates lead directly to methyl formate and dimethoxymethane formation. These results indicate a common mechanistic framework for both Mo– and V–based systems, in which the dominant pathway is selectively expressed depending on the nature and distribution of redox sites rather than on the metal identity itself. Isotopic labeling and transient experiments rule out extensive methoxy exchange and the Tishchenko pathway for methyl formate formation, under the studied conditions. Differences in intermediates stabilization, active sites distribution, and kinetic isotope effects account for the observed variations in reaction orders and selectivity. Overall, the study demonstrates that the formation of oxygenates in methanol oxidative dehydrogenation critically depends on the type of redox site involved, establishing a structural – mechanistic framework that rationalizes the behavior of MoO3/TiO2 and V2O5/TiO2 catalysts and can be extended to other reducible oxide systems engaged in selective oxidation reactions.Item Multiplicación de matrices booleanas comprimidas mediante bicliques.(Universidad de Concepción, 2025) Araya Durán, Nicolás Enrique; Hernández Rivas, CeciliaLa multiplicación booleana de matrices es una operación fundamental en numerosas aplicaciones basadas en grafos, como el análisis de redes web y sociales, la recuperación de información y la evaluación de consultas sobre grafos. No obstante, las representaciones dispersas convencionales, como CSR y CSC, siguen implicando cos tos significativos de espacio y tiempo cuando se aplican a grafos de gran escala. En este trabajo, hemos desarrollado una representación basada en bicliques que comprime matrices booleanas mediante su descomposición en subgrafos bipartitos densos, capturando así grandes conjuntos de aristas de manera implícita. En primer lugar, mejoramos el algoritmo iterativo de extracción de bicliques de Hernández y Navarro mediante la incorporación de una adaptación de parámetros basada en percentiles, la cual ajusta dinámicamente dichos parámetros según la distribución de grados, reduciendo el tiempo de cómputo de extracción y aumentando la tasa de compresión. Luego, extendemos el algoritmo de multiplicación de Schoor para operar directamente sobre matrices codificadas con bicliques, permitiendo una forma composicional de multiplicación en la que la salida también puede representarse como una colección de bicliques. Nuestros resultados experimentales demuestran que nuestro enfoque logra reducciones en espacio y tiempo de cómputo, alcanzando aceleraciones de hasta 200× en comparación con implementaciones basadas en CSR/CSC, y una competitiva cantidad de bits por arista comparado con el k2-tree. Estos resultados demuestran que la compresión basada en bicliques ofrece un equilibrio efectivo entre compresión y operatividad algebraica para el procesamiento de matrices booleanas a gran escala.Item Análisis de la asimetría estructural y funcional del cerebro a lo largo de la vida usando base de datos del HCP de envejecimiento.(Universidad de Concepción, 2025) Vergara Donoso, Catalina Antonia; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEl envejecimiento cerebral conlleva cambios graduales en la estructura y funcionalidad del cerebro, afectando las capacidades cognitivas y los patrones de comportamiento. En este contexto, la asimetría cerebral, entendida como la diferencia entre los hemisferios, ofrece información valiosa sobre la organización cerebral y puede contribuir a la detección temprana de alteraciones estructurales asociadas a enfermedades neurodegenerativas. El presente estudio analizó cómo el envejecimiento influye en la asimetría cerebral, mediante el análisis de métricas estructurales (materia gris y blanca) y funcionales del cerebro. El objetivo principal fue caracterizar las asimetrías de la conectividad estructural y funcional en individuos sanos. Para ello, se utilizó la base de datos del Human Connectome Project– Aging, que incluye datos de 725 sujetos con edades comprendidas entre los 36 y 100 años. Mediante la aplicación de modelos estadísticos, se identificaron patrones específicos de asimetría asociados al envejecimiento. Los resultados evidenciaron tanto tendencias lineales como no lineales, observadas en métricas estructurales y funcionales. Además, se evaluó la relación entre estructura y función, identificándose un componente significativo que vincula una métrica de la materia gris con una de conectividad funcional, sugiriendo una correspondencia entre la organización anatómica y la dinámica funcional del cerebro. En la materia gris, se encontró un componente principal significativo para el área superficial, compuesto por 2 regiones, para el espesor cortical medio, 3 componentes principales que en conjunto incluyen 21 regiones corticales, y para el volumen, 2 componentes principales que abarcan 4 regiones subcorticales en total. Se destaca que, para la métrica de volumen, el cambio de los componentes principales se explicaba en un 7.13% por la edad, siendo este el valor más alto entre las métricas de materia gris, mientras que el área superficial presentó el valor más bajo, con un 2.64%. En la materia blanca se observó, en general, una mayor variabilidad asociada con la edad en comparación con la materia gris, coincidiendo con lo reportado en la literatura. De manera más específica, las fibras cortas, a diferencia de las largas, muestran una mayor variabilidad con la edad. Esto podría estar relacionado con el hecho, descrito en la literatura, de que las fibras cortas poseen menor cantidad de mielina que las fibras largas, lo que las puede hacer más susceptibles a procesos de desmielinización vinculados al envejecimiento y reflejarse en una mayor vulnerabilidad estructural. Dentro de las fibras cortas, se destaca la métrica promedio de anisotropía fraccional (FA), donde el cambio de los componentes principales se explicaba en un 26.96% por la edad, siendo este el valor más alto entre las métricas de materia blanca y gris. La métrica promedio de difusividad media (MD) presentó el valor más bajo, con un 7.56%. En las fibras largas, el mayor valor correspondió a la métrica promedio de difusividad axial (AD) con un 5.16%, mientras que la menor fue la anisotropía cuantitativa (QA) con un 3.5%. Respecto a los componentes principales en fibras cortas, se identificaron un total de 7 componentes significativos en la métrica de FA, compuestos por 22 fascículos. En QA se obtuvieron 4 componentes principales, que en conjunto incluyen 15 fascículos. Para AD se identificó un componente con 4 fascículos, para RDuncomponentecon3fascículosyparaMDuncomponentecon3fascículos.Enfibraslargas, para la métrica promedio de FA, un componente principal significativo compuesto por 2 fascículos, en QA, un componente compuesto por 2 fascículos, en AD, un componente compuesto por 4 fascículos, en RD, un componente compuesto con 3 fascículos, y en MD, 2 componentes que abarcan un total de 6 fascículos. En la conectividad funcional, se observó que la métrica de longitud del camino más corto presentó el mayor porcentaje de variación asociado a la edad, con un 56.07%, superando al resto de las métricas funcionales y estructurales. Esto sugiere que los cambios en la eficiencia de integración funcional del cerebro son particularmente sensibles al envejecimiento y podrían reflejar procesos de reorganización de la red funcional. Estos hallazgos, pueden servir como referencia para futuras investigaciones, facilitando la compa ración con poblaciones que presentan alguna patología neurológica y contribuyendo a una evaluación más precisa de cómo estas condiciones afectan la asimetría cerebral en contraste con el envejecimiento normal.Item Superficial FES Techniques for Improving Hand Dexterity in Neurorehabilitation.(Universidad de Concepción, 2025) Sáez Acuña, Javier Ignacio; Aqueveque Navarro, Pablo Esteban; Andrews, Brian James; Saavedra Rodríguez, Francisco AndrésLa presente tesis aborda los desafíos asociados con los déficits motores del miembro superior posteriores al accidente cerebrovascular. Centrando la investigación en la FES como modalidad terapéutica, se busca mejorar la precisión, eficacia y accesibilidad de la estimulación eléctrica superficial para la rehabilitación de la destreza manual. Las técnicas actuales presentan limitaciones relevantes, como baja selectividad muscular y malestar durante la terapia. La literatura destaca tres conceptos para optimizar neuroprótesis no invasivas: (1) rediseño geométrico de electrodos hacia configuraciones concéntricas para focalizar el campo eléctrico; (2) uso de manufactura aditiva para crear nuevas geometrías; y (3) aplicación de estímulos de media frecuencia para reducir la impedancia cutánea y mejorar la comodidad. No obstante, persisten vacíos respecto al impacto de estos enfoques en terapias FES, lo que constituye el foco de esta tesis. La metodología comprende cuatro fases: diseño de electrodos, modelación computacional, prototipado mediante manufactura aditiva y pruebas in vivo en sujetos sanos. Los resultados indican que los electrodos concéntricos generan un campo eléctrico más localizado (r₀.₅: 16,3 mm vs. 24,4 mm), y que el proceso de impresión 3D permitió fabricar electrodos flexibles y biocompatibles a bajo costo (~2,4 USD). En pruebas in vivo, la selectividad aumentó un 32% y la estimulación interferencial redujo significativamente el malestar (VAS: 3,75 ± 1,98 a 2,12 ± 1,73). En conjunto, la tesis demuestra que optimizar la geometría de los electrodos y los parámetros de estimulación mejora la selectividad y la comodidad en FES superficial, aportando bases para futuras terapias no invasivas orientadas a tareas y personalizadas para cada paciente.Item Estudio de alteraciones en la conectividad estructural y funcional del cerebro basado en imágenes de resonancia magnética de pacientes con psicosis temprana.(Universidad de Concepción, 2025) Frías Leiva, Paola Lorena; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEn las últimas décadas, investigaciones se han centrado en comprender las bases de la psicosis y sus posibles causas, donde se incluyen factores genéticos, anomalías cerebrales y factores ambientales. Un enfoque clave en la actualidad es el estudio de las fibras de la materia blanca, debido a su importancia en las conexiones del cerebro. Estas juegan un papel crucial en la transmisión de señales, y su disfunción ha sido asociada con la aparición de síntomas psicóticos. Esta tesis propuso estudiar las alteraciones en la conectividad cerebral en pacientes con psicosis temprana, a través del análisis conjunto de imágenes de resonancia magnética por difusión (dMRI) y resonancia funcional (fMRI). El objetivo principal fue identificar y analizar alteraciones en la estructura de la materia blanca y cambios en la conectividad funcional entre regiones cerebrales, ofreciendo nuevas perspectivas en la comprensión de las alteraciones presentes en la psicosis. Para esto, se empleó la base de datos del “Human Connectome Project for Early Psychosis”, con datos de 75 pacientes con psicosis y 55 controles sanos. El análisis dMRI se centró en fascículos de fibras largas y cortas, empleando medidas derivadas de las imágenes del tensor de difusión (DTI) y del muestreo de Q generalizado (GQI). A su vez, el análisis de fMRI se basó en la construcción de matrices de conectividad funcional, evaluando su organización a través de métricas locales y globales de teoría de grafos. Los resultados mostraron alteraciones estructurales más evidentes en fascículos largos, especialmente en la anisotropía cuantitativa, con diferencias significativas en tractos comisurales, frontales y subcorticales. En cuanto a la conectividad funcional, la métrica de centralidad del vector propio destacó por identificar varios nodos con cambios relevantes, sugiriendo una reorganización jerárquica en la red cerebral de pacientes. Este hallazgo fue complementado por resultados en el coeficiente de agrupamiento, lo que apunta a una posible disrupción tanto local como global en la conectividad. Estos cambios fueron consistentes al aplicar análisis complementarios como reducción de dimensionalidad mediante PCA y clasificación supervisada con el modelo SVM. A futuro, se plantea ampliar la muestra y considerar nuevas variables clínicas, lo cual permitiría una interpretación más completa. También se propone validar externamente los modelos clasificatorios y considerar la inclusión de sujetos con psicosis afectiva, con el objetivo de explorar similitudes y diferencias en sus patrones de conectividad. El uso combinado de estas técnicas permite una perspectiva más completa al poder complementar resultados para la comprensión de las alteraciones cerebrales en la psicosis temprana. Este estudio busca contribuir al estudio y compresión de cómo afectan la integridad de las fibras y su conectividad en la presencia de síntomas psicóticos.Item Análisis de condiciones de carga en el desgaste del manto de un chancador primario.(Universidad de Concepción, 2025) Rojas López, Christian Andrés; Rodríguez Godoy, Cristian Gabriel; Moncada Merino, Manuel AlonsoEl chancador giratorio primario es un equipo esencial en la minería del cobre, ya que permite la reducción de tamaño de las rocas extraídas, facilitando su posterior procesamiento. Sin embargo, el desgaste de sus componentes, especialmente el manto, afecta su eficiencia, incrementa los costos operacionales y reduce la disponibilidad del equipo. Este estudio busca analizar el desgaste del manto a través de simulaciones utilizando el Método de Elementos Discretos (DEM por sus siglas en inglés), con el objetivo de identificar los factores clave que influyen en su deterioro. La hipótesis planteada sugiere que el perfil de desgaste del manto está directamente relacionado con la combinación de la magnitud de las fuerzas normal y tangencial, así como con la velocidad de compresión de las partículas durante el proceso de chancado. Para comprobar esta hipótesis, se modeló el chancador Metso Superior 60-89 en el software Rocky DEM, simulando su comportamiento en diferentes etapas de desgaste (0, 28, 42 y 57 días). Se analizaron variables como la fuerza aplicada sobre el manto, la velocidad de compresión y la influencia de la forma de las partículas en los resultados, considerando tanto partículas poliédricas como esféricas. Los resultados obtenidos muestran que el desgaste es más pronunciado en las zonas donde la fuerza normal es mayor, lo que sugiere que este tipo de carga tiene una mayor influencia en la degradación del manto en comparación con la fuerza tangencial. Además, se observó que, en una etapa inicial del desgaste, el flujo de producción aumentó desde 4.013,7 tph en la condición sin desgaste (𝐷0) hasta 5.330,5 tph en el caso 𝐷42, debido a una reducción en la restricción del material. Sin embargo, en etapas avanzadas, como en el caso 𝐷57, el flujo disminuyó a 4.969,2 tph producto de las irregularidades generadas en la geometría del revestimiento, lo que afecta negativamente la eficiencia del proceso de chancado. Otro hallazgo relevante es el efecto del desgaste sobre el consumo energético. Se observó que, a medida que progresa el deterioro del manto, la potencia requerida para el chancado aumenta considerablemente, pasando de 624,9 kW en la condición inicial sin desgaste (𝐷0) a un máximo de 933,4 kW tras 57 días de operación (𝐷57), lo que equivale a un incremento del 49%. Este aumento evidencia la demanda energética adicional necesaria para mantener la operación, impactando en la eficiencia del proceso. Se realizó un análisis de correlación utilizando los coeficientes de Pearson y de determinación (𝑅²), evidenciando relaciones significativas entre las fuerzas espaciales, la velocidad de compresión y el desgaste experimental. Se observaron valores de Pearson superiores a 0,89, con un máximo de 0,9043 en el caso 𝐷57, mientras que 𝑅² alcanzó un máximo de 0,8178. Estos resultados respaldan la posibilidad de predecir el desgaste del manto a partir de la concentración de fuerzas normales y tangenciales combinadas con la velocidad de compresión. En conclusión, este estudio permite establecer una correlación entre el desgaste del manto y variables como las fuerzas espaciales y la velocidad de compresión, con el fin de desarrollar modelos predictivos indirectos. Estos modelos ofrecen una base para mejorar el diseño del chancador y optimizar las estrategias de mantenimiento preventivo, lo que a su vez contribuye a reducir los costos operacionales y a incrementar la disponibilidad del equipo en faenas mineras.Item Evidence-driven simulated data in reinforcement learning training for personalized mhealth interventions.(Universidad de Concepción, 2025) Galgano Cabrera, Giorgio Stefano Ian Michele; Caro Seguel, Juan CarlosItem Una optimización integrada de la producción de madera aserrada y el mantenimiento de los equipos críticos.(Universidad de Concepción, 2025) Seguel González, Waldo Andrés; Contreras Bolton, Carlos EmilioEsta investigación propone un modelo de optimización integrada para la planificación de producción y mantenimiento en aserraderos, considerando las etapas secuenciales de aserrío, almacenamiento en tránsito y secado en cámaras. A diferencia de los enfoques tradicionales que tratan estos procesos por separado, se incorpora la evolución dinámica de la confiabilidad de los equipos críticos, representada mediante distribuciones de Weibull y priorizada con el método estadístico Jack-Knife. El modelo propuesto es formulado como un problema de programación lineal entera mixta, que minimiza el makespan global del sistema bajo restricciones operativas, tanto de mantenimiento como de secuenciación de productos. La solución es validada a través de dos instancias de prueba, una con cuatro productos y otra con nueve productos y diferentes cantidades de cada producto a producir. Los resultados muestran que el enfoque integrado permite reducir el tiempo total de producción, mejorar la disponibilidad de los equipos y disminuir los costos operativos frente a un modelo que no considera el mantenimiento en la etapa de optimización. Además, al incorporar la probabilidad de falla y simular condiciones reales, se observa que el modelo basado en confiabilidad es más robusto y mejora el desempeño en makespan y costos comparado con el modelo sin considerar el mantenimiento desde un principio. Esta propuesta contribuye al desarrollo de herramientas avanzadas para la gestión de activos en la industria forestal, fortaleciendo la sostenibilidad operativa y la toma de decisiones estratégicas.Item Machine Learning-Based Classifier of Gait Profiles of Individuals with Cerebral Palsy treated in the ORITEL Network.(Universidad de Concepción, 2025) Ulloa Barrientos, Rosario María; Pino Quiroga, Esteban JavierThis thesis aimed to develop a gait pattern classifier for individuals with cerebral palsy (CP), using data collected from multiple motion analysis laboratories within the Organización Internacional de Teletones (ORITEL) network. To achieve this, the multicenter database Movement Analysis Network was created and standardized, comprising 156 studies from 8 laboratories, ensuring consistency and comparability across different motion capture systems. Eight machine learning models were evaluated, considering class balancing strategies. The mul tilayer perceptron (MLP) with class weighting achieved the best performance, reaching an accuracy of 82% and Fl-scores of 0.81 for diparesis, 0.63 for hemiparesis, and 0.98 for the control group. Externa] validation on 63 additional trials confirmed the model's generalization capability, although performance for hemiparesis remained lower due to class imbalance. Feature importance analysis and statistical tests (Median, Mann-Whitney U, Cliff's delta, and Bonferroni correction), showed that spatiotemporal parameters such as double support, swing phase, and stance phase, together with specific kinematic features such as minimum angle knee flexion/extesion (acLKFE), were key discriminators between hemiparesis and diparesis. These findings aligned with clinical literature and reinforced the interpretability of the model. An exploratory analysis of treatment associations was also conducted. For hemiparesis, the most frequent treatments were orthoses, orthopedic surgery, and physical therapy, while for diparesis the most common were botulinum toxin, orthopedic surgery, and physical therapy. Although Jimited by incomplete treatment information, this analysis provided preliminary insights and a basis for future studies on treatment effectiveness. In conclusion, this research successfully achieved its objectives: building a standardized multi center database, developing a robust gait classifier, identifying clinically relevant features, and explor ing preliminary associations with treatments. The database Movement Analysis Network represents a substantial contribution to multicenter gait research and has the potential to become a key too! for supporting clinical decision-making in the management of cerebral palsy.Item Parcelación cortical multiescala intersujeto basada en la conectividad cerebral.(Universidad de Concepción, 2025) Molina Muñoz, Joaquín Ignacio; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEl conectoma humano es una red de interacciones entre elementos estructurales y funcionales del cerebro, permitiendo procesar y controlar las funciones corporales. Esta red está compuesta principalmente por dos tejidos: la materia blanca, que corresponde a las vías de comunicación cerebral, y la materia gris, que cumple el rol funcional del cerebro. Asimismo, una parte de la materia gris es la corteza cerebral, la cual puede ser dividida en regiones homogéneas mediante un proceso llamado parcelación cortical, que en general es basado en anatomía, funcionalidad o en conectividad. En particular, las parcelaciones basadas en conectividad estructural, utilizan imágenes de resonancia magnética por difusión (dMRI) y algoritmos de tractografía, que permiten la estimación de fibras cerebrales en forma de polilíneas 3D. Así, es posible subdividir la corteza utilizando clustering sobre la información de conectividad o a partir de la conexión de fascículos de fibras cerebrales. Sin embargo, aún no existe una parcelación aceptada universalmente como referencia y algunas de sus características son inciertas, tales como el número y tamaño óptimo de las parcelas. De la misma manera, la masiva cantidad de datos, variabilidad inter-sujeto y establecer correspondencia espacial entre sujetos, son grandes limitantes para realizar este tipo de estudios. Este trabajo presenta un nuevo método de parcelación cortical multiescala intersujeto basada en conectividad estructural. Este enfoque utiliza atlas de fibras cerebrales para obtener una cantidad razonable de fascículos correspondientes entre sujetos. Los fascículos fueron filtrados y, sus extremos inicial y final fueron intersectados con las superficies corticales de los sujetos, definiendo subparcelas, las cuales fueron agrupadas a partir de un clustering jerárquico en base a su información de conectividad y traslape. Finalmente, se aplicaron distintas particiones, obteniendo distintos niveles de granularidad. Los resultados demuestran un método de parcelación robusto, con un altos índices de reproducibilidad test-retest, en especial para el nivel de granularidad de 200 clusters que obtuvo un índice global de 83%. Se encontraron altos niveles de homogeneidad en la conectividad intra-parcela para la parcelación de 288 parcelas, con un valor global de 0.626, siendo mayor a otros atlas presentes en el estado del arte. Asimismo, se obtuvieron varias parcelas con un valor alto de coeficiente de Silhouette, indicando su alta similitud intra-parcela y baja similitud inter-parcela. El valor de Silhouette global fue 0.208, mayor a los obtenido con otros atlas. También, se calcularon coincidencias con los atlas Desikan, Brainnetome, y los propuestos por Lefranc et al. (2016) y López et al. (2020), encontrando mayores similitudes con los atlas basados en conectividad estructural, siendo el atlas de López et al. el con mayores coincidencias, que presenta 81 parcelas en común con la parcelación propuesta de 288 parcelas.Item Modelos y algoritmos para el Moving Firefighter Problem.(Universidad de Concepción, 2025) Medina González, Claudio Alfonso; Contreras Bolton, Carlos EmilioEsta tesis aborda el Moving Firefighter Problem (MFP), una extensión del clásico Firefighter Problem (FP), que modela la contención de fenómenos que se propagan en redes. El MFP introduce una representación más realista del problema al incorporar el movimiento de los bomberos en la red, cuya capacidad de respuesta depende de las distancias euclidianas entre nodos. Esta consideración hace que el tiempo de protección ya no sea uniforme y aumenta significativamente la complejidad del problema, lo que incrementa notablemente los tiempos de resolución. Actualmente, solo existe un modelo de programación cuadrática en la literatura, que resuelve eficientemente tamaños pequeños del problema. Para enfrentar este desafío, se proponen tres enfoques: un modelo de programación lineal entera, un modelo de programación con restricciones, y una metaheurística basada en el Iterated Local Search y Simulated Annealing (ILS-SA). Este último combina perturbaciones controladas con una búsqueda local con dos tipos de intensidades, junto con un mecanismo de aceptación probabilística dependiente de una temperatura que desciende a medida que avanzan las iteraciones. Esta estrategia permite equilibrar exploración e intensificación, mejorando la calidad de las soluciones y evitando quedar atrapado en óptimos locales. Los modelos y algoritmo propuestos son validados en un conjunto de 160 instancias de la literatura. Los resultados computacionales evidenciaron que el modelo de programación con restricciones logró encontrar mejores soluciones o cercanas al óptimo en tiempos de cómputo considerablemente más bajos que los modelos de programación cuadrática y lineal entera. Por su parte, el ILS-SA obtuvo soluciones competitivas con una notable reducción del tiempo de cómputo, destacando su utilidad para instancias de mayor tamaño o escenarios donde se requiere una respuesta rápida.Item Predicción de la fractura en el conformado incremental de láminas de PVC.(Universidad de Concepción, 2025) Torres Valdés, Luis Alberto; Medina Muñoz, Carlos AndrésEl conformado incremental (ISF) ha emergido como una solución innovadora frente a los procesos tradicionales de conformado de lamina, ofreciendo mayor flexibilidad en la fabricación de piezas especializadas, que se producen en lotes pequeños. El ISF destaca por no usar matrices o utillajes especializados, lo que permite generar geometrías complejas con diferentes materiales. No obstante, su adopción a escala industrial aún se ve limitada por la escasa comprensión de los mecanismos de fractura que se producen durante el proceso, por lo que generar herramientas para predecir la aparición de la falla es el desafío actual. Frente a este escenario, el presente trabajo propone caracterizar un modelo desacoplado de fractura dúctil para el Cloruro de polivinilo (PVC), basado en el modelo Bai-Wierzbiki, con el objetivo de preveer el inicio de la falla en el proceso de conformado mediante el uso de simulaciones numéricas, sin la necesidad de fabricar la pieza. Si bien este modelo fue originalmente desarrollado para metales, en esta investigación se adapta y calibra para su aplicación en láminas poliméricas de PVC, considerando que su comportamiento a temperatura ambiente se asemeja al de un material dúctil. Para ello, se diseñaron y ensayaron probetas que reproducen distintos estados de esfuerzos, caracterizados por la triaxialidad y el parámetro de Lode. Paralelamente, se llevaron a cabo simulaciones de los ensayos mediante el Método de Elementos Finitos (MEF), con la finalidad de determinar los parámetros necesarios para ajustar el modelo de fractura. De esta manera, mediante técnicas de optimización se creó una superficie de fractura en el espacio 3D que indica la deformación a la fractura para distintos estados de carga. La forma asimétrica de la superficie ayuda a que el error relativo promedio sea solo de un 3.2% respecto a los seis ensayos experimentales usados en la calibración. Se evaluó la capacidad predictiva del modelo de fractura mediante la prueba de línea y de tronco cónico realizados por SPIF, obteniendo resultados que, pese a no ser totalmente precisos (error relativo promedio 10.4 %), son coherentes con el comportamiento presentado por la superficie a la fractura. Esta superficie, a pesar de tener una concavidad que difiere con respecto de los metales, se ajusta adecuadamente a lo registrado en literatura sobre la caracterización de la fractura de polímeros, los cuales presentan una mayor tenacidad a la fractura en condiciones de corte que en tracción.Item Propuesta de optimización del agendamiento de citas médicas post alta a partir de epicrisis utilizando programación lineal entera mixta.(Universidad de Concepción, 2025) Valdés Brito, Francisca Belén; Figueroa Iturriaga, Rosa Liliana; Sbárbaro Hofer, Daniel Gerónimo; Cartes Velásquez, Ricardo AndrésEn Chile, la epicrisis resume los diagnósticos, procedimientos, complicaciones e indicaciones de egreso de cada paciente y especifica los controles post-alta que debe cumplir. Actualmente, debido a la falta de sistemas automatizados de priorización, en algunos centros de salud el personal clínico debe trasladas físicamente dichas epicrisis hasta los mesones de interconsulta para gestionar las citas médicas. Este proceso manual no discrimina la gravedad de los casos, generando demoras y distribuyendo de forma desigual la carga asistencial. Esta tesis de magister desarrolló y validó una herramienta de optimización que asigna las citas post-altas de forma automática, equitativa y oportuna, garantizando la atención prioritaria de los pacientes más críticos y respetando las restricciones operativas de los policlínicos. La propuesta integra un Sistema Basado en Reglas (SBR) utilizando las variables clínicas desde la epicrisis junto a un modelo de Programación Lineal Entera Mixta (MILP), para asignar un puntaje de prioridad calculado a partir de diferentes variables como urgencia de diagnóstico, etapa GES (Garantías Explícitas en Salud), edad, entre otras para agendarlo óptimamente a la agenda. El modelo, se definió sobre un horizonte de 20 días hábiles consecutivos segmentados en bloques horarios de 30 min, considerando un total de 276 bloques y una capacidad de 13 box disponibles. El modelo fue validado mediante 14 escenarios agrupados variaciones de demanda y capacidad. En condiciones normales, mantuvo la cobertura total (100%) y redujo el retraso extremo del percentil 95. Ante incrementos progresivos de demanda (hasta +30%), la cobertura permaneció prácticamente completa, y se optimizaron notablemente los retrasos extremos. Escenarios con demanda creciente, se conservó la cobertura total, reduciendo retrasos y liberando horas médicas. Con menos capacidad disponible, también mantuvo cobertura total, disminuyó los tiempos de espera y mejoró la equidad en la distribución de carga laboral. El método sugiere un proceso automatizado centrado en la prioridad clínica, capaz de absorber fluctuaciones de demanda y capacidad sin comprometer la cobertura ni equidad entre casos. Su implementación disminuiría tiempos de espera, optimizaría recursos y liberaría horas administrativas, convirtiéndose en una referencia y modelo para la implementación de soluciones similares en otros contextos hospitalarios.Item Analytical Solution for Optimal Stiffness and Damping for Comfort and Road-Holding in the Half Car Model.(Universidad de Concepción, 2025) Gutiérrez Burgos, Haidar Manuel; Leaman Weiffenbach, Félix AlbertoEsta investigación explora el análisis de covarianza en el Modelo de Medio Vehículo (HCM) para derivar parámetros óptimos de suspensión que maximicen, por separado, el confort y la adherencia. Se modelan las irregularidades del camino como perturbaciones de ruido blanco Gaussiano, excluyendo acciones del conductor y eventos discretos. La investigación comienza reproduciendo técnicas existentes de optimización de la suspensión para el Modelo de Cuarto de Vehículo (QCM, por sus siglas en inglés) utilizando análisis tanto en el dominio del tiempo como en el dominio de la frecuencia. Estos enfoques complementarios producen expresiones analíticas idénticas para parámetros óptimos enfocados en adherencia y confort. Posteriormente, la investigación extiende estas metodologías analíticas al Modelo de Medio Vehículo de un solo eje, incorporando explícitamente una barra estabilizadora como elemento de interconexión. Esta extensión da como resultado expresiones analíticas para los indicadores de rendimiento y coeficientes óptimos de la suspensión. Las ecuaciones derivadas ilustran explícitamente la influencia de la barra estabilizadora, demostrando que los parámetros de la suspensión deben optimizarse considerando las rotaciones angulares del chasis. Se identifican desviaciones significativas en los parámetros óptimos en comparación con soluciones más simples del QCM, lo que resalta la necesidad de tener en cuenta la dinámica del chasis incluso en escenarios sin barra estabilizadora. Para el HCM de dos ejes, se adoptan métodos numéricos debido a la complejidad analítica, especialmente por la correlación con desfase de tiempo. Los resultados revelan configuraciones óptimas asimétricas dependientes de la velocidad, incluso en vehículos simétricos. Un análisis de sensibilidad destaca que la estimación precisa de parámetros impacta más que la modelación del desfase. Este análisis integral supera las limitaciones de modelos simplificados e introduce metodologías avanzadas para optimizar el diseño de suspensiones en términos de confort y adherencia.Item Diseño e implementación de una suite de optimización preliminar del sistema ADCS en CubeSats de observación terrestre en órbitas bajas.(Universidad de Concepción, 2025) Tacul Vargas, Matías Ignacio; Leaman Weiffenbach, Félix AlbertoLos CubeSats, nanosatélites de bajo costo, se han convertido en una herramienta ampliamente utilizada en diversas aplicaciones espaciales, especialmente en misiones de observación terrestre. En este tipo de misiones, es fundamental orientar con precisión la carga útil hacia la superficie terrestre para garantizar la calidad de los datos recolectados. Sin embargo, tanto el rendimiento como el costo de estos satélites dependen en gran medida de las características de los sensores y actuadores que los componen. En este contexto, el presente estudio aborda el desafío de identificar el conjunto óptimo de componentes del sistema de determinación y control de actitud (ADCS), ajustándose a los requisitos específicos de cada misión. Con este propósito, se desarrolló una suite de simulación que modela tanto la dinámica orbital como la actitud del CubeSat, integrando sensores y actuadores en el Subsistema de Determinación y Control de Actitud (ADCS). Esta suite incorpora algoritmos de estimación, como una variante del filtro de Kalman extendido, y controladores LQR o PD según requerimiento. Se diseño una suite de optimización capaz de encontrar un equilibrio entre costo y rendimiento, considerando las restricciones impuestas por los System Engineering envelopes (como masa y potencia) y los Measures of Performance (MoP) definidos por el usuario. Dado que el problema de optimización no es convexo y presenta múltiples mínimos locales, se evaluaron diversos algoritmos, destacando el método de Powell como el más robusto. Este algoritmo, implementado a través del módulo scipy.optimize en Python, demostró una alta capacidad para alcanzar mínimos globales sin requerir derivadas explícitas. Como demostración, se ejecutó un caso práctico de optimización utilizando magnetorquers, donde se seleccionaron componentes físicos óptimos bajo restricciones técnicas representativas de la misión SUCHAI-3. El estudio reveló que para métricas como la agilidad, la autoridad del actuador tiene un impacto crítico, mientras que para métricas como el jitter o la exactitud, la precisión de los sensores es más determinante. Los resultados indicaron que el diseño optimo de un ADCS debe balancear cuidadosamente los SE Envelopes y los MoP según el objetivo de la misión, siendo posible, mediante esta metodología, seleccionar componentes específicos en función de su contribución al rendimiento general del sistema. Esta herramienta será evaluada a futuro como un optimizador no solo aplicable a CubeSats, sino también, con las adaptaciones necesarias, como una solución para otros tipos de vehículos aéreos, como los RPAS, incorporando cambios o mejoras al algoritmo de optimización según los requerimientos de cada plataforma.Item Algoritmo y acelerador hardware para la estimación de cuantiles en propiedades de flujos de red.(Universidad de Concepción, 2025) Gallardo Pavesi, Carolina Sofía; Figueroa Toro, Miguel Ernesto; Hernández Rivas, CeciliaLa medición y análisis del tráfico de datos es fundamental para la gestión y seguridad de redes de datos, ya que nos permite detectar e identificar elementos o eventos que no coinciden con el comportamiento típico, llamados anomalías. Estas anomalías nos ayudan a detectar posibles fallas o ataques. Una red de datos puede ser modelada por conexiones entre dos puntos llamadas flujos. Al analizar la distribución de ciertas propiedades de estos flujos, tales como el número de paquetes (denominado como frecuencia en la literatura) o la cantidad de bytes útiles enviados (payload), podemos detectar anomalías en el corto y largo plazo. Estas distribuciones pueden ser caracterizadas usando cuantiles, donde el cuantil de un elemento es la fracción de elementos del conjunto que son menores o iguales a este. No obstante, para poder tomar acciones correctivas oportunamente, el análisis de esta distribución debe realizarse de manera rápida y en línea. Dado los grandes volúmenes de tráfico y la velocidad de los enlaces modernos, esto es costoso computacionalmente, por lo que un procesador de propósito general es insuficiente para abordar el problema y utilizar aceleradores hardware se vuelve una opción atractiva. Sin embargo, estos dispositivos poseen una cantidad de memoria interna reducida, lo que hace imposible calcular en línea el valor exacto de estos cuantiles para trazas de tamaño típico en redes de alta velocidad, ya que implica almacenar las frecuencias para cada flujo. Como una forma de abordar este problema, se han propuesto estructuras de datos probabilísticas, llamadas sketches, que permiten estimar propiedades de grandes volúmenes de datos, tales como los cuantiles, con una eficiencia espacial alta. Sin embargo, dado que ciertas propiedades de los flujos, tales como la frecuencia, se acumulan a través de múltiples paquetes, éstas deben actualizarse en el sketch cada vez que llega un nuevo paquete. Los algoritmos que permiten trabajar con este modelo asumen un universo (el rango al que pueden pertenecer los elementos insertados) fijo y el espacio utilizado depende del tamaño de este universo, por lo que utilizarlos se vuelve poco conveniente. Por otra parte, se puede utilizar un sketch de estimación de frecuencia que permita acumular el número de paquetes por flujo y realizar el análisis de cuantiles sobre esta información. No obstante, estimar la frecuencia de todos los flujos mediante este sketch no es compatible con las restricciones de memoria ya que requeriría almacenar el identificador de cada flujo en la traza. En trabajos recientes, se ha demostrado que, almacenando únicamente la frecuencia de los flujos más grandes, es posible aproximar la distribución de la frecuencia del resto de los flujos mediante suposiciones respecto a su distribución estadística [1]. En este trabajo, proponemos un algoritmo de estimación de cuantiles que combina un sketch de estimación de frecuencia junto con otras estructuras de datos para estimar la frecuencia de los flujos más grandes. Usando estas frecuencias, estimamos los parámetros de una distribución estadística de tipo power-law que describe la frecuencia del resto de los flujos. Usando esta aproximación y las frecuencias reales de los top-𝐾, se responden dos tipos de consultas de cuantiles: (i) Dado un valor de cuantil, determinar la frecuencia que se encuentra en ese cuantil. (ii) Dada una frecuencia, encontrar el cuantil en el que ésta se encuentra. Adicionalmente, presentamos la arquitectura de un acelerador hardware que implementa este algoritmo sobre un dispositivo FPGA. El algoritmo propuesto responde consultas sobre 9 trazas de CAIDA [2] con un error absoluto promedio entre 0.0004% y 0.0122% para consultas de cuantil dado un valor de frecuencia y un error absoluto promedio entre 0.43 y 2.09 cuentas para consultas de frecuencia dado un valor de cuantil. La arquitectura propuesta fue implementada en un FPGA AMD XCU280 UltraScale+, alcanzando una frecuencia máxima de 392MHz en el procesamiento de paquetes. El acelerador puede recibir un nuevo paquete en cada ciclo de reloj, soportando una tasa de recepción de peor caso de 200Gbps. Por otro lado, la latencia máxima de consulta es de 38.5 𝜇𝑠 para consultas de frecuencia dado un valor de cuantil y 4.2 𝜇𝑠 para consultas de cuantil dado un valor de frecuencia.Item Análisis de las consecuencias económicas y medioambientales del uso de autos eléctricos en Chile.(Universidad de Concepción, 2025) Arancibia Zapata, César Eduardo; Pradenas Rojas, Lorena del Carmen; Jensen Castillo, María MagdalenaThis study evaluates the economic and environmental impacts of electric vehicle adoption in Chile through three scenarios (sustainable, conservative, non-sustainable) for the period 2025-2050. Using machine learning models and international subsidy frameworks adapted to Chilean conditions, we project Battery Electric Vehicles (BEV) market penetration, energy demand, emissions, and consumer costs. Results show that aggressive policy intervention (including 25% purchase subsidies and expanded charging infrastructure) could achieve 100% BEV sales by 2035, reducing transportation CO₂ emissions by 28%. Chile's renewable-dominated grid can support full electrification with only 4% of national generation capacity. Despite a 25% energy penalty from heating in cold climates, BEVs demonstrate 184% lower emissions than conventional vehicles and 18% lower annual costs under supportive policies. Lithium extraction for domestic BEV production poses localized environmental challenges regarding water usage. The transition requires coordinated government intervention combining financial incentives, infrastructure development, and sustainable mining practices to prevent electromobility from becoming exclusive to high-income sectors.