Tesis Magíster
Permanent URI for this collection
Browse
Recent Submissions
Item Multiobjective metaheuristics for the support vector machine with feature selection.(Universidad de Concepción, 2026) Badilla Salamanca, Mathias Felipe; Contreras Bolton, Carlos Emilio; Medina Durán, Rosa DanielaItem Modelo de margen de seguridad probabilístico para curvas horizontales de carreteras bidireccionales.(Universidad de Concepción, 2026) Muñoz Matamala, Felipe Andrés; Echaveguren Navarro, Tomás BenjamínEl factor de fricción lateral es un parámetro crítico en el diseño geométrico de curvas horizontales, ya que influye en la estabilidad dinámica de los vehículos y en la comodidad de los conductores y ocupantes que transitan por trayectorias curvas. Las normativas actuales de ingeniería vial evalúan la seguridad mediante modelos determinísticos, como el Modelo de Masa Puntual, los cuales asumen velocidades constantes y umbrales de fricción fijos. Sin embargo, este enfoque tradicional no considera la naturaleza estocástica del comportamiento del conductor ni la degradación temporal y espacial de las propiedades superficiales del pavimento. En consecuencia, existe una brecha científica significativa en la cuantificación del riesgo real de deslizamiento bajo condiciones operacionales reales, donde la demanda frecuentemente supera los supuestos de diseño. Este estudio propone expresiones analíticas para estimar la probabilidad de deslizamiento de vehículos livianos en curvas horizontales de caminos rurales bidireccionales, incorporando la variabilidad inherente tanto de la demanda como de la oferta de fricción, materializada en un margen de seguridad probabilístico usando principios de confiabilidad. Se detalla la calibración de modelos de demanda de fricción, junto con la integración del Índice Internacional de Fricción para representar la oferta del pavimento y la formulación de un modelo logístico parametrizado para la estimación del margen de seguridad probabilístico. Los resultados demuestran que la resistencia al deslizamiento es el principal determinante de la seguridad, mientras que la velocidad de operación actúa como un catalizador decisivo en el incremento del riesgo. Al reemplazar las evaluaciones binarias de seguridad por un enfoque basado en la confiabilidad, esta investigación proporciona una herramienta práctica para la gestión del riesgo de deslizamiento a lo largo del ciclo de vida de la infraestructura vial, considerando diversos contextos de conducción.Item Reconstrucción de imágenes a partir de mediciones de tomografía por impedancia eléctrica usando algoritmos de Deep Learning.(Universidad de Concepción, 2026) Fernández Arroyo, Bruno Alonso; Pino Quiroga, Esteban JavierLas enfermedades respiratorias representan una carga crítica de salud pública mundial, lo que motiva la búsqueda de herramientas de monitoreo que superen las limitaciones de costo y accesibilidad de los estándares clínicos actuales. En este contexto, la Tomografía por Impedancia Eléctrica (TIE) surge como una alternativa funcional y no ionizante; sin embargo, los sistemas comerciales existentes suelen ser voluminosos y de alto costo. Por ello, existe una necesidad de desarrollar soluciones portátiles y económicas capaces de resolver con precisión el problema inverso de la TIE, el cual es intrínsecamente no lineal, mal condicionado y sensible al ruido. El presente trabajo de tesis aborda este desafío mediante la reconstrucción de imágenes con algoritmos de deep learning aplicados a un dispositivo portátil diseñado en laboratorio, utilizando un fantoma pulmonar para su validación experimental. La metodología se inició con el diseño y construcción de un fantoma físico equipado con 16 electrodos de cobre para un sistema de adquisición TIE portátil y de bajo costo. Dada la alta demanda temporal que implica la toma de muestras experimentales masivas para el entrenamiento de modelos de inteligencia artificial, se implementó un gemelo digital en COMSOL Multiphysics. Este permitió generar un dataset sintético robusto de 7.992 configuraciones distintas, proporcionando la base necesaria para que las redes aprendieran la física del problema. Posteriormente, se evaluaron tres arquitecturas de deep learning: una Red Neuronal Convolucional (CNN), una U-Net y un modelo KAN-ViT. Para cerrar la brecha entre la simulación y la realidad, se aplicó una estrategia de fine-tuning utilizando 7.115 datos experimentales recolectados en el fantoma físico a partir de 150 configuraciones distintas, adaptando así los modelos al ruido electrónico y las no-idealidades del hardware real. Los resultados obtenidos validan la hipótesis de investigación al demostrar que es posible realizar reconstrucciones precisas y de alta calidad estructural en tiempo real. La arquitectura U-Net destacó como la más robusta, alcanzando un índice de similitud estructural (SSIM) de 0.9453 y un coeficiente de correlación de 0.8785 en datos reales, resultados que superan a los métodos clásicos. El sistema integrado logró una tasa de procesamiento de 1.94 cuadros por segundo, con una latencia de inferencia de apenas 15 ms. Este trabajo no solo aporta una metodología rigurosa para compensar las limitaciones del hardware portátil mediante inteligencia artificial, sino que demuestra que la combinación de un fantoma físico y un gemelo digital permite obtener imágenes de alta fidelidad a través de estrategias de transfer learning. Estos hallazgos sientan las bases tecnológicas para el futuro desarrollo de herramientas de monitoreo clínico que sean verdaderamente portátiles, seguras y accesibles.Item Dynamically equivalent linear networks.(Universidad de Concepción, 2026) Schleef Sepúlveda, Benjamín Rodrigo; Salinas Ayala, LilianItem Modelo de planificación para la asignación multiperiodo y multiproducto en trenes de carga con restriciones de inventario.(Universidad de Concepción, 2026) Cartes Verdejo, Fernanda Andrea; Astroza Tagle, Sebastián; Salazar Hornig, Eduardo JavierEl transporte ferroviario de carga constituye un componente estratégico en la logística de industrias intensivas en volumen, donde las decisiones de planificación influyen directamente en los costos operativos, la utilización de recursos y el nivel de servicio. En estos contextos, la coordinación entre producción, inventario y transporte adquiere una relevancia central, especialmente cuando las operaciones se desarrollan en horizontes multiperíodo y con múltiples productos. No obstante, la mayoría de los enfoques tradicionales aborda estos elementos de forma fragmentada, lo que limita su aplicabilidad en entornos reales. Esta tesis propone un modelo integrado de planificación ferroviaria multiperíodo y multiproducto, que incorpora explícitamente la dinámica de inventarios en origen y destino, las tasas de producción, las capacidades operativas de los trenes y el cumplimiento de la demanda. El modelo se formula como un problema de optimización matemática de gran escala y se implementa utilizando un solver exacto. Dado el carácter NP-hard del problema y las limitaciones prácticas de los métodos exactos en instancias de tamaño realista, se desarrolla además una metaheurística basada en Multi-Start Iterated Local Search (MS-ILS), diseñada para generar soluciones factibles y de alta calidad en tiempos computacionales razonables. La metodología considera la evaluación del enfoque propuesto mediante instancias reales proporcionadas por la industria y un conjunto amplio de instancias generadas de forma controlada. Los resultados computacionales muestran que, mientras el modelo exacto es efectivo en instancias de menor escala, la metaheurística MS-ILS logra mantener la viabilidad y una calidad competitiva de las soluciones en escenarios de mayor complejidad, superando las restricciones de tiempo de los métodos exactos. En conjunto, la investigación aporta un marco metodológico robusto y adaptable para la planificación ferroviaria, integrando rigor analítico y aplicabilidad práctica en contextos industriales reales.Item Impacto de la incertidumbre en la estimación de la calidad en una línea de transmisión óptica.(Universidad de Concepción, 2026) Muñoz Rosel, Leonardo Gonzalo; Saavedra Mondaca, Gabriel Alejandro; Leiva López, ArielEsta tesis investiga el impacto de la incertidumbre operacional en el comportamiento espectral de amplificadores de fibra dopada con erbio (EDFA) y sus implicancias en la estimación de la calidad de transmisión en enlaces ópticos multitramos. Mediante un estudio paramétrico basado en un modelo de machine learning (MAE = 0.04), se observó que la potencia óptica de entrada modifica el espectro de salida del EDFA, determinando si el perfil de ganancia tiende a exceder o a quedar por debajo del perfil objetivo. Resultados experimentales en un enlace de 200 km muestran que variaciones en la potencia de entrada producen cambios de hasta 2.25 dB en el gain ripple y errores de hasta 1 dB en la estimación de OSNR cuando se utilizan estimadores basados en ganancia promedio. En un sistema multitramos de cuatro EDFAs se observaron efectos acumulativos donde la ganancia promedio disminuye aproximadamente 1.3 dB y el gain ripple aumenta entre 1.5 y 2 dB, provocando degradaciones de OSNR entre 1 y 3 dB dependiendo del régimen de operación. Finalmente, se evaluó la robustez de modelos de machine learning entrenados en escenarios de single span (MAE <0.2 dB). En el régimen crítico de baja potencia, el modelo base acumuló errores de hasta 8.69 dB en el sistema multitramos, mientras que el uso de transfer learning (TL) redujo el error total a 2.4 dB; bajo condiciones de incertidumbre, los errores alcanzaron 9.39 dB y 5.11 dB respectivamente. Los modelos especialistas basados en TL mostraron mejoras adicionales, reduciendo el error de predicción entre un 33% en condiciones nominales y hasta un 55% en presencia de incertidumbre. Estos resultados evidencian que la incertidumbre en la potencia de entrada modifica la dinámica espectral de los EDFAs y demuestran que modelos entrenados bajo condiciones controladas pueden no generalizar adecuadamente en sistemas multitramos cuando la incertidumbre operacional altera el régimen espectral del amplificador.Item Detección, clasificación y localización de soft-failures en enlace óptico.(Universidad de Concepción, 2026) San Martín Ayala, Efraín Andrés; Saavedra Mondaca, Gabriel AlejandroLa presente tesis aborda la detección, clasificación y localización de soft-failures en enlaces ópticos coherentes, con foco en un esquema de operación que permita pasar desde una alerta temprana a un diagnóstico accionable. Para ello, se desarrolla y valida experimentalmente un pipeline en cascada sobre un enlace de 200 km (dos spans de 100 km) con tres etapas de amplificación. En este contexto se consideran tres formatos de modulación (DP-QPSK, DP- 8QAM y DP-16QAM) y un conjunto de datos balanceado por formato compuesto por 2000 ventanas, incluyendo operación normal y escenarios representativos de degradación: reducción de ganancia en amplificación, pérdidas adicionales por span e interferencia no lineal. En la primera etapa, la detección se formula como un problema operacional de una clase, entrenando el modelo únicamente con datos de operación normal a partir de indicadores de QoT medidos en el receptor. Se comparan distintos enfoques de detección y se selecciona un Autoencoder por su desempeño superior. Con entrenamiento base en DP-QPSK, el detector alcanza una precisión del 100% en el formato de referencia y mantiene resultados consistentes al transferir hacia DP-8QAM (99 %) y DP-16QAM (100 %), evidenciando robustez frente a cambios de formato de modulación bajo el criterio de recalibración por formato utilizado. En la segunda etapa, activada una vez detectada la condición anómala, el diagnóstico se aborda como un problema supervisado de clasificación multiclase utilizando telemetría de potencia transversal al formato de modulación. Se construye un conjunto de características físicas basado en desviaciones respecto de una línea base normal: deltas de ganancias de amplificación y deltas de pérdidas por span, lo que permite asociar patrones anómalos a componentes o segmentos físicos del enlace. Con este diseño, la clasificación entrega directamente la localización mediante el mapeo clase–componente. En la evaluación de modelos, Random Forest logra desempeño perfecto en el conjunto de prueba (precisión del 100 %, recall y F1 equivalentes a 1.0), mostrando separación prácticamente perfecta entre los tipos de degradación evaluados. En conjunto, la tesis entrega una metodología experimental reproducible y un pipeline en cascada alineado con requerimientos operacionales: detección robusta usando únicamente QoT disponibles en el receptor y diagnóstico mediante variables interpretables asociadas a la cadena de amplificación y spans, habilitando clasificación y localización para apoyar decisiones de operación y mantenimiento en redes ópticas.Item Análisis y estimación de concentración de NaCl en solución acuosa mediante el uso de espectroscopía Raman.(Universidad de Concepción, 2026) Pérez Foix, Edgardo Andrés; Sbárbaro Hofer, Daniel GerónimoLa cuantificación de la salinidad en soluciones acuosas es un problema relevante en múltiples áreas de la ingeniería y la ciencia aplicada, debido a su impacto sobre propiedades fisicoquímicas y a la necesidad de monitoreo rápido y no destructivo en diversas condiciones operacionales. En particular, la determinación de la concentración de cloruro de sodio (NaCl) mediante espectroscopía Raman presenta un desafío fundamental: al separarse en átomos individuales que han ganado o perdido uno o más electrones, el NaCl no exhibe bandas Raman intensas en el rango espectral habitual, por lo que la estimación debe realizarse de manera indirecta a partir de la respuesta vibracional del solvente. En este contexto, la banda de estiramiento O–H del agua constituye una región espectral de alta sensibilidad, cuya forma varía sistemáticamente con la concentración salina y con la temperatura. Sin embargo, la marcada dependencia térmica de dicha banda introduce un confusor dominante que debe ser considerado explícitamente para lograr estimaciones robustas. Esta tesis desarrolla y valida una metodología cuantitativa basada en espectroscopía Raman para estimar la concentración de NaCl en soluciones acuosas a partir de descriptores efectivos extraídos de la banda O–H, incorporando la temperatura como variable del modelo. Se prepararon soluciones estándar de NaCl en el rango de 0 a 5 g/100 mL y se adquirieron espectros Raman a distintas temperaturas controladas entre 10 y 50 ◦C, conformando una base de datos de entrenamiento y un conjunto independiente de validación externa. Los espectros fueron recortados en la región 3150– 3550 cm−1 y se parametrizaron mediante una descomposición en un número reducido de funciones Gaussianas, empleada como herramienta matemática para capturar redistribuciones sistemáticas de intensidad sin atribuir necesariamente poblaciones moleculares discretas a cada componente. A partir de las amplitudes obtenidas se formuló un modelo de regresión que relaciona cada descriptor con la concentración C, la temperatura T y un término de interacción C · T. Esta formulación permite derivar un esquema para estimar C desde un espectro observado bajo una temperatura conocida, favoreciendo la interpretabilidad y la trazabilidad del proceso de estimación. El desempeño de la metodología se evaluó mediante validación interna y externa, cuantificando la exactitud a través de métricas estándar, tales como el error absoluto medio (MAE) y la raíz del error cuadrático medio (RMSE). Adicionalmente, se comparó el método propuesto con un enfoque de referencia basado en regresión por mínimos cuadrados parciales (PLS), analizando ventajas y limitaciones en términos de precisión, estabilidad frente a variaciones térmicas e interpretabilidad. En conjunto, los resultados muestran que la banda O–H del agua contiene información cuantitativa suficiente para estimar la concentración de NaCl dentro del dominio experimental estudiado, siempre que se incorpore explícitamente la temperatura. La estrategia propuesta contribuye con un marco metodológico robusto para la cuantificación indirecta de salinidad mediante Raman, estableciendo bases para futuras extensiones hacia rangos más amplios de concentración, mezclas multicomponente y aplicaciones en condiciones operacionales más complejas.Item Desarrollo de estrategias de cuantificación del equilibrio estático utilizando algoritmos basados en sensores inerciales.(Universidad de Concepción, 2026) Inostroza Paillalef, Paula Bellanira; Aqueveque Navarro, Pablo EstebanEl equilibrio postural permite a las personas mantener la estabilidad al realizar actividades diarias, como caminar, estar de pie o girar. Su deterioro, ya sea por el envejecimiento o por afecciones neuromusculares, aumenta el riesgo de caídas, lo que representa una preocupación significativa a nivel mundial, debido al aumento de la población mayor de 60 años. Esto evidencia la necesidad de métodos precisos y accesibles para evaluar el equilibrio y diseñar intervenciones preventivas. Actualmente, las evaluaciones tradicionales del equilibrio se basan en pruebas clínicas y en sistemas de medición de movimiento, los cuales pueden ser costosos y requieren equipamiento especializado, lo que limita su uso en entornos clínicos y de investigación. Como alternativa, las unidades de medición inercial (IMU) han surgido como una solución más accesible y portátil para evaluar la estabilidad postural mediante métricas cuantitativas. Sin embargo, aunque su uso está en expansión, su implementación aún no se ha generalizado, ya que su validez y fiabilidad frente a los sistemas tradicionales no se encuentran completamente establecidas. En este trabajo se desarrolló, implementó y validó un sistema completo para la evaluación cuantitativa del equilibrio estático, basado en el uso de dos sensores inerciales ubicados en la región lumbar y en el tronco. El sistema integra adquisición de señales, procesamiento, extracción automática de métricas cinemáticas, dinámicas y espaciales, selección de variables relevantes mediante un ranking multicriterio y una interfaz gráfica orientada al despliegue de resultados. La validación del sistema se realizó mediante la comparación con un sistema de captura de movimiento (OptiTrack®), utilizando el protocolo m-CTSIB como marco experimental. Los resultados obtenidos demostraron que las métricas espaciales de oscilación postural calculadas son sensibles a los cambios en la demanda sensorial y presentan una alta concordancia entre sistemas de medición, especialmente para las componentes lineales. Estos hallazgos respaldan el uso del sistema como una herramienta válida y funcional para la evaluación objetiva del equilibrio postural. Esta investigación tiene el potencial de contribuir significativamente a la mejora del diagnóstico y tratamiento de trastornos del equilibrio, permitiendo intervenciones más efectivas y accesibles tanto en Chile como internacionalmente.Item Ubicando pares de vértices en ciclos hamiltonianos.(Universidad de Concepción, 2026) Zúñiga Cavieres, Daniel; Sanhueza Matamala, NicolásEn esta tesis daremos una demostración a la conjetura de Enomoto para grafos de tamaño lo suficientemente grande. Enomoto conjeturó que si un grafo con n vértices tiene grado mínimo al menos n/2 + 1, entonces para todo par de vértices x, y existe un ciclo hamiltoniano C tal que la distancia de x a y en el ciclo C es exactamente ⌊n/2⌋. Nuestra demostración no utiliza el Lema de Regularidad de Szemerédi, por lo que el valor mínimo de n para el cual nuestro resultado es cierto es considerablemente menor al conocido hasta la fecha. Nuestra principal herramienta es la Tricotomía de los grafos de Dirac, además de distintos resultados que aseguran la existencia de caminos hamiltonianos entre cualquier par de vértices, y resultados relacionados a grafos expansores robustos.Item Desarrollo de sistema para medir y ajustar la presión de las telas sobre la piel en personas que han sufrido quemaduras.(Universidad de Concepción, 2026) Moraga Ramírez, Valeria Constanza; Aqueveque Navarro, Pablo EstebanLas quemaduras graves representan un desafío significativo para la salud a nivel mundial, en términos de discapacidad motora y además estético, por lo que prevenir la aparición de cicatrices hipertróficas y favorecer una cicatrización adecuada es primordial. Hoy en día existen diversos tratamientos que tienen esto como objetivo, donde se destaca la terapia de compresión por sus beneficios tanto en la mejora de las características fisiológicas y estéticas de las cicatrices, como en el manejo del dolor. No obstante, la presión ejercida por las prendas no suele medirse directamente, sino que se estima un valor ideal de acuerdo con lo visual y sensación del paciente, esto principalmente por la falta de sistemas de medición para este propósito. Por esto, se plantea el desarrollo de un sistema usando sensores, que permita medir con precisión la presión ejercida por las telas sobre la piel, facilitando así al personal médico la evaluación de la efectividad del tratamiento. Dado que este trabajo se enfoca en el tratamiento con cicatrices, se realiza una búsqueda de sensores que posean alta sensibilidad y adaptabilidad, especialmente en condiciones húmedas, y que puedan ser utilizados en esta área delicada. En primera instancia se diseña un prototipo usando sensores capacitivos para monitorear la presión, donde los se concluye que la relación capacitancia vs. presión difiere de lo esperado, presentando valores superiores a los en la literatura. Esto se atribuye al diseño y configuración de los sensores, y a la conductividad de la piel en contacto directo con este. Por esto, y a partir de la revisión bibliográfica, se reformula el sistema de monitoreo utilizando medición de presión neumática mediante una compresa de aire. Esto también permite explorar la condición de ajuste manual de presión, como una propuesta de aumento de compresión provisoria en el tratamiento. La calibración muestra una relación lineal entre la presión teórica y la medida, junto con una adecuada precisión y estabilidad temporal. Las pruebas realizadas evidencian que la anatomía de la mano influye en la variabilidad de las mediciones, siendo mayor en zonas palmares complejas y menor en superficies más planas. Del mismo modo, el ajuste de presión entre 20 a 25 mmHg también se consiguió, donde en las 4 zonas medidas las pendientes registradas en el minuto de medición post intervención no son significativas, y según el análisis estadístico presenta características asociadas a una distribución normal. En conjunto, los resultados confirman que la medición neumática y ajuste constituye una alternativa viable y confiable para cuantificar objetivamente la presión ejercida por prendas compresivas.Item Segmentación automática del test Timed Up and Go mediante BiLSTM con datos de una IMU: extracción de biomarcadores cinemáticos.(Universidad de Concepción, 2025) Rojas Sandoval, Loreto Valentina; Aqueveque Navarro, Pablo EstebanEl Timed Up and Go (TUG) es una prueba funcional ampliamente utilizada para evaluar la movilidad, el equilibrio y el riesgo de caídas, especialmente en adultos mayores y personas con patologías neurológicas. Sin embargo, su enfoque tradicional basado en el tiempo total presenta limitaciones significativas al no considerar aspectos cualitativos del movimiento, como la estabilidad durante los giros y la coordinación al levantarse. Para abordar estas limitaciones, la integración de unidades de medición inercial (IMU) y algoritmos, ha permitido segmentar el TUG en subetapas específicas, mejorando la precisión en la detección de deficiencias motoras. Este trabajo propone un método automatizado para la segmentación de las seis subetapas del TUG utilizando una única unidad de medición inercial (IMU) ubicada en la región lumbar y un modelo de aprendizaje profundo basado en arquitecturas BiLSTM. Se recopilaron 315 ensayos de TUG provenientes de participantes de distintos rangos etarios y niveles funcionales, incluyendo sujetos sanos y personas con disfunción. Las señales inerciales fueron preprocesadas y etiquetadas manualmente en Label Studio para generar el dataset de entrenamiento. El modelo BiLSTM, compuesto por dos capas bidireccionales apiladas y una capa fully connected final, fue entrenado con un split 80/20 utilizando Adam, una tasa de aprendizaje de 0.0005 y 150 épocas. El modelo alcanzó un desempeño robusto, con precisiones y F1-scores superiores al 90% en la mayoría de las subetapas, y errores temporales (MAE) entre 0.28 y 0.40 segundos. La comparación con evaluadores clínicos demostró una alta concordancia, con ICC de hasta 0.98 para el tiempo total del TUG y valores de MAE similares a los observados entre los propios clínicos. Además, la segmentación automática permitió la extracción de 60 biomarcadores cinemáticos y temporales seleccionados mediante Recursive Feature Elimination (RFE), los cuales presentaron una alta capacidad discriminativa entre grupos etarios y funcionales (AUC de hasta 0.98 en la etapa de segundo giro). Finalmente, se establecieron rangos de referencia estratificados por edad para los biomarcadores derivados, y se observaron correlaciones significativas con la edad en varios de ellos, lo que confirma su relevancia clínica. Los resultados sugieren que este enfoque basado en una única IMU y un modelo BiLSTM constituye una herramienta precisa, reproducible y clínicamente útil para la segmentación automática del TUG y la caracterización del movimiento humano.Item Estudio mecanístico mediante espectroscopía infrarroja in situ de la oxidación selectiva de metanol sobre catalizadores de molibdeno y vanadio.(Universidad de Concepción, 2025) Fuentes Soto, Bastián Alexis; Karelovic Burotto, Alejandro IvánMethanol oxidative dehydrogenation on titania supported metal oxide catalysts was studied to clarify different mechanistic proposals reported in the literature. Operando spectroscopic and isotopic transient experiments under controlled reaction conditions, combined with correlations between catalyst structure and product distribution, revealed how the nature of redox sites governs the methyl formate formation and integrates the reaction pathways into a coherent framework. Sub-monolayer MoO3/TiO2 and V2O5/TiO2 catalysts, dominated by highly dispersed interfacial M–O–Ti linkages (M = Mo, V), stabilize formate-type intermediates which favor methyl formate production through the formate–mediated route. In contrast, catalysts featuring crystalline M–O–M domains promote the hemiacetal intermediate, where less stabilized intermediates lead directly to methyl formate and dimethoxymethane formation. These results indicate a common mechanistic framework for both Mo– and V–based systems, in which the dominant pathway is selectively expressed depending on the nature and distribution of redox sites rather than on the metal identity itself. Isotopic labeling and transient experiments rule out extensive methoxy exchange and the Tishchenko pathway for methyl formate formation, under the studied conditions. Differences in intermediates stabilization, active sites distribution, and kinetic isotope effects account for the observed variations in reaction orders and selectivity. Overall, the study demonstrates that the formation of oxygenates in methanol oxidative dehydrogenation critically depends on the type of redox site involved, establishing a structural – mechanistic framework that rationalizes the behavior of MoO3/TiO2 and V2O5/TiO2 catalysts and can be extended to other reducible oxide systems engaged in selective oxidation reactions.Item Multiplicación de matrices booleanas comprimidas mediante bicliques.(Universidad de Concepción, 2025) Araya Durán, Nicolás Enrique; Hernández Rivas, CeciliaLa multiplicación booleana de matrices es una operación fundamental en numerosas aplicaciones basadas en grafos, como el análisis de redes web y sociales, la recuperación de información y la evaluación de consultas sobre grafos. No obstante, las representaciones dispersas convencionales, como CSR y CSC, siguen implicando cos tos significativos de espacio y tiempo cuando se aplican a grafos de gran escala. En este trabajo, hemos desarrollado una representación basada en bicliques que comprime matrices booleanas mediante su descomposición en subgrafos bipartitos densos, capturando así grandes conjuntos de aristas de manera implícita. En primer lugar, mejoramos el algoritmo iterativo de extracción de bicliques de Hernández y Navarro mediante la incorporación de una adaptación de parámetros basada en percentiles, la cual ajusta dinámicamente dichos parámetros según la distribución de grados, reduciendo el tiempo de cómputo de extracción y aumentando la tasa de compresión. Luego, extendemos el algoritmo de multiplicación de Schoor para operar directamente sobre matrices codificadas con bicliques, permitiendo una forma composicional de multiplicación en la que la salida también puede representarse como una colección de bicliques. Nuestros resultados experimentales demuestran que nuestro enfoque logra reducciones en espacio y tiempo de cómputo, alcanzando aceleraciones de hasta 200× en comparación con implementaciones basadas en CSR/CSC, y una competitiva cantidad de bits por arista comparado con el k2-tree. Estos resultados demuestran que la compresión basada en bicliques ofrece un equilibrio efectivo entre compresión y operatividad algebraica para el procesamiento de matrices booleanas a gran escala.Item Jardines del Edén en redes dinámicas finitas.(Universidad de Concepción, 2025) Jara Cádiz, Nikolas Fernando; Aracena Lucero, Julio BernardoLas redes dinámicas finitas constituyen una base esencial para modelar sistemas complejos en diversas áreas del conocimiento, como la biología, la informática y la física. Estas redes, representadas mediante funciones de transición sobre espacios finitos, permiten estudiar la evolución de configuraciones discretas a lo largo del tiempo. Su flexibilidad ha favorecido su uso en la modelación de redes de regulación génica, teoría de redes sociales, autómatas celulares y sistemas distribuidos.Item Análisis de la asimetría estructural y funcional del cerebro a lo largo de la vida usando base de datos del HCP de envejecimiento.(Universidad de Concepción, 2025) Vergara Donoso, Catalina Antonia; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEl envejecimiento cerebral conlleva cambios graduales en la estructura y funcionalidad del cerebro, afectando las capacidades cognitivas y los patrones de comportamiento. En este contexto, la asimetría cerebral, entendida como la diferencia entre los hemisferios, ofrece información valiosa sobre la organización cerebral y puede contribuir a la detección temprana de alteraciones estructurales asociadas a enfermedades neurodegenerativas. El presente estudio analizó cómo el envejecimiento influye en la asimetría cerebral, mediante el análisis de métricas estructurales (materia gris y blanca) y funcionales del cerebro. El objetivo principal fue caracterizar las asimetrías de la conectividad estructural y funcional en individuos sanos. Para ello, se utilizó la base de datos del Human Connectome Project– Aging, que incluye datos de 725 sujetos con edades comprendidas entre los 36 y 100 años. Mediante la aplicación de modelos estadísticos, se identificaron patrones específicos de asimetría asociados al envejecimiento. Los resultados evidenciaron tanto tendencias lineales como no lineales, observadas en métricas estructurales y funcionales. Además, se evaluó la relación entre estructura y función, identificándose un componente significativo que vincula una métrica de la materia gris con una de conectividad funcional, sugiriendo una correspondencia entre la organización anatómica y la dinámica funcional del cerebro. En la materia gris, se encontró un componente principal significativo para el área superficial, compuesto por 2 regiones, para el espesor cortical medio, 3 componentes principales que en conjunto incluyen 21 regiones corticales, y para el volumen, 2 componentes principales que abarcan 4 regiones subcorticales en total. Se destaca que, para la métrica de volumen, el cambio de los componentes principales se explicaba en un 7.13% por la edad, siendo este el valor más alto entre las métricas de materia gris, mientras que el área superficial presentó el valor más bajo, con un 2.64%. En la materia blanca se observó, en general, una mayor variabilidad asociada con la edad en comparación con la materia gris, coincidiendo con lo reportado en la literatura. De manera más específica, las fibras cortas, a diferencia de las largas, muestran una mayor variabilidad con la edad. Esto podría estar relacionado con el hecho, descrito en la literatura, de que las fibras cortas poseen menor cantidad de mielina que las fibras largas, lo que las puede hacer más susceptibles a procesos de desmielinización vinculados al envejecimiento y reflejarse en una mayor vulnerabilidad estructural. Dentro de las fibras cortas, se destaca la métrica promedio de anisotropía fraccional (FA), donde el cambio de los componentes principales se explicaba en un 26.96% por la edad, siendo este el valor más alto entre las métricas de materia blanca y gris. La métrica promedio de difusividad media (MD) presentó el valor más bajo, con un 7.56%. En las fibras largas, el mayor valor correspondió a la métrica promedio de difusividad axial (AD) con un 5.16%, mientras que la menor fue la anisotropía cuantitativa (QA) con un 3.5%. Respecto a los componentes principales en fibras cortas, se identificaron un total de 7 componentes significativos en la métrica de FA, compuestos por 22 fascículos. En QA se obtuvieron 4 componentes principales, que en conjunto incluyen 15 fascículos. Para AD se identificó un componente con 4 fascículos, para RDuncomponentecon3fascículosyparaMDuncomponentecon3fascículos.Enfibraslargas, para la métrica promedio de FA, un componente principal significativo compuesto por 2 fascículos, en QA, un componente compuesto por 2 fascículos, en AD, un componente compuesto por 4 fascículos, en RD, un componente compuesto con 3 fascículos, y en MD, 2 componentes que abarcan un total de 6 fascículos. En la conectividad funcional, se observó que la métrica de longitud del camino más corto presentó el mayor porcentaje de variación asociado a la edad, con un 56.07%, superando al resto de las métricas funcionales y estructurales. Esto sugiere que los cambios en la eficiencia de integración funcional del cerebro son particularmente sensibles al envejecimiento y podrían reflejar procesos de reorganización de la red funcional. Estos hallazgos, pueden servir como referencia para futuras investigaciones, facilitando la compa ración con poblaciones que presentan alguna patología neurológica y contribuyendo a una evaluación más precisa de cómo estas condiciones afectan la asimetría cerebral en contraste con el envejecimiento normal.Item Superficial FES Techniques for Improving Hand Dexterity in Neurorehabilitation.(Universidad de Concepción, 2025) Sáez Acuña, Javier Ignacio; Aqueveque Navarro, Pablo Esteban; Andrews, Brian James; Saavedra Rodríguez, Francisco AndrésLa presente tesis aborda los desafíos asociados con los déficits motores del miembro superior posteriores al accidente cerebrovascular. Centrando la investigación en la FES como modalidad terapéutica, se busca mejorar la precisión, eficacia y accesibilidad de la estimulación eléctrica superficial para la rehabilitación de la destreza manual. Las técnicas actuales presentan limitaciones relevantes, como baja selectividad muscular y malestar durante la terapia. La literatura destaca tres conceptos para optimizar neuroprótesis no invasivas: (1) rediseño geométrico de electrodos hacia configuraciones concéntricas para focalizar el campo eléctrico; (2) uso de manufactura aditiva para crear nuevas geometrías; y (3) aplicación de estímulos de media frecuencia para reducir la impedancia cutánea y mejorar la comodidad. No obstante, persisten vacíos respecto al impacto de estos enfoques en terapias FES, lo que constituye el foco de esta tesis. La metodología comprende cuatro fases: diseño de electrodos, modelación computacional, prototipado mediante manufactura aditiva y pruebas in vivo en sujetos sanos. Los resultados indican que los electrodos concéntricos generan un campo eléctrico más localizado (r₀.₅: 16,3 mm vs. 24,4 mm), y que el proceso de impresión 3D permitió fabricar electrodos flexibles y biocompatibles a bajo costo (~2,4 USD). En pruebas in vivo, la selectividad aumentó un 32% y la estimulación interferencial redujo significativamente el malestar (VAS: 3,75 ± 1,98 a 2,12 ± 1,73). En conjunto, la tesis demuestra que optimizar la geometría de los electrodos y los parámetros de estimulación mejora la selectividad y la comodidad en FES superficial, aportando bases para futuras terapias no invasivas orientadas a tareas y personalizadas para cada paciente.Item Estudio de alteraciones en la conectividad estructural y funcional del cerebro basado en imágenes de resonancia magnética de pacientes con psicosis temprana.(Universidad de Concepción, 2025) Frías Leiva, Paola Lorena; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEn las últimas décadas, investigaciones se han centrado en comprender las bases de la psicosis y sus posibles causas, donde se incluyen factores genéticos, anomalías cerebrales y factores ambientales. Un enfoque clave en la actualidad es el estudio de las fibras de la materia blanca, debido a su importancia en las conexiones del cerebro. Estas juegan un papel crucial en la transmisión de señales, y su disfunción ha sido asociada con la aparición de síntomas psicóticos. Esta tesis propuso estudiar las alteraciones en la conectividad cerebral en pacientes con psicosis temprana, a través del análisis conjunto de imágenes de resonancia magnética por difusión (dMRI) y resonancia funcional (fMRI). El objetivo principal fue identificar y analizar alteraciones en la estructura de la materia blanca y cambios en la conectividad funcional entre regiones cerebrales, ofreciendo nuevas perspectivas en la comprensión de las alteraciones presentes en la psicosis. Para esto, se empleó la base de datos del “Human Connectome Project for Early Psychosis”, con datos de 75 pacientes con psicosis y 55 controles sanos. El análisis dMRI se centró en fascículos de fibras largas y cortas, empleando medidas derivadas de las imágenes del tensor de difusión (DTI) y del muestreo de Q generalizado (GQI). A su vez, el análisis de fMRI se basó en la construcción de matrices de conectividad funcional, evaluando su organización a través de métricas locales y globales de teoría de grafos. Los resultados mostraron alteraciones estructurales más evidentes en fascículos largos, especialmente en la anisotropía cuantitativa, con diferencias significativas en tractos comisurales, frontales y subcorticales. En cuanto a la conectividad funcional, la métrica de centralidad del vector propio destacó por identificar varios nodos con cambios relevantes, sugiriendo una reorganización jerárquica en la red cerebral de pacientes. Este hallazgo fue complementado por resultados en el coeficiente de agrupamiento, lo que apunta a una posible disrupción tanto local como global en la conectividad. Estos cambios fueron consistentes al aplicar análisis complementarios como reducción de dimensionalidad mediante PCA y clasificación supervisada con el modelo SVM. A futuro, se plantea ampliar la muestra y considerar nuevas variables clínicas, lo cual permitiría una interpretación más completa. También se propone validar externamente los modelos clasificatorios y considerar la inclusión de sujetos con psicosis afectiva, con el objetivo de explorar similitudes y diferencias en sus patrones de conectividad. El uso combinado de estas técnicas permite una perspectiva más completa al poder complementar resultados para la comprensión de las alteraciones cerebrales en la psicosis temprana. Este estudio busca contribuir al estudio y compresión de cómo afectan la integridad de las fibras y su conectividad en la presencia de síntomas psicóticos.Item Análisis de condiciones de carga en el desgaste del manto de un chancador primario.(Universidad de Concepción, 2025) Rojas López, Christian Andrés; Rodríguez Godoy, Cristian Gabriel; Moncada Merino, Manuel AlonsoEl chancador giratorio primario es un equipo esencial en la minería del cobre, ya que permite la reducción de tamaño de las rocas extraídas, facilitando su posterior procesamiento. Sin embargo, el desgaste de sus componentes, especialmente el manto, afecta su eficiencia, incrementa los costos operacionales y reduce la disponibilidad del equipo. Este estudio busca analizar el desgaste del manto a través de simulaciones utilizando el Método de Elementos Discretos (DEM por sus siglas en inglés), con el objetivo de identificar los factores clave que influyen en su deterioro. La hipótesis planteada sugiere que el perfil de desgaste del manto está directamente relacionado con la combinación de la magnitud de las fuerzas normal y tangencial, así como con la velocidad de compresión de las partículas durante el proceso de chancado. Para comprobar esta hipótesis, se modeló el chancador Metso Superior 60-89 en el software Rocky DEM, simulando su comportamiento en diferentes etapas de desgaste (0, 28, 42 y 57 días). Se analizaron variables como la fuerza aplicada sobre el manto, la velocidad de compresión y la influencia de la forma de las partículas en los resultados, considerando tanto partículas poliédricas como esféricas. Los resultados obtenidos muestran que el desgaste es más pronunciado en las zonas donde la fuerza normal es mayor, lo que sugiere que este tipo de carga tiene una mayor influencia en la degradación del manto en comparación con la fuerza tangencial. Además, se observó que, en una etapa inicial del desgaste, el flujo de producción aumentó desde 4.013,7 tph en la condición sin desgaste (𝐷0) hasta 5.330,5 tph en el caso 𝐷42, debido a una reducción en la restricción del material. Sin embargo, en etapas avanzadas, como en el caso 𝐷57, el flujo disminuyó a 4.969,2 tph producto de las irregularidades generadas en la geometría del revestimiento, lo que afecta negativamente la eficiencia del proceso de chancado. Otro hallazgo relevante es el efecto del desgaste sobre el consumo energético. Se observó que, a medida que progresa el deterioro del manto, la potencia requerida para el chancado aumenta considerablemente, pasando de 624,9 kW en la condición inicial sin desgaste (𝐷0) a un máximo de 933,4 kW tras 57 días de operación (𝐷57), lo que equivale a un incremento del 49%. Este aumento evidencia la demanda energética adicional necesaria para mantener la operación, impactando en la eficiencia del proceso. Se realizó un análisis de correlación utilizando los coeficientes de Pearson y de determinación (𝑅²), evidenciando relaciones significativas entre las fuerzas espaciales, la velocidad de compresión y el desgaste experimental. Se observaron valores de Pearson superiores a 0,89, con un máximo de 0,9043 en el caso 𝐷57, mientras que 𝑅² alcanzó un máximo de 0,8178. Estos resultados respaldan la posibilidad de predecir el desgaste del manto a partir de la concentración de fuerzas normales y tangenciales combinadas con la velocidad de compresión. En conclusión, este estudio permite establecer una correlación entre el desgaste del manto y variables como las fuerzas espaciales y la velocidad de compresión, con el fin de desarrollar modelos predictivos indirectos. Estos modelos ofrecen una base para mejorar el diseño del chancador y optimizar las estrategias de mantenimiento preventivo, lo que a su vez contribuye a reducir los costos operacionales y a incrementar la disponibilidad del equipo en faenas mineras.Item Evidence-driven simulated data in reinforcement learning training for personalized mhealth interventions.(Universidad de Concepción, 2025) Galgano Cabrera, Giorgio Stefano Ian Michele; Caro Seguel, Juan Carlos