Tesis Magíster
Permanent URI for this collection
Browse
Recent Submissions
Item Analytical Solution for Optimal Stiffness and Damping for Comfort and Road-Holding in the Half Car Model.(Universidad de Concepción, 2025) Gutiérrez Burgos, Haidar Manuel; Leaman Weiffenbach, Félix AlbertoEsta investigación explora el análisis de covarianza en el Modelo de Medio Vehículo (HCM) para derivar parámetros óptimos de suspensión que maximicen, por separado, el confort y la adherencia. Se modelan las irregularidades del camino como perturbaciones de ruido blanco Gaussiano, excluyendo acciones del conductor y eventos discretos. La investigación comienza reproduciendo técnicas existentes de optimización de la suspensión para el Modelo de Cuarto de Vehículo (QCM, por sus siglas en inglés) utilizando análisis tanto en el dominio del tiempo como en el dominio de la frecuencia. Estos enfoques complementarios producen expresiones analíticas idénticas para parámetros óptimos enfocados en adherencia y confort. Posteriormente, la investigación extiende estas metodologías analíticas al Modelo de Medio Vehículo de un solo eje, incorporando explícitamente una barra estabilizadora como elemento de interconexión. Esta extensión da como resultado expresiones analíticas para los indicadores de rendimiento y coeficientes óptimos de la suspensión. Las ecuaciones derivadas ilustran explícitamente la influencia de la barra estabilizadora, demostrando que los parámetros de la suspensión deben optimizarse considerando las rotaciones angulares del chasis. Se identifican desviaciones significativas en los parámetros óptimos en comparación con soluciones más simples del QCM, lo que resalta la necesidad de tener en cuenta la dinámica del chasis incluso en escenarios sin barra estabilizadora. Para el HCM de dos ejes, se adoptan métodos numéricos debido a la complejidad analítica, especialmente por la correlación con desfase de tiempo. Los resultados revelan configuraciones óptimas asimétricas dependientes de la velocidad, incluso en vehículos simétricos. Un análisis de sensibilidad destaca que la estimación precisa de parámetros impacta más que la modelación del desfase. Este análisis integral supera las limitaciones de modelos simplificados e introduce metodologías avanzadas para optimizar el diseño de suspensiones en términos de confort y adherencia.Item Diseño e implementación de una suite de optimización preliminar del sistema ADCS en CubeSats de observación terrestre en órbitas bajas.(Universidad de Concepción, 2025) Tacul Vargas, Matías Ignacio; Leaman Weiffenbach, Félix AlbertoLos CubeSats, nanosatélites de bajo costo, se han convertido en una herramienta ampliamente utilizada en diversas aplicaciones espaciales, especialmente en misiones de observación terrestre. En este tipo de misiones, es fundamental orientar con precisión la carga útil hacia la superficie terrestre para garantizar la calidad de los datos recolectados. Sin embargo, tanto el rendimiento como el costo de estos satélites dependen en gran medida de las características de los sensores y actuadores que los componen. En este contexto, el presente estudio aborda el desafío de identificar el conjunto óptimo de componentes del sistema de determinación y control de actitud (ADCS), ajustándose a los requisitos específicos de cada misión. Con este propósito, se desarrolló una suite de simulación que modela tanto la dinámica orbital como la actitud del CubeSat, integrando sensores y actuadores en el Subsistema de Determinación y Control de Actitud (ADCS). Esta suite incorpora algoritmos de estimación, como una variante del filtro de Kalman extendido, y controladores LQR o PD según requerimiento. Se diseño una suite de optimización capaz de encontrar un equilibrio entre costo y rendimiento, considerando las restricciones impuestas por los System Engineering envelopes (como masa y potencia) y los Measures of Performance (MoP) definidos por el usuario. Dado que el problema de optimización no es convexo y presenta múltiples mínimos locales, se evaluaron diversos algoritmos, destacando el método de Powell como el más robusto. Este algoritmo, implementado a través del módulo scipy.optimize en Python, demostró una alta capacidad para alcanzar mínimos globales sin requerir derivadas explícitas. Como demostración, se ejecutó un caso práctico de optimización utilizando magnetorquers, donde se seleccionaron componentes físicos óptimos bajo restricciones técnicas representativas de la misión SUCHAI-3. El estudio reveló que para métricas como la agilidad, la autoridad del actuador tiene un impacto crítico, mientras que para métricas como el jitter o la exactitud, la precisión de los sensores es más determinante. Los resultados indicaron que el diseño optimo de un ADCS debe balancear cuidadosamente los SE Envelopes y los MoP según el objetivo de la misión, siendo posible, mediante esta metodología, seleccionar componentes específicos en función de su contribución al rendimiento general del sistema. Esta herramienta será evaluada a futuro como un optimizador no solo aplicable a CubeSats, sino también, con las adaptaciones necesarias, como una solución para otros tipos de vehículos aéreos, como los RPAS, incorporando cambios o mejoras al algoritmo de optimización según los requerimientos de cada plataforma.Item Algoritmo y acelerador hardware para la estimación de cuantiles en propiedades de flujos de red.(Universidad de Concepción, 2025) Gallardo Pavesi, Carolina Sofía; Figueroa Toro, Miguel Ernesto; Hernández Rivas, CeciliaLa medición y análisis del tráfico de datos es fundamental para la gestión y seguridad de redes de datos, ya que nos permite detectar e identificar elementos o eventos que no coinciden con el comportamiento típico, llamados anomalías. Estas anomalías nos ayudan a detectar posibles fallas o ataques. Una red de datos puede ser modelada por conexiones entre dos puntos llamadas flujos. Al analizar la distribución de ciertas propiedades de estos flujos, tales como el número de paquetes (denominado como frecuencia en la literatura) o la cantidad de bytes útiles enviados (payload), podemos detectar anomalías en el corto y largo plazo. Estas distribuciones pueden ser caracterizadas usando cuantiles, donde el cuantil de un elemento es la fracción de elementos del conjunto que son menores o iguales a este. No obstante, para poder tomar acciones correctivas oportunamente, el análisis de esta distribución debe realizarse de manera rápida y en línea. Dado los grandes volúmenes de tráfico y la velocidad de los enlaces modernos, esto es costoso computacionalmente, por lo que un procesador de propósito general es insuficiente para abordar el problema y utilizar aceleradores hardware se vuelve una opción atractiva. Sin embargo, estos dispositivos poseen una cantidad de memoria interna reducida, lo que hace imposible calcular en línea el valor exacto de estos cuantiles para trazas de tamaño típico en redes de alta velocidad, ya que implica almacenar las frecuencias para cada flujo. Como una forma de abordar este problema, se han propuesto estructuras de datos probabilísticas, llamadas sketches, que permiten estimar propiedades de grandes volúmenes de datos, tales como los cuantiles, con una eficiencia espacial alta. Sin embargo, dado que ciertas propiedades de los flujos, tales como la frecuencia, se acumulan a través de múltiples paquetes, éstas deben actualizarse en el sketch cada vez que llega un nuevo paquete. Los algoritmos que permiten trabajar con este modelo asumen un universo (el rango al que pueden pertenecer los elementos insertados) fijo y el espacio utilizado depende del tamaño de este universo, por lo que utilizarlos se vuelve poco conveniente. Por otra parte, se puede utilizar un sketch de estimación de frecuencia que permita acumular el número de paquetes por flujo y realizar el análisis de cuantiles sobre esta información. No obstante, estimar la frecuencia de todos los flujos mediante este sketch no es compatible con las restricciones de memoria ya que requeriría almacenar el identificador de cada flujo en la traza. En trabajos recientes, se ha demostrado que, almacenando únicamente la frecuencia de los flujos más grandes, es posible aproximar la distribución de la frecuencia del resto de los flujos mediante suposiciones respecto a su distribución estadística [1]. En este trabajo, proponemos un algoritmo de estimación de cuantiles que combina un sketch de estimación de frecuencia junto con otras estructuras de datos para estimar la frecuencia de los flujos más grandes. Usando estas frecuencias, estimamos los parámetros de una distribución estadística de tipo power-law que describe la frecuencia del resto de los flujos. Usando esta aproximación y las frecuencias reales de los top-𝐾, se responden dos tipos de consultas de cuantiles: (i) Dado un valor de cuantil, determinar la frecuencia que se encuentra en ese cuantil. (ii) Dada una frecuencia, encontrar el cuantil en el que ésta se encuentra. Adicionalmente, presentamos la arquitectura de un acelerador hardware que implementa este algoritmo sobre un dispositivo FPGA. El algoritmo propuesto responde consultas sobre 9 trazas de CAIDA [2] con un error absoluto promedio entre 0.0004% y 0.0122% para consultas de cuantil dado un valor de frecuencia y un error absoluto promedio entre 0.43 y 2.09 cuentas para consultas de frecuencia dado un valor de cuantil. La arquitectura propuesta fue implementada en un FPGA AMD XCU280 UltraScale+, alcanzando una frecuencia máxima de 392MHz en el procesamiento de paquetes. El acelerador puede recibir un nuevo paquete en cada ciclo de reloj, soportando una tasa de recepción de peor caso de 200Gbps. Por otro lado, la latencia máxima de consulta es de 38.5 𝜇𝑠 para consultas de frecuencia dado un valor de cuantil y 4.2 𝜇𝑠 para consultas de cuantil dado un valor de frecuencia.Item Análisis de las consecuencias económicas y medioambientales del uso de autos eléctricos en Chile.(Universidad de Concepción, 2025) Arancibia Zapata, César Eduardo; Pradenas Rojas, Lorena del Carmen; Jensen Castillo, María MagdalenaThis study evaluates the economic and environmental impacts of electric vehicle adoption in Chile through three scenarios (sustainable, conservative, non-sustainable) for the period 2025-2050. Using machine learning models and international subsidy frameworks adapted to Chilean conditions, we project Battery Electric Vehicles (BEV) market penetration, energy demand, emissions, and consumer costs. Results show that aggressive policy intervention (including 25% purchase subsidies and expanded charging infrastructure) could achieve 100% BEV sales by 2035, reducing transportation CO₂ emissions by 28%. Chile's renewable-dominated grid can support full electrification with only 4% of national generation capacity. Despite a 25% energy penalty from heating in cold climates, BEVs demonstrate 184% lower emissions than conventional vehicles and 18% lower annual costs under supportive policies. Lithium extraction for domestic BEV production poses localized environmental challenges regarding water usage. The transition requires coordinated government intervention combining financial incentives, infrastructure development, and sustainable mining practices to prevent electromobility from becoming exclusive to high-income sectors.Item Parcelación cortical basada en conectividad estructural mejorada para base de datos HCP y su aplicación intra-sujeto.(Universidad de Concepción, 2025) Stockle Cornejo, Martín Ignacio; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaEsta tesis se sitúa en el campo de la neurociencia, con un enfoque especifico en la parcelación de la superficie cortical del cerebro humano basada en imágenes de resonancia magnética (MRI). Esta busca dividir la corteza cerebral, la cual es una capa externa y altamente plegada del cerebro, en múltiples regiones basándose en diversos criterios y datos, con el fin de estudiar su función, conectividad y posibles implicaciones en funciones cognitivas y comportamentales, lo cual lo convierte en algo esencial para acercarnos a la comprensión del cerebro humano, la personalización de tratamientos neurológicos y detección de anomalías especificas en individuos. Entre las diversas metodologías existentes para la parcelación cortical, este estudio se centra en el enfoque desarrollado por Narciso Lopez, cuyo método combina el uso de atlas de fibras cerebrales con datos de imágenes medicas de múltiples sujetos, permitiendo obtener una representación promedio de la parcelación cortical. Para ello, se genera a partir de la MRI anatómica de cada sujeto una representación del mallado de la superficie cortical y a partir de la MRI de difusión se genera un conjunto de datos de tractografía, que es una representación de las vías de conexión de la materia blanca del cerebro humano, denominadas fibras neuronales. El método detecta en cada sujeto los fascículos de fibras del atlas y obtiene la intersección de cada fascículo con su mallado de la superficie cortical. A continuación, para cada fascículo, une las intersecciones de todos los sujetos, las que definen las subparcelas preliminares de la superficie. Estas subparcelas se encuentran contenidas en parcelas anatómicas pertenecientes al atlas Desikan-Killiany. Finalmente, estas subparcelas son procesadas y fusionadas, obteniendo una versión promedio de la parcelación de la superficie cortical. La principal contribución de esta investigación radica en la implementación de mejoras al método original para su adaptación a la base de datos del Human Connectome Project (HCP), que cuenta con mayor calidad y representatividad, incorporando mejoras como la incorporación de un nuevo atlas de fibras cortas y la segmentación del atlas de fibras largas, lo que permite aumentar la cobertura de la superficie cortical. Además, se optimizan aspectos clave del algoritmo, como la obtención de centroides para la alineación de fascículos, la eliminación precisa de subparcelas y ti ángulos, y la modificación del calculo de probabilidades. Además, se desarrollan diversos métodos de visualización de fascículos y parcelaciones para apoyar el proceso de elaboración de los algoritmos y la formulación de resultados, tales como una herramienta para visualización de la parcelación de la superficie cortical como una matriz de mallados en la cual se destacan cada parcela por separado, y una herramienta de visualización en una misma figura el mallado, fascículos y parcelas. Por ´ultimo, se evalúa una propuesta para la generación de parcelaciones individualizadas basadas en la parcelación promedio de la superficie cortical, aprovechando el registro del procesamiento de subparcelas promedio para replicarlo en su propio procesamiento de subparcelas individuales, obteniendo en un individuo su propia parcelación de la superficie cortical. Los resultados obtenidos muestran avances significativos en la parcelación promedio, como una cobertura de la superficie cortical mayor, alcanzando un 95.99% de cobertura, que equipara la representatividad de la superficie cortical presentada en atlas anteriores. Sin embargo, persisten desafíos en la generación de parcelaciones individualizadas. Los índices DICE y los porcentajes de cobertura indican que la similitud entre la parcelación promedio y las parcelaciones individualizadas obtenidas con el método propuesto son insuficientes, llegando a tan solo 50.45% de cobertura, donde un 29.49% son de solapamiento, reflejando limitaciones en la capacidad del algoritmo para capturar las características individuales de la conectividad cortical. En conclusión, esta investigación ha logrado avances relevantes en la representación de la conectividad estructural del cerebro humano, mejorando tanto la calidad de las parcelaciones promedio como las herramientas para su estudio. No obstante, la obtención de parcelaciones individualizadas precisa de futuras investigaciones que incorporen nuevas propuestas de procesamiento de las parcelas y nuevas métricas de evaluación para aumentar la certeza de la representatividad de las parcelaciones obtenidas.Item Mineral classification using SWIR hyperspectral imaging: From classical machine learning techniques to transformers.(Universidad de Concepción, 2025) Cifuentes Ramírez, José Ignacio; Rojas Norman, Alejandro José; Garcés Hernández, Hugo OmarThis work provides a comprehensive review of supervised models for hyperspectral imag ing, from classical machine learning techniques to state-of-the-art Transformers. Additionally, this research proposes a multispectral optical sensor that harnesses capabilities from SWIR hyperspectral to SWIR-multispectral for mineral classification using classical machine learning techniques. Furthermore, a novel 1D-RMC model was described using a solid mathematical foundation, thereby ensuring its implementation and performance viability based on previous results levering the spectral domain. Experiments were carried out using three datasets: one containing nine classes of minerals, the second containing reflectance images of 130 samples of 76 distinct minerals, and third, to ensure the 1D-RMC capabilities, the standard hyperspectral dataset "Indian Pines" and "Houston2013.” The results showed that it is feasible to build an optical sensor with five channels to obtain competitive results compared with hyperspectral data using machine learning techniques. Furthermore, the proposed deep learning models out performed the traditional machine learning algorithms by at least 3% in terms of accuracy and F1-score for the mineral dataset. Finally, 10 well-known models, including Transfomers, were compared with 1D-RMC, obtaining competitive results with state-of-the-art backbone network models, suprassing by at least 2% in terms of Overall Accuracy (OA), average accuracy (AA), and Kappa (κ) metrics.Item Evaluación del método de Iosipescu para determinación de resistencia al corte (IFSS) y su aplicación en fibras de carbono recicladas.(Universidad de Concepción, 2025) Romero Yanine, Felipe Nicolás; Salas Salgado, Alexis FidelEl uso de materiales compuestos se ha potenciado durante los últimos años debido a sus altas propiedades especificas. La integridad de la interfase fibra-matriz, se cuantifica utilizando la resistencia al corte interfacial (IFSS), siendo un parámetro clave para garantizar una transferencia de carga eficiente. La critica situación ambiental actual, hace necesario estudiar procesos de recuperación de fibras. La pirólisis de dos pasos, se presenta como un proceso energéticamente conveniente. Sin embargo, el proceso degrada esta interfase al eliminar el sizing y depositar carbón pirolítico, afectando las propiedades mecánicas de las fibras recicladas. Tradicionalmente, el IFSS se evalúa mediante técnicas micromecánicas como el Single Fiber Fragmentation Test (SFFT), las cuales requieren instrumentación especializada y presentan limitaciones en matrices opacas o interfaces con alta adherencia. Frente a ello se propone utilizar ensayos a nivel hebra de Iosipescu como una alternativa accesible, rápida y representativa del comportamiento interfacial en condiciones reales de uso que puede reemplazar el método de Iosipescu. En conjunto, los resultados obtenidos permiten validar parcialmente la aplicabilidad del ensayo de Iosipescu como una técnica complementaria y de menor costo para estimar el IFSS en fibras recicladas por pirólisis. Aunque no sustituye las metodologías a microescala, su uso, ofrece una vía prometedora para complementar la caracterización mecánica de materiales compuestos reciclados, favoreciendo el desarrollo de estrategias sostenibles de reutilización en el marco de una economía circular.Item Superresolución en un sistema plenóptico infrarrojo de onda corta multiespectral.(Universidad de Concepción, 2025) Lermanda Sandoval, Joaquín Alonso; Torres Inostroza, SergioEl avance e invención de nuevas técnicas de captura de imágenes infrarrojas en los últimos años han permitido no solamente obtener imágenes más detalladas, sino que además obtener información de una escena cualesquiera que, sin las previamente mencionadas técnicas, no se podría conocer. Los ámbitos en los cuales se desempeña el infrarrojo (IR) son tan variados como únicos, implicando así que no existe una sola solución correcta para los problemas existentes. Sin embargo, el uso de esta tecnología posee desventajas notorias respecto a otras bandas espectrales, particularmente, la baja resolución de imagen producto de la tecnología del sensor IR, lo que provoca imágenes de baja calidad en una banda espectral que ya posee problemas como el Fixed Pattern Noise (FPN) y blur. La presente investigación se centra alrededor del desarrollo de un sistema plenóptico con las capacidades de resolver la baja resolución del espectro mediante superresolución (SR), en particular del short wave infrared (SWIR), utilizando además un método de eliminación de ruido con características multiespectrales, para generar un sistema óptico completo. Se aumenta la resolución del SWIR mediante iteraciones de un método Plug and Play basado en Alternating Direction Method of Multiplier (ADMM) para asemejarla a otras bandas espectrales como el near infrared (NIR). Posteriormente, se emplean métricas de calidad de imagen para comparar con los resultados obtenidos por otros métodos de SR, desarrollando pruebas de simulación y experimentales. Se eligen escenas donde el objeto de interés a medir posea detalle suficiente para poder realizar comparaciones y donde la componente espectral muestre diferencias, evaluando así el comportamiento de la resolución en varios espectros. Lo anterior resulta en imágenes con resolución aumentada, sin ruido y características multiespectrales variadas que de acuerdo a métricas de imágenes comunes como lo son PSNR, SSIM y una del IR llamada RLP. Comparando con otros métodos de SR, la mejora del método propuesto no solo supera en SSIM, sino que también en eliminación de ruido de manera considerable, generando así un sistema óptico completo.Item Generación automática de una metaheurística para el problema de asignación de cirugías electivas considerando afinidad y preferencias en el equipo quirúrgico.(Universidad de Concepción, 2025) Ríos Fierro, Francisco Alejandro; Contreras Bolton, Carlos EmilioLa programación de cirugías electivas implica asignar pacientes a quirófanos en días y bloques horarios junto con un equipo quirúrgico. Aunque este problema ha sido ampliamente estudiado, la afinidad humana y las preferencias de recursos de los cirujanos, factores que mejoran el bienestar, acortan la duración de los procedimientos y fomentan un mejor ambiente laboral, rara vez han sido incluidos. En enfoques tradicionales, dichos factores se tratan como restricciones duras en los modelos, exigiendo un nivel mínimo de afinidad en cada equipo. Sin embargo, esta rigidez puede reducir el número de cirugías agendadas, una decisión que podría afectar la salud de un paciente. Para mitigarlo, surgieron modelos con sistemas de penalización por puntajes: cada cirujano dispone de un presupuesto diario que le permite integrarse en equipos mejor afinados y acceder a recursos preferidos, manteniendo el equilibrio en las asignaciones. Estos sistemas son incorporados a los modelos matemáticos. Sin embargo, suelen ser muy pesados computacionalmente, requiriendo largos tiempos de ejecución, realidades que pocos hospitales pueden afrontar sin afectar la práctica clínica. Así, esta tesis propone un framework de generación de un algoritmo metaheurístico, capaz de resolver la asignación de cirugías electivas en plazos cortos y de ofrecer soluciones competitivas. La generación automática explora todo el espacio de parámetros sin necesidad de calibración manual, garantizando una calidad difícil de alcanzar por ajustes convencionales. Para la calibración, se diseñan doce operadores de diversificación, diez de intensificación, dos de destrucción, tres constructores de soluciones iniciales y tres criterios de aceptación. Este conjunto de operadores equilibra búsqueda global y local, aumentando la robustez de la metaheurística en diversos escenarios. Se implementó un framework para llevar a cabo la calibración automática, seleccionando iterativamente las mejores combinaciones de operadores y parámetros. La metaheurística resultante se comparó con modelos matemáticos de la literatura y con metaheurísticas clásicas en tres tiempos limites definidos. Los resultados muestran que el algoritmo generado automáticamente produce mejores soluciones que los modelos matemáticos en el mismo tiempo y se sitúa en primer lugar frente a las metaheurísticas clásicas. Su implementación en un hospital ofrece menores tiempos de cómputo y mayor eficiencia operativa ante la llegada constante de pacientes, además de formar equipos quirúrgicos con mejor afinidad, repercutiendo positivamente en el bienestar del personal y de los pacientes.Item Estudio del desgaste y la energía de la conminución en un molino rotatorio utilizando el método de elementos discretos.(Universidad de Concepción, 2025) Ruiz Sepúlveda, Cristóbal Andrés Ignacio; Vicuña Molina, Cristián JavierLos molinos son máquinas rotativas que se utilizan en diversas industrias para la reducción de tamaño de materiales. Se destaca la industria minera por emplear estos dispositivos en los procesos de conminución de mineral. Estos equipos están compuestos principalmente por un rotatorio horizontal revestido internamente para proteger la superficie contra el desgaste y transmitir energía a la carga. Además, pueden operar bajo diversas combinaciones de nivel de llenado y de carga, donde cada condición operativa tendrá un efecto en su rendimiento, ya sea en términos del desgaste de sus recubrimientos o de la energía de conminución. Actualmente, estos equipos presentan dos problemas principales. El primero, es que solo entre el 1% y el 5% de la energía total suministrada se utiliza en la conminución de mineral, desperdiciándose el resto en forma de calor o por colisiones elásticas entre la carga. El segundo, es el desgaste de los recubrimientos, siendo la principal causa de la disminución del tiempo de operación y el aumento de los costos de mantenimiento. Dado que estos equipos han mantenido su diseño y metodología de trabajo debido a los altos costos de transición, resulta más conveniente ajustar las condiciones operativas para el desarrollo de estrategias de operación. Entre las investigaciones realizadas sobre molinos, no existen estudios que permitan identificar que condición(es) de operación permite(n) tener una menor tasa de desgaste en los recubrimientos, y al mismo tiempo, obtener un mayor beneficio respecto a la eficiencia energética de la conminución. Esto se debe a que, en la mayoría de estos estudios se centran en analizar el efecto del desgaste o la energía de la conminución bajo una única condición operativa, sin tener en cuenta cambios simultáneos en el nivel de llenado y la velocidad de rotación. Además, estos temas se han estudiado de forma independiente, sin establecer una relación entre ambos. En esta investigación se estudia el efecto de las condiciones operativas en el desgaste de los recubrimientos de un molino rotatorio a escala de laboratorio. Se desarrolla un modelo de elementos discretos (DEM), el cual considera la velocidad de rotación y el nivel de carga como variables operativas. El modelo es validado experimentalmente para múltiples condiciones operativas mediante la comparación de torque, distribución espacial de la carga y fuerza normal. Se propone una metodología para centralizar el estudio del desgaste mediante los modelos de Archard, SIEM, Finnie y Bitter. Por otro lado, para las mismas condiciones operativas, se evalúa la eficiencia del proceso de conminución, donde se analiza la energía de impacto y de corte en la carga. Se desarrolla un procedimiento visual para conocer la distribución energética en el interior del molino. En cuanto a los modelos de desgaste, los resultados muestran que los modelos Archard y SIEM predicen de manera similar las mismas zonas de desgaste. Cuando existen impactos, el modelo de Finnie subestima el daño por desgaste a comparación con el modelo de Bitter. Por lo general, un incremento en el nivel de llenado disminuye el desgaste, especialmente a bajas velocidades. En cambio, un incremento en la velocidad de rotación aumenta el desgaste cuando no existen impactos. Sin embargo, a elevadas velocidades, su efecto en el desgaste dependerá de la cantidad de carga suspendida en el aire y la aglomerada. En cuanto a la energía de la conminución, la forma de la distribución energética está relacionada con el desgaste en los recubrimientos, la cual a su vez dependerá de la condición operativa del molino. Un incremento en el nivel de llenado disminuye el rendimiento del equipo. Un incremento en la velocidad de rotación, por lo general, tiende aumentar las energías de impacto y de corte.Item Evaluación experimental de un interferómetro óptico para señales de telecomunicaciones.(Universidad de Concepción, 2025) Melo Dospital, Cristóbal Alberto; Saavedra Mondaca, Gabriel Alejandro; Moreira Lima, Gustavo de AquinoEl crecimiento exponencial en la demanda de datos ha impulsado el desarrollo de nuevas tecnologías, capaces de ampliar la capacidad de las redes ópticas actuales. Las fibras ópticas multinúcleo representan una solución prometedora, permitiendo aplicar técnicas de multiple xación por división espacial y superar las limitaciones de las fibras monomodo. Sin embargo, su adopción depende del desarrollo de dispositivos compatibles capaces de gestionar y con mutar señales entre los diferentes núcleos. Este trabajo presenta el diseño, implementación y evaluación experimental de un conmutador óptico de alta velocidad basado en un interferómetro Mach-Zehnder con una configuración 4x4, utilizando divisores de haz multinúcleo. El dispositi vo emplea interferencia óptica para realizar conmutaciones en menos de 0.7 µs, tres órdenes de magnitud más rápido que los conmutadores microelectromecánicos actuales, con un crosstalk promedio inferior a-18 dB, destacando su aplicabilidad en redes ópticas avanzadas. Para garantizar coherencia temporal en la transmisión, se compensaron los retardos entre ca minos con segmentos adicionales de fibra. Las pruebas experimentales incluyeron transmisiones entre 1 y 600 Gbps, usando modulaciones QPSK, 16-QAM y 64-QAM. Se evaluaron visibilidad interferométrica, crosstalk, tiempo de subida, penalización en la tasa de error de bits y relación señal a ruido óptica. Se observaron valores de visibilidad superiores a 0.90 tanto en configuraciones interfero métricas 2x2 como 4x4. Específicamente, para velocidades de transmisión de 1 y 10 Gbps, la visibilidad promedio se mantuvo alrededor de 0.94, con una relación señal a ruido óptica supe rior a 40 dB. En transmisiones de mayor velocidad, la visibilidad alcanzó valores cercanos a 0.93 para modulación QPSK, 0.91 para 16-QAM y aproximadamente 0.76 para 64-QAM operando a 72 GBaud, evidenciando una mayor sensibilidad al ruido de emisión espontánea amplificada en modulaciones de orden superior, lo cual resalta la necesidad crítica del control preciso de esta relación para garantizar el rendimiento óptimo del sistema. Finalmente, se evaluó la operación del dispositivo con múltiples longitudes de onda en un escenario WDM, demostrando su viabilidad técnica para futuras redes basadas en MCF. Parte de los resultados de este trabajo fueron presentados oralmente en la Latin American Optics and Photonics Conference 2024 y publicados en la revista Nature Communications Engineering.Item Desempeño sísmico de pilotes geotérmicos.(Universidad de Concepción, 2025) Calderón Cuminao, Javiera Valentina; Montalva Alvarado, Gonzalo AndrésDada la necesidad presente de generar fuentes de energía sustentables, el uso de la energía geotérmica y las aplicaciones en el campo de la ingeniería civil se ha propuesto el uso de los Pilotes Geotérmicos, los cuales cumplen una función dual como intercambiadores de calor y cómo elementos de fundación. Durante su operación, los pilotes geotérmicos son sometidos a cambios de temperatura, los que inducen deformaciones y esfuerzos en el material circundante. La respuesta de la interfaz suelo-pilote, alterada por los cambios térmicos y sometida a cargas sísmicas, no es clara. Este estudio evalúa la respuesta sísmica de los pilotes geotérmicos, analizando desde una perspectiva multidisciplinaria los efectos de los ciclos térmicos sobre el suelo y el eventual cambio en su comportamiento mecánico y dinámico. Empleando PLAXIS 2D, se utiliza el método de elementos finitos para modelar un pilote geotérmico aislado sometido a variaciones de temperatura, carga estática y carga sísmica. Los ciclos térmicos producen una redistribución de los esfuerzos y variaciones en la resistencia de fuste en régimen estático. Se estudió la respuesta sísmica del pilote analizando el efecto de los ciclos térmicos en los asentamientos sísmicos obtenidos. Dichos asentamientos fueron fuertemente influenciados por el contenido de energía del movimiento incidente, el que se caracterizó por medio de la Duración Significativa (D05-95) y la Velocidad Absoluta Acumulada (CAV). Se obtuvo un grado elevado de correlación entre el CAV y los asentamientos sísmicos. Se encontraron diferencias entre un 3% y un 5% en los asentamientos sísmicos obtenidos para un mismo registro sísmico y distintos ciclos térmicos. Similarmente, se obtuvieron diferencias del 1% en la tensión admisible. El estudio realizado arroja luces sobre la aplicabilidad de los pilotes geotérmicos en ambientes activos sísmicamente.Item Voxel and streamline based multimodal variational autoencoder for fiber segmentation in tractography.(Universidad de Concepción, 2025) Navarrete Caro, Sebastían Andrés; Guevara Álvez, Pamela Beatriz; Hernández Rivas, CeciliaLas imágenes de resonancia magnética por difusión (dMRI) son una técnica no invasiva que mide la difusión de las moléculas de agua en el cerebro. En la materia blanca, esta difusión es anisotrópica y sigue predominantemente la dirección de los axones neuronales. Utilizando modelos de difusión, es posible estimar la orientación local de las fibras en cada vóxel. Mediante algoritmos de tractografía es posible generar reconstrucciones tridimensionales de los tractos de materia blanca, denominados datos de tractografía. Estos datos pueden incluir cientos de miles o incluso millones de fibras, lo que hace necesaria su segmentación para identificar aquellas relevantes para el estudio. La segmentación manual por expertos, aunque considerada el estándar de oro, no es viable en grandes bases de datos debido al tiempo requerido y a la variabilidad entre expertos. Por ello, se han desarrollado distintos algoritmos de segmentación automática de datos de tractografía a lo largo de los años. Esta tesis presenta un nuevo enfoque para la segmentación de fibras cerebrales basado en el uso de un autoencoder variacional multimodal, que integra tanto información espacial de las tractografías como información anatómica proveniente de distintas modalidades de MRI. El método fue entrenado utilizando conjuntos de datos de tractografía probabilística de la base de datos pública HCP y evaluado comparando los resultados de la segmentación con los fascículos de referencia empleados en la creación del algoritmo TractSeg. El método de segmentación propuesto opera en el espacio latente del modelo entrenado, donde se aplica un algoritmo de clasificación basado en radio. Este algoritmo fue optimizado para permitir el uso eficiente de radios personalizados para cada clase, y se desarrolló un procedimiento automático para la optimización de dichos radios. Además, se analizaron distintas combinaciones de datos de entrada, encontrándose que el modelo que incluye información de tractografías, imágenes de anisotropía fraccional (FA), imágenes T1w y los primeros picos de la fODF obtuvo el mejor desempeño. El desempeño del método propuesto fue evaluado en la segmentación de 66 fascículos de 30 sujetos, comparándose con el método de segmentación TractSeg. Los resultados indican que el método propuesto permite segmentar una mayor cantidad de fibras con una menor distancia entre ellas y una mayor co rrelación de densidad de los fascículos, aunque con un desempeño ligeramente inferior en las métricas basadas en máscaras.Item Región de operación de UPQC con inyección de potencia activa desde paneles solares.(Universidad de Concepción, 2025) Varela Castro, Jorge Wladimir; Espinoza Castro, José RubénEl uso de energía renovable es un tema de vanguardia en la actualidad, en donde, los convertidores de frente activo han tomado un rol fundamental para la integración de energías limpias al sistema eléctrico, esto debido a su capacidad de compensar armónicos y potencia reactiva, en el caso de un convertidor conectado en paralelo a la red y compensar voltaje (sag y swell) en conexión en serie. Entre los equipos que contempla un convertidor de frente activo, el UPQC ha adquirido relevancia en los últimos tiempos, pues, dada su topología, es capaz de compensar voltaje y corriente de forma simultánea y también ofrece la posibilidad de inyectar potencia activa a la red eléctrica. Esto es beneficioso para suministrar energía a cargas críticas donde la continuidad del servicio eléctrico y la calidad de este es algo indispensable. La región de operación de un UPQC está estudiada, en consecuencia, el objetivo principal de esta investigación es determinar la región de operación del UPQC, pero considerando la inyección de potencia activa en el enlace DC proveniente de paneles solares, con el fin de analizar cómo se ve afectada esta región en función de la potencia inyectada al enlace DC. Comprender y definir esta región es fundamental para aprovechar al máximo las capacidades del UPQC y garantizar un rendimiento óptimo en la inyección de potencia activa, manteniendo al mismo tiempo la estabilidad y la calidad de la energía eléctrica suministrada. En esta tesis, se aborda este objetivo mediante el análisis teórico, simulaciones realizadas en PLECS y simulación en tiempo real del sistema bajo estudio en la OPAL-RT. Se investigan las características del UPQC teniendo en cuenta los límites operativos del dispositivo y las restricciones impuestas por el sistema. Los resultados obtenidos de esta investigación muestran que, para compensar sag, el convertidor serie debe suministrar potencia activa, mientras que para compensar swell, el convertidor serie debe absorber potencia activa. Esto aumenta su capacidad de compensar sag o swell hasta un 40% más en comparación con el caso en el que no se inyecta ni absorbe potencia. Además, a medida que aumenta la potencia inyectada por el arreglo fotovoltaico, disminuye la capacidad de operar con cargas altamente inductivas y, a su vez, mantener el factor de potencia unitario en el PCC.Item Uso y valor del tiempo para grupos heterogéneos de participación en actividades y restricciones de tiempo.(Universidad de Concepción, 2025) Reyes Polanco, Pablo Ignacio; Astroza Tagle, SebastiánEn este trabajo se estudian los modelos microeconómicos de uso del tiempo con tiempo gastos comprometidos; y se abordan sus limitaciones actuales respecto a sus restricciones de tiempo, las que suelen asumirse comunes para todos los individuos, quienes participan del mismo conjunto de actividades. Las diferencias de preferencias entre personas hacen que la formulación endógena de restricciones técnicas para el mínimo tiempo asignado a actividades (tiempo comprometido) y la selección de conjuntos de actividades a realiza una necesidad para entender el panorama completo de la asignación del tiempo. Se propone un enfoque de clases latentes confirmatorias para la segmentación endógena de individuos con el fin de modelar diferentes comportamientos en actividades restringidas y participación en actividades bajo un enfoque probabilístico. Se realizaron estimaciones empíricas utilizando datos nacionales recogidos en 2015 en dos encuestas en Chile que se fusionaron estadísticamente para generar un conjunto de datos de uso del tiempo y gastos. Se obtuvieron resultados que muestran diferentes patrones para las restricciones de tiempo, que no pueden generalizarse en un único segmento y que pasar por alto la variabilidad en las restricciones de tiempo puede conducir a resultados sesgados sobre las preferencias y los valores del tiempo. En cuanto a los patrones de participación en actividades, los resultados muestran factores centrales basados en variables socioeconómicas que pueden afectar a la probabilidad de realizar un conjunto determinado de actividades en un ciclo de tiempo semanal. Ambos modelos muestran diferentes tasas de sustitución entre el tiempo comprometido (incluido el transporte) y el trabajo. Las conclusiones sugieren la importancia de realizar más estudios sobre las limitaciones de tiempo y su variación no sólo entre individuos, sino que también entre distintos momentos del tiempo. Además, resalta la relevancia de estudiar los factores que subyacen a los conjuntos de participación en actividades.Item Implementación de un pilar contributivo a cargo del empleador en Chile: impacto en el empleo en microemprendimientos.(Universidad de Concepción, 2025) Fernández Guerrero, Yenisleidys; Parada Contzen, MarcelaEste estudio investiga el impacto de la implementación de un pilar contributivo adicional a cargo del empleador en el nivel de empleo en microemprendimientos chilenos, considerando que estas empresas son fundamentales para el desarrollo económico y la reducción de la pobreza. Se utilizaron datos de la Encuesta de Microemprendimiento 2022, la cual incluyó a 2,415 participantes, y se aplicó un modelo de regresión log-lineal para estimar la elasticidad precio de la demanda laboral, indicando que un aumento en los costos laborales se asocia a una disminución en la demanda de trabajo. Los resultados evidencian que, con un incremento del pilar contributivo, los microemprendimientos se vuelven más sensibles a los cambios en los costos laborales, lo que puede llevar a una reducción de la contratación. Además, se identificó que variables como el salario, el nivel educativo y la región influyen significativamente en la determinación del empleo y los salarios en este sector. Por otra parte, se observó que existe un impacto negativo en las tasas de empleo, ya que costos adicionales pueden llevar a las empresas a reducir su número de trabajadores. En conclusión, la implementación de un pilar contributivo debe analizarse con precaución, buscando un equilibrio entre la seguridad social de los trabajadores y la viabilidad económica de los microemprendimientos, puntos clave para lograr un crecimiento sostenible y equitativo en el país.Item Criterios de selección basados en sketches para el problema de similitud genómica.(Universidad de Concepción, 2024) Guzmán Chacón, Álvaro; Hernández Rivas, Cecilia; Figueroa Toro, Miguel ErnestoEl cómputo de similitud genómica es importante para distintas aplicaciones como clustering y clasificación taxonómica en área de genómica y metagenómica. Una de las métricas de similitud más utilizadas es el coeficiente de Jaccard. Debido al alto costo computacional de métodos tradicionales, la comunidad científica ha propuesto métodos de estimación basados en estructuras de datos probabilísticas llamadas sketches. Sin embargo, estos métodos aún pueden requerir un alto tiempo de cómputo para resolver el problema de encontrar todos los pares de secuencias genómicas cuya similitud supere un umbral. Una alternativa para enfrentar esta dificultad es utilizar algoritmos que permitan decidir, con alta probabilidad, si un par no es suficientemente similar, permitiendo reducir el tiempo de cómputo. A este tipo de algoritmos es a al que llamamos criterio de selección, ya que clasifica pares entre similares y no similares. Este trabajo propone dos criterios de selección basados en propiedades de la confianza en la estimación de sketches de cardinalidad y uno basado en el sketch Super MinHash con LSH. Los criterios son implementados y validados usando la colección de genomas RefSeq. Los resultados obtenidos muestran una alta sensibilidad y especificidad de los criterios propuestos, mejorando el tiempo de cómputo entre 2 y 10 veces usando cerca del 1% de espacio adicional.Item Sistema de control para producción de hidrógeno verde sin conexión a red.(Universidad de Concepción, 2024) Squella Pérez, Martín Ignacio; Espinoza Castro, José RubénEn este trabajo se establece el sistema de control para un sistema de producción de hidrógeno a partir de generación fotovoltaica sin la posibilidad de conexión a la red. La finalidad de este control es asegurar la confiabilidad y el correcto funcionamiento del sistema. Considerando que los electrolizadores de membrana de intercambio de protones logran una mejor operación cuando el suministro de corriente tiende a ser más constante, el sistema de control se encarga de mantener dentro de lo posible un suministro de corriente lo más constante posible, gestionando el esquema de producción de hidrógeno a partir de la disponibilidad del recurso solar. Para poder producir hidrógeno incluso en las noches se necesita de un banco de baterías, de manera tal de poder desacoplar la generación solar del proceso de electrólisis. Esto a su vez conlleva a que la conexión entre el arreglo fotovoltaico, las baterías y el electrolizador se realice mediante dos etapas de conversión, siendo la primera etapa la encargada del control de seguimiento del punto de máxima potencia del arreglo fotovoltaico y la segunda la encargada de controlar el suministro de corriente al electrolizador, regulando en consecuencia la producción de hidrógeno. Cada una de estas etapas está basada en módulos de convertidores Dual Active Bridge conectados en forma entrelazada y en potencia parcial, esto último con el objetivo de asegurar una alta eficiencia y calidad de onda bajo las condiciones de bajo voltaje y alta corriente en las cuales opera el electrolizador. Ahora bien, debido a que los parámetros de las componentes de los convertidores no son idénticos, también se necesita de una estrategia de control que reparta el flujo de potencia entre los convertidores de manera que las componentes posean estreses térmicos equitativos dentro de cada etapa de conversión. Adicionalmente, se debe establecer un mecanismo de encendido y apagado de los convertidores en caso de reparación, de manera tal de que el sistema pueda seguir operando con las unidades restantes. En síntesis, se establecen los esquemas de control para un sistema de producción de hidrógeno off-grid, el cual a partir de los resultados obtenidos permite conseguir una eficiencia de conversión global superior al 90%. Además, se prueba que este sistema de control permite equilibrar los flujos de potencia entre módulos en paralelo, realizar encendidos y apagados controlados de estos, y hacer una gestión energética de todo el sistema.Item Un enfoque exacto para el problema del vendedor viajero con tiempos de trabajo.(Universidad de Concepción, 2024) Gutiérrez Aguirre, Pablo Javier; Contreras Bolton, Carlos EmilioEl problema del vendedor viajero con tiempos de trabajo (TSPJ) es una variante del problema clásico del vendedor viajero. En el TSPJ, el viajero visita un conjunto de vértices, asegurando una visita a cada uno de ellos mientras inicia un trabajo. El tiempo de cada trabajo depende del vértice donde se realiza. Una vez iniciado, el viajero se desplaza al siguiente vértice, y el trabajo continúa de forma autónoma. El objetivo es minimizar el tiempo máximo de finalización, también conocido como makespan. Sin embargo, dado que el problema es NP-hard, los modelos de programación lineal entera mixta (MILP) existentes no pueden resolver eficientemente instancias grandes. Por tanto, se mejora el modelo de MILP existente y se propone un nuevo modelo de MILP para el TSPJ, que se mejora mediante el cálculo de cotas inferiores y superiores válidas. Además, se propone reforzar las formulaciones de tamaño exponencial que incorporan explícitamente restricciones de eliminación de subtour, desigualdades de blossom y desigualdades válidas. Se desarrollan también dos algoritmos exactos de branch-and-cut (B&C) basados en el modelo existente mejorado (BCEM) y en el nuevo modelo (BCNM). Los algoritmos propuestos se prueban en instancias de referencia de la literatura, cuatro conjuntos de instancias cuyos tamaños oscilan entre 17 y 1200 vértices. Los resultados computacionales muestran que los algoritmos propuestos de B&C superan a los modelos de MILP del estado del arte en todos los conjuntos de instancias. Los algoritmos propuestos fueron capaces de encontrar 50 y tres nuevas mejores soluciones conocidas, respectivamente. Dado que ninguna formulación alcanza la optimalidad dentro del límite de tiempo dado para instancias medianas y grandes, se propone un nuevo conjunto de instancias que van de 100 a 390 vértices para evaluar más a fondo los límites de rendimiento. Los algoritmos propuestos obtienen mejores resultados, sobre todo en términos de valores de brecha de optimalidad y tiempos computacional de cálculo, resolviendo de forma óptima instancias de hasta 380 vértices.Item Dinámicas hamiltonianas en redes booleanas.(Universidad de Concepción, 2024) Zapata Cortés, Arturo Antonio; Aracena Lucero, Julio Bernardo