Tesis Doctorado
Permanent URI for this collection
Browse
Recent Submissions
Item Desarrollo de algoritmo de detección de eventos de riesgo para grúas horquillas basado en Deep Learning y Transfer Learning.(Universidad de Concepción, 2024) Radrigán Figueroa, Luciano Ignacio; Godoy Medel, SebastiánEsta investigación tiene como objetivo diseñar e implementar un algoritmo basado en Deep Learning y Transfer Learning para la detección de eventos de riesgo en grúas horquillas, empleando una cantidad limitada de datos. La metodología se estructuró en varias etapas: (1) recopilación y etiquetado de videos según la normativa OSHA 3949; (2) preprocesamiento de datos, incluyendo técnicas de aumento de datos e imágenes; (3) entrenamiento de modelos supervisados para la clasificación de eventos de riesgo; (4) adaptación mediante Transfer Learning de modelos pre-entrenados, optimizando su generalización; y (5) evaluación y validación comparativa frente a herramientas estandarizadas como NVIDIA DeepStream SDK y Amazon Rekognition Custom Labels. El algoritmo propuesto alcanzó un F1-score superior al 0.95, superando el umbral de 0.85 establecido para su aceptación. En comparación, Amazon Rekognition obtuvo por sobre un un F1-score 0.95, mientras que NVIDIA DeepStream SDK logró un 0.83. El modelo desarrollado demostró una mayor eficiencia en el uso de datos para el reentrenamiento y menor tiempo de inferencia en sistemas embebidos, destacando por su menor peso y capacidad para operar en entornos con recursos limitados. Un aspecto crítico fue la capacidad del modelo para generalizar, una necesidad fundamental en el contexto industrial, donde la recopilación de datos etiquetados, especialmente sobre actividades de riesgo, es costosa y limitada. Estas actividades no pueden replicarse intencionalmente debido a las implicaciones de seguridad, lo que plantea desafíos únicos para el diseño de modelos robustos. El uso de Transfer Learning fue clave para superar esta limitación, permitiendo al modelo aprender patrones generales de conjuntos de datos preexistentes y adaptarse eficazmente a nuevas condiciones operativas con pocos datos específicos. Este enfoque no solo mejoró la precisión, sino que también redujo los costos y el tiempo de desarrollo. Asimismo, las pruebas en sistemas embebidos validaron el desempeño del modelo en entornos reales, asegurando su capacidad para operar en tiempo real. Esto resulta crítico para aplicaciones industriales donde la detección rápida y precisa de eventos de riesgo puede prevenir accidentes y optimizar la seguridad y la eficiencia operativa.Item Biblioteca para el análisis de la conectividad cerebral y su aplicación en base de datos de pacientes con tinnitus.(Universidad de Concepción, 2024) González Rodríguez, Lázara Liset; Guevara Alvez, Pamela; Hernández Rivas, CeciliaLa Resonancia Magnética por difusión (dMRI) es una poderosa herramienta, ampliamente empleada para el estudio de la conectividad cerebral estructural tanto en la salud como en la enfermedad. A partir de las dMRI se pueden obtener datos de tractografía cerebral, que contienen fibras cerebrales en 3D representando los tractos de la materia blanca (WM) del cerebro. Utilizando las dMRI como datos de entrada, tenemos los siguientes dos planteamientos a resolver. Primero, sabemos que el análisis de los datos de tractografía es una tarea compleja debido a la geometría de las fibras, el formato de los archivos y el gran tamaño de los conjuntos de datos. A pesar de la existencia de algoritmos para su análisis, la manipulación de estos datos sigue siendo un desafío significativo. Segundo, la enferdad de tinnitus es la percepción de sonido en ausencia de una fuente externa. Hasta la fecha, según nuestro conocimiento, no se ha descrito completamente cómo los procesos neuronales del cerebro y el sistema auditivo causan esta condición. Creemos que, utilizando las dMRI y herramientas para el análisis de tractografía cerebral, podemos contribuir a una mejor descripción de las alteraciones de la WM cerebral en la enfermedad del tinnitus. Con el propósito de responder los dos planteamientos anteriores creamos una biblioteca de Python para el análisis de datos de tractografía cerebral. Esta recopila y estructura métodos avanzados de análisis de tractografía cerebral como segmentación, clustering, visualización de fibras cerebrales y además, se integran herramientas para la manipulación de los datos como lectura, escritura, extracción y filtrado de medidas de fibras cerebrales. La principal contribución de nuestra biblioteca es que es de código abierto y compatible con los sistemas operativos Windows y Ubuntu. Además, está disponible en GitHub y cuenta con una extensa documentación que incluye datos y scripts de prueba, facilitando su uso y adopción. Para resolver la segunda incógnita aplicamos la biblioteca para el estudio de la conectividad cerebral en pacientes con tinnitus, centrándonos en 36 fascículos de f ibras de la WM profunda y 83 de la WM superficial. Analizamos una cohorte chilena de edad avanzada con y sin tinnitus (n=56 y n=40, respectivamente), extrayendo medidas derivadas de las imágenes de tensor de difusión (DTI) como la difusividad axial (AD), la difusividad media (MD), la difusividad radial (RD) y la anisotropía fraccional (FA). El modelo de clasificación Extreme Gradient Boosting (XGB) logró un AUC de 0.93, empleando como características las medidas de la AD en los fascículos de interés. Entre los fascículos más importantes de la WM profunda se encuentran el fascículo arqueado anterior y el longitudinal inferior en el hemisferio derecho, y la radiación talámica motora superior en el hemisferio izquierdo. Por otro lado, los fascículos más significativos de la WM superficial conectaron principalmente regiones del hemisferio izquierdo, como el parietal superior, cuneus, lingual, temporal superior, frontal medio caudal, precentral, fusiforme, postcentral, supramarginal, frontal medio rostral y frontal superior. Los pacientes con tinnitus mostraron disminuciones en la AD, la MD y la RD, y se registró un aumento de la FA, lo que sugiere una reorganización microestructural de las fibras. Estos cambios pueden reflejar plasticidad adaptativa o maladaptativa en respuesta al daño auditivo. El aumento de la FA podría indicar una respuesta compensatoria, donde las fibras intactas restantes se organizan mejor para mantener la eficiencia del procesamiento auditivo. La reducción en la AD podría reflejar daño axonal, reducción del calibre axonal o una orientación menos coherente de los axones. Mientras tanto, la disminución de la MD y la RD podría indicar un aumento de la integridad de la mielina. Estas alteraciones pueden interrumpir la transmisión de información auditiva y contribuir a la persistencia del tinnitus. Este trabajo contribuye significativamente a la investigación en curso sobre el tinnitus, ofreciendo valiosas ideas para el desarrollo de herramientas de diagnóstico más precisas. Según nuestro conocimiento, este es el primer estudio que investiga las alteraciones de los fascículos de la WM superficial en pacientes con tinnitus. Además, la metodología de análisis aplicada a la base de datos de pacientes con tinnitus puede ser extendida a otras bases de datos, tanto de pacientes sanos como enfermos.Item Suitability of axial-flux matrix-rotor induction motors for low-speed high-torque applications: a robust design approach.(Universidad de Concepción, 2024) Madariaga Cifuentes, Carlos Felipe Ignacio; Tapia Ladino, Juan AntonioLow-speed high-torque (LSHT) electrical machines have been dominated by permanent magnet synchronous machines, given their high torque density, efficiency and power factor. Nevertheless, in direct-drive low-speed applications, a solution consisting of a conventional induction machine and a mechanical converter is used considering the self-starting capability of the IM and acceptable efficiency of the system. The solution for direct-drive LSHT applications is to adopt machines with inherently low speed, self-starting capacity, and high performance, which has not been possible to date from conventional induction machines and synchronous reluctance machines. In this regard, this thesis addresses the sizing, analysis, and optimization of axial flux induction motors with a novel matrix structure rotor (AF-MRIM) to meet the requirements of LSHT applications. Furthermore, in order to identify the competitivity of these machines and their application niche, opening a path to further research on this promising topology, considering both deterministic and robust design features. Firstly, an analytical pre-sizing methodology focusing on the main and particular design parameters of an AF-MRIM is provided, considering guidelines for a suitable selection of the matrix rotor structure. A semi-analytical tool based on finite element simulations was specifically devised to quickly assess the performance of AF-MRIM, simplifying the matrix rotor structure, and enabling the time-efficiency design and multi-objective optimization of an AF-MRIM, unfeasible to perform with conventional techniques so far. Secondly, several finite-element tools and solutions to assess the effect of unavoidable, manufacturing and assembly tolerances on the performance of asynchronous and synchronous machines are presented, meant to serve as input for a detailed comparative analysis between different machine designs from deterministic and robust design approaches. Finally, a detailed comparison of optimized AF-MRIM with other non-conventional and conventional topologies is provided, considering raw performance and robust design capability. Two objective speeds (250 and 500 rpm) are evaluated by means of specific design optimization and robustness assessment of the different topologies. It was demonstrated that an optimized AF-MRIM has superior performance among rare-earth free topologies but does not reach the performance and torque density of an optimized PMSM. Nonetheless, the MRIM has the highest robustness ratings of all the four selected topologies. At last, it was found that the proposed matrix-rotor IM is actually suitable for LSHT applications, with significant superiority at 250 rpm, direct-drive operation; and slight advantages at 500 rpm when compared to prominent rare-earth free topologies.Item Predicción de eventos tempranos de somnolencia mediante un conjunto de datos multifactoriales en conductores de vehículos.(Universidad de Concepción, 2024) Mora Pantoja, Hermes Javier; Pino Quiroga, Esteban; Echaveguren Navarro, TomásDurante la última década, el número de accidentes vehiculares se ha incrementado signi cativamente, dejando más de un millón de víctimas fatales cada año. Su principal desencadenante está relacionado con fallas humanas, donde la conducción somnolienta, la distracción y fatiga son sus tres principales causas. La somnolencia es el factor humano que más accidentes causa y es el desafío más difícil de superar al momento de mejorar la seguridad en la vía. Los principales estudios muestran que, en Chile, los accidentes de tránsito han pasado a ser la segunda causa de muerte en la población joven menor de 30 años, dejando más de 86 mil accidentes de tránsito en 2022. Además, como la somnolencia es una manifestación de una causa subyacente originada por múltiples factores como la monotonía de la tarea, el entorno del camino, el tiempo transcurrido en la tarea o la privación del sueño previo, no existe un único método para su detección. En este sentido, un sujeto somnoliento tiene una reducida capacidad de percepción del espacio y velocidad, aumentando el tiempo de reacción y reduciendo la coordinación ojo-manos. Esto pone en grave riesgo tanto al conductor como a los demás actores de la vía. En consecuencia, se han diseñado diversos proyectos de investigación y dispositivos basados en señales siológicas del chofer, evaluaciones de su desempeño o datos del vehículo para detectar si el conductor está somnoliento o alerta en cada intervalo de tiempo. Estos dispositivos alertan al automovilista sobre su estado somnoliento presente para que tome acción sobre la situación. No obstante, estimar el tiempo en el cual el conductor experimentará un evento somnoliento dentro de los subsiguientes minutos es mucho más desa ante que monitorear su estado actual. Este enfoque permite alertar al conductor mientras aún tiene una adecuada capacidad de reacción ya que no está bajo efectos de la somnolencia. Por lo tanto, en este trabajo de investigación se expone el diseño de un sistema basado en un algoritmo de regresión y un modelo de pronóstico para estimar el tiempo de ocurrencia del subsiguiente evento somnoliento. En estos modelos se utilizan datos multimodales compuestos por señales de Electroencefalografía (EEG), Electrocardiografía (ECG), Electromiografía (EMG), fuerza de agarre mediante sensores Force Sensitive Resistor (FSR) y datos técnicos del vehículo virtual, obtenidos en un experimento de conducción simulada con 36 participantes. El modelo de regresión utiliza redes CNNs mediante una arquitectura ResNet y genera una salida del nivel de somnolencia para el tiempo t0. El algoritmo de pronóstico está basado en redes Long Short Term Memory (LSTM) bidireccionales y emplea como entrada los resultados del modelo de regresión para estimar el nivel de somnolencia de los siguientes minutos (t0 → t0+n) en intervalos de 28 segundos. Adicionalmente, los modelos implementados también se entrenaron con diferentes combinaciones y categorías de sensores, buscando la mejor categoría y número de electrodos para de nir el sistema con la precisión más alta. Como resultado, el análisis inicial de los datos reveló que al menos el 50% de los participantes experimentó somnolencia a partir de los siete minutos de iniciado el tercer bloque experimental. Asimismo, al utilizar los datos EEG de prueba, el mejor sistema implementado obtuvo un valor test_accuracy de 0.887 en el rango [0 a 5] minutos (t0 → t0+5) y 0.798 a los siete minutos. Además, el modelo de regresión alcanzó un valor test_accuracy de 0.905 al utilizar únicamente datos FSR. Por otro lado, el rendimiento de los modelos propuestos para la etapa de pronóstico se validaron utilizando la métrica Root Mean Square Error (RMSE) en las fases de entrenamiento, validación y prueba con sus respectivos data-sets. Los resultados de este trabajo permiten concluir que es posible utilizar datos siológicos del conductor para pronosticar el tiempo de aparición de subsiguientes eventos somnolientos dentro de una ventana temporal de nida. Asimismo, el uso de datos FSR mostró resultados prometedores en los algoritmos de regresión y pronóstico, toda vez que estos sensores no son invasivos y permiten aplicaciones adicionales como monitorear el confort del conductor y pasajeros al ubicarse en los asientos del vehículo.Item Vision circuits architecture with on-chip spatial window operations.(Universidad de Concepción, 2024) López-Portilla Vigil, Bárbaro Maykel; Figueroa Toro, Miguel; Zarkesh-Ha, PaymanCMOS Image Sensors (CIS) are crucial components in multimedia applications for the Internet of the Things (IoT). They allow IoT devices to perceive, interpret, and respond to the physical world, improving efficiency, safety, and convenience across various industries. The images captured by these sensors are sent to an ex ternal digital device for processing. Additionally, the images produced by CMOS sensors may contain defective pixels due to noise, manufacturing errors, or de vice malfunction. These defects need to be detected and corrected close to the sensor before the images are processed, which is essential for ensuring the images are helpful for human users as well as for image-processing and machine-vision algorithms. This thesis reports the design and evaluation of two Smart Image Sensor (SIS) of 128×128 pixels using a 0.35 µm CMOS process, one for kernel-based spatial fil tering calculation and the other for detecting and correcting defective pixels. The SISs are based on custom smart pixels that can perform some image processing algorithms in the analog domain. The remaining processing, including machine vision algorithms and machine-learning methods, is handled by an external digital device. The focus of this thesis does not extend to this latter aspect. The first SIS enables spatial filtering using a single kernel, two different kernels on the same image, or two cascaded kernels. The circuit calculates the absolute value of each convolution on-pixel in parallel at each pixel using simple neighbor hood arithmetic during photocurrent integration. This process is repeated when the filter requires more than one kernel. According to post-layout simulation, this SIS processes images at frame rates ranging from 743 to 752 frames per second (fps) and achieves a fill factor of 20.6 %. Our SIS outperforms state-of-the-art circuits in denoising, being the best result with a Mean Square Error (MSE) of 0.90, Peak Signal to Noise Ratio (PSNR) of 48.55 dB, and Structural Similarity Index Measure (SSIM) of 0.99, configured as the mean filter. Additionally, it demonstrates comparable edge detection performance to state-of-the-art circuits. The best results were achieved with a MSE of 4.68, PSNR of 41.42 dB, and SSIM of 0.97, using the y-direction Robert filter. Our proposed circuit demonstrated good edge-location accuracy of 0.99 % with the Sobel filter, which is one of the best results according to the Pratt Figure of Merit. During photocurrent integration, the second SIS detects defective pixels in parallel at each pixel using simple arithmetic operations within a neighborhood. At the column level, the circuit replaces the defective pixels with the median value of their neighborhood. According to post-layout simulation, this SIS processes images at 694 fps, achieving a fill factor of 35.4 %. Our SIS produces better results than current state-of-the-art algorithms: it achieves a PSNR and Image Enhancement Factor (IEF) of 45 dB and 198.4, respectively, in images with 0.5 % random defective pixels, and a PSNR of 44.4 dB and IEF of 194.2, respectively, in images with 1.0 % random defective pixels. The results demonstrate that, in a vision system, transferring part of the com putation to the CIS can be beneficial. In this setup, an analog circuit performs computations at the pixel level using arithmetic operations within a pixel win dow while integrating photodiode current. This approach leverages the parallel architecture of the pixel array, enabling high frame rates, low power consumption, and compact size. Additionally, it minimizes the impact on fill factor and data accuracy. Thanks to the results obtained in this thesis, our contributions are that a SIS is developed with on-pixel computing capabilities to perform kernel-based spatial f iltering, allowing external configuration for various kernels and executing com putations during photocurrent integration, achieving performance comparable to other SISs. Additionally, an algorithm from the literature for detecting defective pixels is modified for analog hardware implementation, yielding superior results compared to existing methods. Furthermore, another SIS is developed to detect defective pixels at the pixel level during photocurrent integration, implementing correction at the column level. This SIS is the first instance reported in the state of the art that combines detection and correction processes in the analog domain using CMOS technology on the same chip, achieving better outcomes than other implementations.Item Desarrollo, diseño e implementación de un equipo para detección preventiva del estado de aisladores tipo cadena para aplicaciones de alta tensión.(Universidad de Concepción, 2024) Villalobos San Martín, Rodrigo Javier; Morán Tamayo, LuisEl problema de conocer el nivel de contaminación sobre la superficie de los aisladores en instalaciones de alta tensión es de vital importancia, ya que la programación de los lavados es realizada principalmente en base a la experiencia, lo que no asegura que el sistema eléctrico esté libre de fallas ni tampoco de que la frecuencia de los lavados se realice de manera eficiente desde un punto de vista de costos. Aunque existen diversas soluciones para determinar el nivel de la contaminación en aisladores, la que parece ser la más recurrente es el análisis de la corriente de fuga. El aumento de la amplitud y de la distorsión de la corriente que circula por el aislador presenta una relación directa con el aumento de la contaminación y la humedad. Por otro lado, la literatura presenta una serie de índices basados en la corriente de fuga como el valor efectivo, peak, THD y relaciones entre armónicos; que buscan determinar el nivel de contaminación sobre la superficie de los aisladores. En general, el resultado de los índices y su desempeño depende de diferentes variables como la humedad y la contaminación, pero también del tiempo de aplicación de la humedad y variables externas, por lo que es muy relevante el instante en el que se realiza la medición de corriente de fuga y el cálculo de estos índices. En aplicaciones industriales la humedad varía considerablemente y las mediciones de corriente de fuga pueden no ser continuas en el tiempo. Por otra parte, para medir la corriente de fuga en cadenas de aisladores la literatura muestra diferentes soluciones principalmente orientadas a aplicaciones en laboratorio, la mayoría de tipo invasivo por lo que no son soluciones reales que sean atractivas para implementar en la industria. Este trabajo presenta el desarrollo, diseño e implementación de un sistema para determinar el nivel de contaminación en aisladores tipo cadena. El sistema propuesto consta de un sensor de corriente de fuga tipo tenaza con núcleo de material ferromagnético abierto capaz de medir corrientes de fuga de baja amplitud, que no afecta la distancia de fuga de la cadena de aisladores y tampoco afecta la aislación al ser no invasivo. Este sensor es probado en laboratorio, también en un aislador dentro de una cámara de niebla artificial y en una subestación de alta tensión. Los resultados muestran que el sensor mide correctamente corrientes de fuga mostrando amplitudes del orden de los miliamperes y una relación directa con la humedad registrada. La tesis incluye un análisis detallado del efecto de la humedad y la contaminación en índices presentados en la literatura para determinar el nivel de contaminación sobre la superficie de los aisladores. El análisis de los parámetros de la corriente de fuga se realiza en función del tiempo y se destaca la importancia del tiempo de exposición de la capa de contaminación de la superficie a la humedad. También, se introduce el concepto de impedancia armónica en aisladores, con tal de observar la evolución de la magnitud en el tiempo donde se destaca que algunos armónicos de la corriente de fuga son propios del efecto de la humedad y la contaminación en el aislador como otros que dependen de variables externas como el voltaje de la red. Finalmente, este trabajo muestra el resultado de la medición de variables ambientales y de corriente de fuga por medio del sistema diseñado en una subestación de 220 kV y en 4 puntos de medición en distintas líneas de alta tensión de 220 y 500 kV en el norte de Chile. La principal contribución de este trabajo se centra en el diseño e implantación de un sensor de corrientes de fuga no invasivo, para aplicaciones en aisladores tipo cadena, y de un procedimiento de análisis detallado del comportamiento de la corriente de fuga que sirve para determinar el nivel de contaminación, lo que permite definir procedimientos de mantenimiento adecuados.Item The role of doping in tannin-derived carbon materials for electrochemical applications.(Universidad de Concepción, 2024) Pinto Burgos, Oscar Claudio; Matos Lale, Juan; Jiménez, RomelThere is a growing and urgent demand for eco-friendly, high-power devices, especially in portable applications like portable electronics or hybrid-electric/electric vehicles (H/EVs). Electrochemical energy storage systems are highly sought after in this regard. The main technologies currently available are Li-ion batteries and electrochemical capacitors (ECs), each offering distinct yet often complementary performance characteristics. Meanwhile, the former stores the energy mainly through chemical pathways, the latter stores the charge via physical process where the electric double layer is a key parameter. The ECs' storage process is rapid, highly reversible, and exhibits minimal effects on device performance over numerous charge/discharge cycles, making them advantageous in the long term. However, ECs face the drawback of low specific energy, prompting scientific efforts to enhance this value without compromising power. One promising approach to achieve this enhancement is through heteroatom doping of carbon materials. In this context, tannins, a polyphenolic compound frequently derived from tree bark, serve as a suitable precursor due to their auto-condensation reactions, leading to a well-connected porosity network and high reactivity, enabling the incorporation of functionalities. In this context, this doctoral research focuses on the study of the relationship between pore size distribution, surface chemistry, and electrochemical performance of tannins-derived carbon materials as electrodes in electrochemical capacitors, with an emphasis on surface modification with oxygen, nitrogen and/or boron. Advanced characterization techniques such as adsorption-desorption isotherms, and X-ray photoelectron spectroscopy (XPS) were employed to analyze the structure and chemistry of the carbon materials. Additionally, electrochemical tests were conducted to evaluate their energy storage capacity, power density and overall electrochemical performance. The research establishes tannins-derived carbon materials as effective electrodes for electrochemical capacitors. Chemically activated tannins-derived carbon materials exhibit a linear correlation between capacitance and specific surface area, optimizing electrochemical performance with energy densities reaching 4.4 W∙h∙kg-1 at 1.1 kW∙kg-1. The hydrothermal carbonization doping method successfully incorporates nitrogen or boron into tannins-derived carbon materials, introducing significant alterations to tailored chemical and morphological modifications. Without doping agents, hydrothermal carbonization leads to carboxylic acid-dominated surface chemistry, limiting electric double layer formation. Boron incorporation moderately enhances electrochemical performance. Meanwhile, nitrogen doping significantly improves surface chemistry and textural properties after CO2 activation, enhancing electrochemical performance. The top-performing material achieves remarkable energy density of 6.0 W∙h∙kg-1 at 1.3 kW∙kg-1, retaining nearly 96% of initial energy storage after 30,000 cycles.Item Real-time demand response scheduling based on customized online learning of customers considering uncertainty.(Universidad de Concepción, 2024) Marrero Rodríguez, Lester Julio; Sbárbaro Hofer, Daniel; García Santander, LuisChilean commercial, public, and residential sector consume 35 % of the electrical energy in the country. Given the continuous economic growth of society, this percentage will increase gradually, as expected. However, Chile has also made efforts to transition towards power decarbonization, in line with the global context that seeks to reduce its carbon footprint. Distribution grids are a complex infrastructure and, within this scenario, are reaching an intelligent configuration. As a result of this transformation, the proportion of renewable energy sources (RESs) is constantly increasing, and advanced metering systems are playing an essential role in recording electricity data to provide insights into customers’ behavior and corresponding lifestyles. Conditioned by the gradual deregulation of the distribution sector, new market agents are participating in the electricity market, making customers’ service more active and competitive. Therefore, integrating renewable capacity by exploiting the operational flexibility that can arrive from scheduling demand is vital in the current distribution system. Efficient scheduling can also help to decouple economic growth from energy consumption. However, both renewable production and demand exhibit a stochastic behavior, which leads to an increase in uncertainty due to forecast errors in generation and deviations in demand in real-time. This uncertainty jeopardizes the safe operation of the distribution system. This thesis focuses on real-time demand response (DR) scheduling based on customized online learning of customers’ behavior considering uncertainty. First, the thesis proposes an online framework to characterize demand response (DR) over time. The approach facilitates obtaining and updating the daily consumption patterns of customers. The essential concept of response profile class (RPC) is introduced for characterization, complemented by the measure of the variability in customer behavior. For daily profiles, the work uses a modified version of the incremental clustering by fast search and find of density peaks (CFSFDP) algorithm that considers the multivariate normal kernel density estimator and incremental forms of the Davies-Bouldin and Xie-Beni validity indices. Case studies conducted using real-world and simulated daily profiles of residential and commercial Chilean endusers demonstrate how the proposed approach can continuously characterize DR. Results prove that the presented framework achieves realistic customer models for effective energy management by estimating customer response to the price signal at the distribution system operator (DSO) level. Second, the thesis proposes an online framework for scheduling customers’ power responses to support integrating photovoltaic (PV) generation into the distribution system. The approach helps the management of demand flexibilities by providing optimal control prices in real-time. A bi-level optimization model is used to model interactions between the DSO in the upper level, which seeks to maximize the profit, and customers in the lower level, who reduce their electricity bills. In addition, to obtain the RPCs of customers, a characterization stage is introduced by applying the CFSFDP algorithm to daily profiles. The pricing problem, however, is highly challenging since the DSO also requires ensuring the reliable operation of the distribution grid and dealing with uncertainties in consumption and renewable production. Accordingly, the work includes and reformulates chance constraints (CCs) for squared nodal voltage and complex power flow in lines. The CC bi-level problem converts to an equivalent mixed-integer second-order cone programming problem, embedded into a model predictive control to exploit newly available information of the system states. A case study using real-world local market prices and daily profiles of residential and commercial Chilean end-users on the IEEE-37 node test distribution feeder demonstrates how the proposed framework can schedule DR considering uncertainty. Third, for optimal scheduling of other distribution-level energy resources, the previous framework is expanded by including dispatchable inverters of PV facilities. The approach also addresses uncertainty in the distribution system modeling by incorporating, in addition to the above, CCs for the apparent power of PV inverters. A case study with real-world local market prices and daily profiles of Chilean residential and commercial end-users on the IEEE-37 node test distribution feeder demonstrates how the presented framework enables optimal real-time scheduling of customers and PV facilities. The investigation has significant implications both technically, by enhancing the efficiency and reliability of the distribution system, and economically, by generating financial benefits for market players. Furthermore, its methodology is applicable and suitable to meet the practical requirements of Chilean society.Item Efficient query processing for multigranular data.(Universidad de Concepción, 2024) Gatica Romero, Diego; Rodríguez, Andrea; Seco, DiegoSpatial and temporal attributes are typical examples of data that can be represented at different levels of granularity or resolution. The massive amount of this type of data makes it impractical to store and process data without making use of efficient algorithms and structures. In search of a way to handle multigranular data, several data models have been proposed; however, there is no efficient implementation in terms of space usage and query time for any of the various existing models for handling multigranular data. In this thesis, we study algorithms and data structures to process different queries on multigranular models, specifically, the work done uses succinct data structures and achieves a good trade-off between space usage and query time. In particular, we start by proposing a succinct data structure and algorithm for the implementation of a multigranular model that is general enough to be used in different domains. This model is based on the relations of subsumption and disjoint between its elements (i.e. granules), and their respective negations, and it proposes the strategy of deriving new relations, in order to reduce the space to be used. The proposed structure used (|E| − |V |) log2 |V | + O(|E|) space to store a graph with V vertices and E edges to store a graph that represent the subsumption relation, plus |Er| log |V|+|Er|+|V |+o(|Er| + |V |) for for each of the other relationships, and improves the derivation of new relations, compared to other implementations. A second succinct data structure is proposed, with a focus on the spatial domain by providing algorithms for processing topological queries like inclusion, disjointness, and adjacency between regions on a multi resolution context. In the case of a set of n regions without a hierarchy, we can manipulate it efficiently using 4n + o(n) bit, for the case when we have a hierarchy of height h, our structure proposed requires as little as O(n log h) bits, while maintaining a similar query time compared to a non-compact implementation.Item Study of the block-sequential operator on Boolean networks. Application to discrete network analysis.(Universidad de Concepción, 2024) Cabrera Crot, Luis Emilio; Aracena Lucero, Julio; Richard, Adrien; Salinas Ayala, LilianA Boolean network is a system of n interacting Boolean variables, which evolve, in a discrete time, according to a regulation rule and to a prede ned updating scheme. They have applications in many areas, including circuit theory, computer science, social networks and biological systems. The structure of such a network is often represented by a digraph, called interaction digraph, where vertices are network components, and where there is an arc from one component to another when the evolution of the latter depends on the evolution of the former. The relationship between the structure of a regulatory network and its dynamical behavior is crucial to understand for instance how and why biological networks have evolved. Further, this relationship can be used to construct networks with desirable dynamical properties. In the original scheme of a Boolean network all the nodes are synchronously updated at each time step (this scheme is also called parallel schedule). A more general scheme, introduced in [67], is to consider that the set of network nodes is partitioned into blocks and that the nodes in a block are updated simultaneously. Di erences in the dynamical behaviors of Boolean networks with di erent update schedules has been studied mainly from an experimental and statistical point of view. In this tesis, the variations of the interaction digraph of a Boolean network with respect to changes in the update schedule and its relation with some dynamical properties of the network are studied. In order to achieve this goal, three main topics are discussed. First, the variations in the parallel digraph of some structural characteristics (number of strongly connect components, transversal number, packing number) with respect to changes in the update schedule are analyzed. Second, an algorithm is constructed to nd the xed points of a Boolean network taking advantage of knowledge about the upper bound of the xed points of a network, in this case we use the positive transversal number. Finally, a new, so far unexplored problem is de ned, which states that given a Boolean network f, nd a Boolean network h and an update schedule s that are dynamically equivalent to f. In this sense, several variations of the original problem are presented, many of which can be solved in polynomial time.Item Laminado en frio con rodillos rugosos: un nuevo proceso para la obtencion de micro o nano granos superficiales en grandes areas.(Universidad de Concepción, 2024) Maril Millán, Yasmin Alejandra; Camurri P., Carlos G.Los procesos de deformación plástica severa en cercanías de la superficie, seguidos de recocidos a bajas temperaturas, han demostrado ser altamente efectivos para generar micro/nano granos en la capa superficial de los materiales. En este contexto, en esta tesis se ha desarrollado y estudiado una técnica innovadora que simula y reemplaza uno de los procesos de deformación plástica superficial existentes, el arenado. El objetivo es lograr una red uniforme de zonas de alta deformación en la superficie del material, actuante como centros de nucleación durante el recocido posterior. El método propuesto consiste en una laminación en frío utilizando rodillos rugosos, seguido de una recristalización a bajas temperaturas y, a diferencia del arenado convencional, ofrece la ventaja de ser un procesamiento continuo con una alta productividad. Para el estudio de este proceso, se llevaron a cabo laminaciones en frío de placas de acero inoxidable austenítico utilizando rodillos rugosos, y posteriormente se realizaron recocidos a temperaturas comprendidas entre 200°C y 400°C durante una hora. Los análisis microestructurales mediante microscopía óptica y electrónica revelaron la presencia de nuevos granos superficiales pequeños, algunos de 200-300 nm, distribuidos de forma heterogénea, lo que aumenta la resistencia al desgaste del material. Dado que la rugosidad impuesta por los rodillos desempeña un rol clave en la determinación de las propiedades finales, específicamente en la deformación plástica y microestructura superficial, se realizó un estudio numérico del proceso propuesto mediante elementos finitos para comprender esa influencia y predecir su efecto en los nuevos granos superficiales obtenidos, y luego correlacionarlo con la evidencia experimental. Esta simulación numérica reveló la presencia de una deformación plástica severa distribuida de forma heterogénea en toda la superficie, un resultado que se alinea con los resultados de los análisis microestructurales, donde se observó que la formación de nuevos granos también fue localizada de manera no homogénea. A pesar de esta heterogeneidad en la distribución de la microestructura, la presencia de granos más pequeños en la superficie condujo a mejoras significativas en las propiedades mecánicas. Se registró un aumento del 20% en la nano dureza superficial en comparación con el centro de la pieza y reducciones del 26% y 45 % en la profundidad del desgaste y la pérdida de masa respectivamente. En resumen, este método innovador ofrece una alternativa prometedora para producir microestructuras y nanoestructuras que resultan en propiedades mecánicas superficiales mejoradas.Item Desarrollo de electrodos para la valorización de lixiviado de vertedero mediante electrocoagulación.(Universidad de Concepción, 2024) Núñez Gutiérrez, Javier Jahir; Carrasco C., Claudia A.Chile enfrenta una creciente crisis hídrica, catalogada de "estrés hídrico alto" según el informe de 2019 del World Resources Institute del Pacto Mundial de las Naciones Unidas. Esta situación se caracteriza por la demanda de agua que supera la disponibilidad de fuentes de agua dulce en el país. El sector agrícola es el principal consumidor, utilizando cerca del 73% del recurso hídrico disponible. La reutilización de aguas residuales emerge como una solución clave para atenuar esta escasez hídrica. Entre las fuentes de agua susceptibles de reutilización se encuentran los lixiviados de vertedero, los cuales comúnmente son sometidos a tratamientos biológicos y químicos en secuencias que pueden extenderse por más de 60 días. El principal desafío para esta reutilización es contar con un tratamiento que permita alcanzar los estándares requeridos por la normativa correspondiente; en particular, el sodio porcentual definido como Na/(Na+Mg+Ca+K). Para abordar el tratamiento de estas aguas, la electrocoagulación se destaca como una alternativa ecológica, versátil y eficiente. Dentro de sus ventajas destaca que no requiere agentes tóxicos para su operación y la baja generación de lodos posterior al tratamiento. Mediante el uso de los ánodos convencionales de aluminio o hierro, es posible remover muchos de los contaminantes de los lixiviados de vertedero, sin embargo, no se logra disminuir el sodio porcentual. Así, el objetivo de esta tesis doctoral es diseñar, producir y testear materiales que sirvan como ánodos para ser utilizados en el tratamiento de lixiviados de vertederos mediante electrocoagulación, de manera que el agua tratada cumpla con las condiciones de calidad para ser utilizadas como agua de riego en agricultura. El trabajo realizado constó de tres etapas; la primera se focalizó en el desarrollo de un modelo predictivo que introduce un nuevo factor denominado J. Este factor, que relaciona la masa de coagulantes generados durante la electrocoagulación con la cantidad de contaminantes a remover, permitió obtener modelos que predicen la remoción de la demanda química de oxígeno. Los coeficientes de determinación, R2, para dichos modelos fueron de 0,96 y 0,94 utilizando ánodos de aluminio y hierro, respectivamente. De acuerdo con los resultados obtenidos en los modelos, se diseñaron, produjeron y probaron materiales anódicos de aluminio-magnesio, con composiciones de magnesio entre el 6% y el 12%. Los resultados revelaron que la aleación de 88Al 12Mg logró una remoción del 52,9% para la DQO, 98,1% en turbidez, 97,9% en color, dejando el agua tratada con un porcentaje de sodio porcentual por debajo del 35% establecido como máximo permitido por la norma, y una concentración de aluminio de 0,008 mg/L. Estos resultados se alcanzaron con un tiempo de tratamiento de solo 15 min y un consumo energético considerablemente menor a los reportados en la literatura. Finalmente, se abordó el reusó sostenible evaluando la calidad del agua tratada mediante la comparación con normativas nacionales e internacionales. Se llevaron a cabo bioensayos para evaluar la toxicidad del agua tratada, demostrándose que con ella se alcanzó un índice de germinación de semillas de Lactuca sativa del 83,2%, y que el crecimiento de estas plántulas se observó levemente afectado, presumiblemente debido a la alta conductividad eléctrica del lixiviado tratado. El enfoque integral de esta tesis de doctorado ha permitido no solo la obtención de un material que permite un tratamiento altamente eficaz de los lixiviados de vertedero, sino también una evaluación exhaustiva de la idoneidad del agua tratada para su reutilización.Item Modificación superficial de membrana de nanofiltración para incrementar su productividad en la desalinización de agua de mar.(Universidad de Concepción, 2023) Vargas Figueroa, Catalina Adriana; Bórquez Yáñez, Rodrigo; Meléndrez Castro, ManuelComo consecuencia de la creciente escasez de agua dulce, la implementación de plantas de desalinización ha aumentado a gran escala llegando incluso a 21000 plantas instaladas en el mundo al 2022, aumentando en casi al doble en una década. Dentro de los procesos de desalinización mediante membranas operadas por presión el más masivo es la ósmosis inversa, seguido por la nanofiltración. Una de las desventajas que presenta la nanofiltración frente a ósmosis inversa es la baja retención de iones monovalentes, sin embargo, presenta mayores flujos de permeado trabajando a menores presiones de operación. Otro de los problemas que presenta junto a las otras membranas manejadas por presión, es el ensuciamiento. El ensuciamiento provoca una disminución en el rendimiento de la operación, un acortamiento de la vida útil de las membranas y mayores costos operacionales. La modificación superficial de las membranas ha sido altamente considerada con el fin de encontrar una solución a los problemas referidos. La modificación superficial a diferencia de la creación de nuevas membranas posee la ventaja de poder lograr variadas combinaciones de soluciones partiendo de una matriz inicial, adicionalmente es más económico. Existen diversas metodologías de modificación que están siendo utilizadas actualmente, pero los objetivos son principalmente los mismos: aumentar el desempeño de las membranas en la operación, es decir, aumentar permeabilidad, aumentar la retención de sales y aumentar la resistencia al ensuciamiento. Las propiedades que se deben caracterizar y que influyen los objetivos de las modificaciones son: grupos funcionales en la superficie, rugosidad, ángulo de contacto (hidrofilicidad) y carga superficial. En este estudio se analizan tres tipos distintos de modificaciones a membranas de nanofiltración: interpenetración de redes poliméricas (INPs) con una mezcla de monómeros (ClAPTA, APSA y GMA-NMG), crecimiento in situ de nanotubos de carbono mediante metodología PopTube (asistido por microondas) y Sputtering de ZnO (depósitos de metales y óxido de metal mediante campo magnético en atmósfera de gas inerte Argón). Las membranas comerciales de nanofiltración seleccionadas (NF90 y NF270, Dow chemical) mostraron buena resistencia a todas las modificaciones realizadas. Los resultados obtenidos de las modificaciones con INPs mostraron cambios más importantes, específicamente la mezcla de 0,13 M ClAPTA - 0,07 M GMA-NMG presentó un mejor rendimiento como resultado de un mayor aumento de la permeabilidad en un 84,3 %, manteniéndose estables los rechazos iónicos en comparación con las membranas comerciales originales (~90 %). Para modificaciones PopTube, se observa mejores resultados en el caso de la membrana NF270 aumentando ligeramente el rendimiento de rechazo del NaCl en un 14 %, sin sacrificar excesivamente la permeabilidad de la membrana. Por último, para la modificación mediante Sputtering, el depósito de ZnO sobre la membrana le puede otorgar un aumento en el rechazo de iones monovalentes hasta del 10 %, sin embargo, este aumento es en desmedro de la densidad de flujo de permeado la cual puede caer en un 40 %. Finalmente, los resultados obtenidos en estas modificaciones permiten avalar la hipótesis planteada de que, por medio de modificaciones químicas y físicas, es posible aumentar la permeabilidad y el rechazo de iones monovalentes de una membrana de nanofiltración de poliaramida en la desalinización de agua de mar. Los resultados generados en este trabajo dan lugar a otras interrogantes a ser abarcadas en futuros estudios, como lo son, la modificación de variables que en este estudio se mantuvieron fijas, desarrollar todas las modificaciones a una escala de sobremesa para poder estudiar la transferencia de masa y que éstos resultados sean escalables a una escala industrial y estudiar las cargas superficiales de las membranas modificadas y cómo estas se comportan/varían con las modificaciones incorporadas.Item Optimización multicriterio de la envolvente térmica y sistemas de calefacción en viviendas sociales del centro-sur de Chile.(Universidad de Concepción, 2024) Larrea Sáez, Lorena; Casas Ledón, Yannay; Cuevas Barraza, CristianEn esta tesis se analiza la importancia de considerar factores económicos y ambientales en la optimización de la envolvente térmica y sistemas de calefacción de viviendas sociales en Chile, y su relación con las políticas de eficiencia energética del país. Se propone un enfoque de optimización multi-objetivo para minimizar la demanda de calefacción, los impactos ambientales y los costos globales en viviendas sociales en diferentes ciudades del centro-sur de Chile, considerando alternativas para los muros de la envolvente y recambio de sistemas de calefacción. En primera instancia se evalúa la demanda energética y el impacto ambiental de las viviendas sociales en Chile mediante una evaluación del ciclo de vida de la cuna a la tumba. Se consideran diferentes condiciones climáticas de siete ciudades, materiales aislantes y espesores. Los resultados muestran la necesidad de considerar aspectos como la combinación entre materiales aislantes, espesores y condiciones climáticas locales. Se plantea la necesidad de mejorar la regulación térmica sobre todo en las zonas más frías, así como establecer normas de eficiencia energética adecuadas a condiciones locales. Posteriormente se estudian los impactos ambientales y costos globales de distintos tipos de sistemas de calefacción, mostrando que la demanda por calefacción, los tipos de combustible, la eficiencia de los sistemas de calefacción y composición de la matriz eléctrica influyen en los impactos ambientales. Se observa que el uso de estufas de leña para la calefacción provoca un mayor impacto ambiental, pero tiene menores costos globales en comparación con el uso de pellet o electricidad/bomba de calor. En este sentido, la eficacia de las iniciativas para sustituir los aparatos de calefacción por tecnologías más eficientes se ha visto limitada por los elevados costes del combustible y por problemas de aceptación social. Los resultados muestran que la leña puede ser una solución óptima a pesar de los impactos ambientales que su uso conlleva. Por ejemplo, en Concepción y Temuco, que son ciudades con PDA vigente, se obtiene que la leña es la solución óptima cuando la importancia (peso relativo) de los costos globales es mayor que 55%, independiente de la importancia asociada a el impacto ambiental y la demanda energética. Se propone resultados óptimos con criterios equilibrados (33.3% cada uno) dependiendo si la ciudad cuenta con PDA vigente. En Concepción el óptimo equilibrado resulta en una solución con leña, entonces se propone aumentar la ponderación de los impactos ambientales y disminuir el de los costos globales, logrando soluciones más costosas, usando bomba de calor. En Temuco en cambio, la solución óptima equilibrada es bomba de calor y también lo es en el caso de Pucón y Puerto Montt. Pero dado que estas 2 ciudades no tienen PDA vigente, se propone aumentar el factor de ponderación del costo y disminuir el de impactos, pero siempre considerando transmitancias térmicas para los muros más restrictivas según lo propone la NCh 1079:2019, para lograr envolventes más eficientes y continuando con el uso de leña siempre utilizando equipos eficientes y leña seca. De acuerdo con lo anterior, se destaca que el análisis multicriterio realizado en esta investigación permite conocer con detalle la importancia relativa de diferentes variables asociadas a la toma de decisiones para calefacción/aislación. Por tanto, incorporar este tipo de análisis contribuye a la generación de políticas públicas efectivas y de manera informada. Los resultados de esta tesis complementan la literatura actual para la toma de decisiones en viviendas sociales en Chile. Destacan la necesidad de políticas públicas que integren aspectos como costos globales e impacto ambiental. Se concluye que una optimización integrada de demanda energética, impactos ambientales y costos globales entregan soluciones que muestran bajo qué condiciones el uso de un sistema de calefacción es factible como solución óptima, para cada ciudad en estudio sometida a diferentes climas, zona térmica y consecuente restricción de transmitancia térmica.Item Development of Design Techniques to optimize the performance of Synchronous Reluctance Machines with Anisotropic Rotor Structure.(Universidad de Concepción, 2024) Gallardo Sánchez, César; Tapia Ladino, Juan; Degano, MicheleThis thesis provides a comprehensive understanding of Synchronous Reluctance Machines (SynRM), addressing both the fundamental principles of operation and the development of various design techniques. To expedite the sizing stage, a precise analytical model was developed which combines two methods: to calculate the air-gap flux density and average torque, the magnetic potential of the rotor and stator were used, and the torque ripple was calculated using the energy stored in the air-gap. This model is extended to machines with multiple flux barriers. Comparisons with the Finite Element Analysis (FEA) yield promising results, both in terms of air-gap flux density and electromagnetic torque. However, a harmonic analysis reveals that the analytical model tends to overestimate the air-gap flux density and torque due to underlying assumptions made during its development. Despite this, the model offers valuable capabilities, including the ability to extract machine parameters in the d-q reference frame, facilitating a preliminary control strategy analysis. In pursuit of further enhancing SynRM performance, an asymmetric rotor topology was Introduced. This feature achieves a significant reduction in torque ripple and an increase in maximum internal power factor. While both designs exhibit similar efficiency, the asymmetric design excels by offering a wider constant power speed range (CPSR). Simultaneously, a comprehensive study on discrete skew methodology was conducted. The proposed method provides deeper understandings into the impact of skew angle on torque ripple. This method introduces an indicator to assess the potential reduction achievable by selecting various skew steps and angles. Validation through FEA in both two and three dimensions reinforces its applicability. These techniques were used to design two SynRMs using the same stator with two different rotor topologies, one symmetrical and the other asymmetrical. The design was carried out by optimization using a multi-objective genetic algorithm (MOGA), coupled with the techniques developed throughout the thesis. The preliminary results highlight the superiority of the asymmetric design in terms of performance indices. However, it is worth noting a significant reduction in these indices when skew is applied, underscoring the importance of design choices. These two rotor topologies were manufactured to validate the improvement through experimental measurements.Item Estudio de la modificación superficial en fibras de carbono recicladas y su influencia en la interfaz fibra-matriz sobre las propiedades mecánicas de materiales de altas prestaciones.(Universidad de Concepción., 2023) Salas Salgado, Alexis Fidel; Meléndrez, Manuel; Medina, CarlosCon el paso de los años, el uso de fibra de carbono en las industrias automovilística, aeroespacial y de energía ha generado un incremento en la demanda global de estos materiales, con una demanda esperada de 194 kt para el año 2022 y un valor de marcado global de $48.7 billones de USD. Sin embargo, existen problemas con el manejo de los residuos de estos materiales, ya que su manufactura produce un 30% de residuos y a esto se debe sumar todos los componentes dados de baja luego de cumplir su vida útil. Por este motivo es importante abordar una estrategia de reciclaje que permita reincorporar estos desechos a las diferentes industrias. El principal problema de las fibras recicladas es la disminución de sus propiedades mecánicas, específicamente su resistencia a la tracción, restringiendo el uso de estos materiales en aplicaciones de alta exigencia mecánica. Uno de los factores que influye en esta disminución de propiedades corresponde a la eliminación del sizing que recubre estas fibras, mecanismo de unión entre la fibra y la matriz. Otro factor corresponde a la estructura química y morfológica de la superficie de las fibras, las cuales se pueden degradar debido al uso de estos materiales (provocando microgrietas, por ejemplo). Considerando lo anterior, este proyecto tiene como objetivo estudiar la estructura y morfología de fibras de carbono recicladas por pirólisis que permita seleccionar un tratamiento superficial sencillo, mejorando las propiedades de adhesión fibra-matriz incorporando nanopartículas en un material compuesto reforzado con fibra de carbono reciclada. Se realiza un estudio de la estructura química y morfológica de las fibras de carbono recicladas, de tal forma de minimizar los daños en la superficie. Luego se investigan métodos para mejorar la interfaz fibra matriz, considerando el nivel de daño de la superficie de la fibra y las propiedades micromecánicas del material compuesto, de esta forma se pretende reparar y modificar la estructura superficial obteniendo una mejora en las propiedades de la interfaz y por consiguiente del comportamiento mecánico macroscópico de los materiales compuestos reciclados. Los métodos de reciclaje por pirólisis en dos pasos y pirólisis microondas permiten recuperar fibras de carbono en forma de tejidos a partir de materiales compuestos, el primero mantiene la integridad estructural y el segundo presenta mayor cantidad de grupos funcionales en la superficie de las fibras. Una vez nanoreforzados se observa que las nanopartículas de SiO2 favorecen las propiedades de adhesión fibra-matriz y los nanorods de ZnO mejoran las propiedades en tracción, sin embargo sólo es posible recuperar cerca del 70% de las propiedades originales de la fibra de carbono.Item Algoritmos y arquitectura para cálculo de similitudes genómicas en aceleradores en hardware.(Universidad de Concepción., 2023) Soto Salcedo, Javier Esteban; Figueroa Toro, Miguel Ernesto; Hernández R., CeciliaLa similitud entre genomas es un concepto fundamental en bioinformática. Esta se utiliza para determinar relaciones evolutivas o filogenéticas entre diferentes especies, para identificar regiones similares en genomas, o para organizar genomas con características genéticas similares en grupos o clústeres. Existen diversas métricas de comparación utilizadas en la literatura, las cuales utilizan diferentes principios para medir la similitud. Una de las más utilizadas en genómica es la similitud de Jaccard, la que se basa en teoría de conjuntos y evalúa la presencia o ausencia de elementos en los dos conjuntos a comparar para indicar qué tan similares son. Otra métrica utilizada es la divergencia de Jensen-Shannon, que usa información estadística asociada a la distribución de probabilidad de un genoma, que puede estar representado por más de una secuencia. En general, el procesamiento de genomas se realiza describiéndolos como un conjunto de substrings de largo k, llamados k-mers. Tanto el proceso de extracción de k-mers como el cálculo de similitud, son tareas computacionalmente desafiantes, debido al alto uso de memoria requerida por el volumen de datos asociado a datos genómicos y a la complejidad cuadrática del cálculo de similitud entre pares. Este trabajo presenta el diseño de algoritmos y aceleradores usando el paradigma de FPGAas-a-service para calcular la similitud entre genomas utilizando estructuras de datos probabilísticas o sketches. El primer acelerador realiza el cálculo de similitud Jaccard entre genomas, pudiendo calcular todas las similitudes entre los elementos de una base de datos o solo aquellos que tengan la posibilidad de superar cierto umbral, permitiendo así reducir significativamente la cantidad de operaciones a realizar. Después de la construcción de sketches, el acelerador puede calcular más de 96 millones de coeficientes Jaccard por segundo en una instancia f1.2xlarge de Amazon Web Services (AWS) con un FPGA XCVU9P, lo que presenta una aceleración de 58 veces sobre el estado del arte en software corriendo en una instancia c5.9xlarge. El acelerador es 27 veces más rápido que una implementación directa en GPU y 4 veces más rápido que una implementación optimizada en GPU, correspondiente a una adaptación del algoritmo diseñado para el FPGA. Ambas implementaciones en GPU fueron evaluadas en una instancia g5.4xlarge que cuenta con una GPU NVIDIA A10G. El segundo acelerador implementa el cálculo de similitud usando divergencia de Jensen-Shannon. El acelerador utiliza una estructura llamada arreglo de colas de prioridad (PQA), la cual almacena los elementos más frecuentes de un conjunto para el cálculo de entropía. Esta implementación alcanza una aceleración de 1, 9 veces comparada con la implementación del mismo algoritmo en GPU, en ambos casos usando las instancias f1.2xlarge y g5.4xlarge respectivamente.Item Imagenología infrarroja para asistir la ejecución de acciones en el levantamiento de pesas.(Universidad de Concepción., 2023) Viafora Reyes, Laura Antonieta; Torres Inostroza, SergioIn this work, the “action quality evaluation” and “pose estimation” techniques are applied to infrared (IR) videos of weightlifters to monitor and assist the work of high-performance athletes coaches in the task of reducing the risk of injury due to incorrect positions during practice. Two databases were created (with over 80 videos) of athletes performing the barbell lift using the technique of “snatch” y “Clean & Jerk”. The processing was done in Scientific Python. The “MediaPipe” algorithm from Google was used on the IR images to identify athletes and regions of interest (ROI) on their bodies. With this information, the degree of back inclination, knee opening, and elbow opening were calculated. The graph of the Olympic bar trajectory was also obtained. Finally, the average temperature of multiple regions of interest was estimated.Item Aleaciones súper austeníticas estabilizadas con (Nb, V o Ti) expuestas en sales fundidas aplicadas en plantas térmicas concentradoras solares y salinas.(Universidad de Concepción., 2023) Ramírez Briceño, Jesus Alfredo; Rojas Jara, David; Meléndrez Castro, ManuelLa siguiente investigación lleva por título “Aleaciones Súper Austeníticas estabilizadas con (Nb, V o Ti) expuestas en sales fundidas aplicadas en Plantas térmicas Concentradoras Solares". El desarrollo de esta investigación parte del estudio de un acero SASS-Nb modificado a partir del acero comercial 254SMO. En esta investigación se determinó el efecto del Nb como agente estabilizador y las temperaturas de tratamiento térmico optimas de recocido de precipitación sobre las propiedades de resistencia a la corrosión general y localizada. De acuerdo con esta investigación existen algunas incertidumbres e hipótesis si la adicción de otros elementos estabilizadores como (Nb, V y Ti), puedan incrementar las propiedades mecánicas, específicamente la resistencia al fenómeno de termofluencia sin promover la corrosión intergranular. La investigación del acero SASS-Nb modificado a partir del acero comercial 254SMO y 709, crea una base científica y un reto tecnológico para el diseño de nuevos aceros inoxidables superausteníticos (A1 y A2) con modificación de Mo y adición de nuevos elementos estabilizadores. La investigación realizada se enfocó en el diseño, producción, caracterización y evaluación de dos tipos de aceros Súper Austeníticos con la adición de elementos estabilizadores y tierras raras. Los aceros desarrollados fueron evaluados frente a condiciones cíclicas de trabajo (temperatura y tiempo) a las cuales operan los sistemas de almacenamiento de energía solar (tanques de almacenamiento, tuberías y válvulas), como lo son altas temperaturas (550 °C) y medios agresivos (sal solar), para evaluar su comportamiento como solución al deterioro acelerado de estos materiales. Se utilizó la simulación termodinámica Thermo-Calc, con la finalidad de predecir las posibles fases secundarias intermetálicas (σ, chi, MX, M23C6 y Laves) y temperatura de aplicación de tratamientos térmicos. La producción de las dos aleaciones se enfocó en el estudio de la influencia de la concentración de Nb, Ti y V con respecto a las propiedades de termofluencia. Asimismo, se integró el Ce para el estudio o contribución a la resistencia a la corrosión a alta temperatura y sales fundidas. Las aleaciones producidas fueron formadas por Nb, V, Ti y Ce en un rango de 0.37 %, 0.09 %, 0.02 % y 0.009 % (A1) y 0.16 %, 0.34 %, 0.00 % y 0.01 % (A2) y composiciones de Cr, Ni, Cu, Mn, Si y Fe similares. Se realizaron caracterización en condiciones iniciales y de exposición, mediante microscopia óptica, MEB, RAMAN, AFM, XPS y DRX. Como principales resultados se tiene que la microscopía óptica en ambas aleaciones mostró inclusiones no metálicas de óxidos globulares tipo D2 y morfología de granos austeníticos equiaxiales con tamaño de grano ASTM6 y precipitaciones secundarias. Los aceros diseñados expuesto alta temperatura (800 °C y 110 h de exposición) presentaron un excelente comportamiento con ganancia de masa de 0.17 mg/cm2 y 2.49 mg/cm2 para A1 y A2 respectivamente, siendo su cinética de oxidación del tipo parabólica con valores de su contante cinética de 9.16 × 10-13 g2/cm-4s-1 y 3,40 × 10-11 g2/cm-4s-1, lo cual indica una excelente resistencia de los aceros a la exposición a alta temperatura. En lo que respecta a la exposición en sales fundidas (NaNO3 y KNO3) a 550 °C durante 720 h, ambas aleaciones diseñadas presentaron un excelente comportamiento con ganancia de masa de 0.0110 mg/cm2 y 0.0353 mg/cm2 para A1 y A2 respectivamente. Es decir, sus ganancias de masa son muy bajas lo cual es excelente para la aplicación en plantas térmicas solares. Por otra parte, las propiedades mecánicas de tracción, dureza y termofluencia presentadas en las aleaciones A1 y A2 son excelentes y comparables al acero comercial 709. Destacándose la aleación A1 con altos tiempo de ruptura en ensayos de termofluencia en el orden de 1190 h a condiciones de 720 h – 150 MPa. De manera general, 1) la adición de elementos estabilizadores como Nb, V, Ti aumentaron la resistencia a la termofluencia de las aleaciones mediante el mecanismo de endurecimiento por precipitación (NbMX, TiMX y VMX) y 2) la adicción de Ce por debajo de 0.01 ppm modifica la microestructura de las aleaciones, resistencia a la oxidación y produce un refinamiento de la estructura dendrítica.Item Modelado de estados en la dinámica de las redes cerebrales en estado de reposo.(Universidad de Concepción, 2023) Hernandez Larzabal, Hernan; Guevara Álvez, Pamela Beatriz; EL-Deredy, WaelLa dinámica de las redes cerebrales en estado de reposo (RSNs) es objeto de intensa investigación como posible predictor del estado cognitivo y conductual actual y futuro. Para modelar la actividad cerebral regional como una combinación lineal de la actividad pasada en todas las demás regiones se utilizan Autoregresores Multivariados (MAR). Los coeficientes del MAR se toman como estimaciones de la conectividad efectiva de la red cerebral. Sin embargo, la suposición de estacionariedad junto con el gran número de coeficientes, hace que el MAR sea poco práctico para la estimación precisa o eficiente de las redes a partir de series de tiempo de neuroimagen estándar con duración limitada. El método propuesto en esta tesis, HsMM-MAR-AC, es un modelo novedoso, híbrido, discreto-continuo y disperso para la estimación eficiente de redes cerebrales efectivas dependientes del tiempo, a partir de series de tiempo de actividad cerebral no estacionarias. Los estados cerebrales discretos cuasi estacionarios y el rápido cambio entre ellos se modelan mediante un Modelo Semi-Markov Oculto cuyas emisiones continuas se extraen de un MAR disperso. Los coeficientes dispersos del MAR se restringen mediante información de Conectividad Anatómica Cerebral de dos formas: i.) la conectividad directa efectiva entre dos regiones cerebrales solo se considera si existe la conexión anatómica correspondiente y ii.) el retraso asociado con cada conexión directa se calcula en función de la longitud promedio de las fibras entre las dos regiones, de manera que solo se estima un retraso por conexión. Se evaluó el rendimiento de HsMM-MAR-AC en base a la recuperación de las redes en estado de reposo (RSN) en señales simuladas de actividad cerebral. Se exploraron diferentes duraciones y diferentes umbrales de restricciones anatómicas. Los resultados demostraron que HsMM-MAR-AC recupera las RSNs de manera más precisa que el método de la ventana deslizante, con tan solo 4 minutos de datos. Además, los resultados muestran que con restricciones anatómicas menos estrictas, se necesitan series de tiempo más largas para estimar las redes, lo cual se vuelve computacionalmente inviable sin restricciones anatómicas. Adicionalmente, se aplicó el modelo HsMM-MAR-AC a datos reales de dos grupos de sujetos con edades diferentes. Un grupo con edades entre los 22 y 25 años y otro grupo con edades entre los 31 y 35 años. Los resultados demostraron que la red de modo por defecto (DMN) tiene una duración significativamente mayor en el caso de los sujetos de 31 a 35 años. Además, las conexiones entre las regiones de la DMN son más fuerte en el grupo de 31 a 35 años. HsMM-MAR-AC ofrece un modelo eficiente para estimar la conectividad efectiva dependiente del tiempo a partir de datos de neuroimagen, que aprovecha las ventajas de los modelos de Markov ocultos y MAR sin problemas de identificabilidad, una demanda excesiva en la recopilación de datos, ni esfuerzos computacionales innecesarios.