Facultad de Ingeniería
Permanent URI for this community
Browse
Browsing Facultad de Ingeniería by Title
Now showing 1 - 20 of 1596
Results Per Page
Sort Options
Item A CFD Based Design Modelfor Tubular Fixed Bed CO2 Methanation Reactors under Power to Gas Operation.(Universidad de Concepción., 2022) Soto Pascual, Victor; García Carmona, Ximena Andrea; supervisora de grado; Ulloa T., Claudia; supervisora de gradoToday, there is no doubt that renewable energy will and must play a central role in the future’s energy mix. During the 2000s and 2010s the strong growth in wind and solar photovoltaic plants for electricity production was mostly prompted by economics, environmental and social drivers. However, due to recent geo-political developments (Ukraine War, South China Sea disputes), the energy independence has resurged as an additional promoter for renewable energy development. In either case, it is already demonstrated that a large participation of non-dispatchable renewable energy in the electrical grid requires seasonal and hourly storage system to balance peak and low generation periods. Power to X (PtX) technologies, allows for the required storage, transforming electrical energy surplus into other energy carriers such as methane, hydrogen and methanol. In this work, methane as final product of the PtX process is considered due to its versatility and capacity to easily been injected into the existing gas grid. Therefore, the methane storage path also known as Power to Methane (PtM) will be mostly used to describe a particular form of Power to X system, which is of interest in this study. This work addresses one of the main technical problems demanded by methanation technology: heat management and temperature control of CO2 methanation reactors. A novel Computational Fluid Dynamics based design methodology is proposed for tubular fixed bed reactors in a PtM operational context. This thesis outlines an extensive literature review regarding the current trends in reactor modelling and the operational requirements of PtM technology. The main technological challenges regarding heat management in the tubular fixed bed reactor concept have not been addressed properly. In this research a computational modelling methodology was developed to design a methanation reactor in the context of a PtM operation. A 3D transient computational fluid dynamics model was implemented in ANSYS Fluent for such purposes. First a suitable CO2 kinetic model is validated against experimental data using a simplified tubular reactor model. Then, the heat transfer process between the reactor tubes and coolant is assessed against empirical correlations used extensively in shell and tube heat exchanger design. This unique approach allows to ensure that the proposed design fulfills entirely, both product gas quality (methane content) and heat management capabilities. Then, a sensitivity study was carried out to identify relevant differences between the two most common coolant fluids used in methanation. Unlike what is found in the revised literature, the most suitable coolant in terms of pumping energy consumption and heat transfer, is thermal oil instead of molten salts. Then, an optimal flow of coolant is found, which minimizes the energy consumed in pumping, while maintaining an optimum temperature control. Finally, a design configuration is proposed based on two modules (the first one of 1 m length, and the second of 0.5 m) with interstage water condensation. Then, the design configuration obtained in the previous chapter is subjected to disruptions relevant to Power to Gas operation. Firstly, the amount of time the reactor requires to reach the steady state from a standby condition is determined. In line with similar works, the time required for the reactor to leave the warm-start condition was 330 s. As for the reactor shutdown, it took 130 s to return to its original warm-start condition. Regarding reactor feeding relevant disruptions, a 30 s H2 feed interruption prompted a transient low-temperature hot-spot. After 90 s of resuming the H2 feed, the temperature profile returned to its original values. As for temperature disruptions, a 20 K sudden inlet feed rise, promoted the formation of a lower hot-spot and a new steady state at lower temperatures. On the other hand, a 20 K feed temperature drop triggered a high temperature hot spot, which exposed the catalytic bed to its maximum operating temperature (≈923 K). The appearance of this “wrong-way” behaviour was explained by the combined effect of transient reactant concentration and thermal inertia of the bed. Temperature disruptions did not affect substantially the quality of the outlet gas, while the H2 interruption induced a 90 s latency time required to return to the minimum methane required concentration. Finally, in the absence of coolant flow or chemical reaction, the reactor maintained warm start conditions for 3 h after all heat flow ceased. The author expects that this thesis will serve as a reference tool to the designers, chemical 4 or mechanical engineering students to better understand the phenomena involved in chemical reactor engineering in the context of intermittent energy storage.Item A debiasing framework for deep learning applied to the morphological classification of galaxies.(Universidad de Concepción., 2023) Medina Rosales, Esteban; Cabrera Vives, Guillermo, profesor guíaIn order to train deep learning models, usually a large amount of correctly annotated data is needed. Depending on the data domain, the task of correctly annotating data can prove to be difficult, as in many cases the ground truth of the data is not obtainable. This is true for numerous problems within the astronomy domain, one of these being the morphological classification of galaxies. The aforementioned means that astronomers are forced to rely on an estimate of the ground truth, often generated by human annotators. The problem with this is that human generated labels have been shown to contain biases related to the quality of the data being labeled, such as image resolution. This type of bias is a consequence of the quality of the data, that is, it is independent of the annotators, meaning that even datasets annotated by experts can be affected by this type of bias. In this work, we show that deep learning models trained on biased data learn the bias contained in the data, transferring the bias to its predictions. We also propose a framework to train deep learning models, that allows us to obtain unbiased models even when training on biased data. We test our framework by training a classification model on images of morphologically classified galaxies from Galaxy Zoo 2 and show that we are able to diminish the bias in the data.Item A model for local scour during flood waves = Un modelo para socavación local durante crecidas.(Universidad de Concepción., 2016) Castillo Beroiza, Cristian Fernando; Link Lazo, Óscar Eduardo; supervisor de gradoThe local scour during flood waves is the main cause of bridge collapses all over the world so its study and modeling is of great interest. However, the scour caused by flood waves has been scarcely investigated. The reason is attributed to the complexity in the accurate control of the discharge at laboratory flumes in order to reproduce hydrographs representative of river flows, and to the complexity in representing the scour processes with a model of the time-dependent scour during flood waves. With the aim to improve the estimation of the scour during flood waves the objective of this work is to study the impact of the shape, duration and peak discharge of flood hydrograph on the maximum scour depth and rate under clear-water condition. For the achievement of the main objective, the local scour during flood waves was modeled and analyzed through experiments that were conducted in a novel installation able to reproduce any hydrograph with high precision in the laboratory flume. Experimental results were used to test different time-dependent scour formulas including a new mathematical model (DFW) based on the hypothesis that there is a unique relationship between the dimensionless, effective flow work W* and the relative scour depth Z*. Model comparison confirms the reliability and better performance of the dimensionless, effective flow work based, DFW model under both, steady and unsteady hydraulic conditions, corroborating the hypothesis on which it relies. Analyses highlight the impact of different hydrographs on local scour demonstrating the strong control of the hydrograph shape on the temporal evolution of scour depth and scour rate, although final scour after a flood only depends on the total effective flow work exerted by the hydrograph on the sediment bed. Hysteresis between the flow discharge and the scour rate is reported and explained. Flow acceleration is shown to play a secondary role in scouring.Item A simulation-optimization approach for the fire stations location and vehicle assignment problem: A case study in the Concepcion Province, Chile.(Universidad de Concepción., 2020) Rodríguez Cartes, Sebastián A.; De la Fuente, Rodrigo; supervisor de gradoBomberos son una parte importante los servicios de emergencia al ser responsables de atender varias emergencias urbanas. Para atender estas de mejor forma, ellos deben planificar una adecuada localización de sus compañías y asignación de vehículos. Para apoyar esta toma de decisiones, proponemos un método iterativo de simulación optimización que basado en parámetros de utilización previamente calculados actualiza la localización óptima de vehículos y compañías usando un modelo de programación lineal. Llamamos a este modelo el Facility Location and Equipment Emplacement Technique with Expected Coverage (FLEET-EXC), que considera múltiples tipos de emergencias y vehículos, y una política de despacho que depende del tipo de región. Luego, modelo de simulación es ejecutado con las localizaciones y asignaciones obtenidas para actualizar los parámetros de utilización. Adicionalmente, el modelo de simulación usa un método de muestreo espacio-temporal que acopla un Kernel Density Estimator para el componente espacial y un proceso de arribo non-Stationary non-Renewal basado en un modelo de Markov-Mixture of Erlangs of Common Order para generar los tiempos entre-arribos para el componente temporal. Ademas, un conjunto de incertidumbre para los parámetros de utilización es obtenido de la simulación; por lo tanto, proponemos un modelo de optimizan robusta para extender la formulación previa. Los principales resultados muestran que el método de muestreo propuesto logra una mejor representación del proceso de arribo de emergencias que aquellos generalmente usados en la literatura. Por otra parte, el procedimiento de simulación-optimización que usa el modelo de FLEET-EXC tiene un mejor desempeño que el modelo discrete FLEET, resultando en hasta 2% de mayor cobertura. Ademas, el modelo robusto también tuvo un mejor desempeño que el modelo discreto FLEET, pero tiene un desempeño variable al compararse con el FLEET-EXC. Sin embargo, el modelo robusto logra el menor tiempo de respuesta promedio cuando solo se consideran las emergencias bao el percentil 60.Item Aceleración de Metabat mediante la integración de compresores GPU Nvidia.(Universidad de Concepción, 2024) Caro Quijada, Hernán Vicente; Hernández, CeciliaUn problema del área de la Metagenómica es la identificación de los diversos genomas encontrados en muestras obtenidas del ambiente, esto se debe a que las muestras contienen una gran cantidad de material genético que puede pertenecer a diversos microorganismos. MetaBAT es una herramienta desarrollada en C++ utilizada para resolver dicho problema, ya que recibe como entrada las muestras procesadas en forma de contigs, para posteriormente entregar como resultado clusters de contigs, donde cada cluster constituye las secuencias genómicas de un genoma. El aporte de esta herramienta es de utilidad en el contexto ecológico y en particular, en el estudio de microorganismos del ser humano, el trabajo realizado por los investigadores de esta área puede resultar muy beneficioso para lograr el diagnóstico, tratamiento y control de enfermedades que pueden provocar dichos microorganismos. Cómo se puede presumir los datasets utilizados por MetaBAT son de gran magnitud, es por ello que en esta memoria de título se llevó a cabo el análisis e integración de compresores de datos acelerados por GPU NVIDIA, con el propósito de disminuir el tiempo de compresión y descompresión de estos. Además, se abordó la fase de clustering en MetaBAT con un algoritmo igualmente acelerado por GPU NVIDIA, para disminuir el tiempo de procesamiento del clustering a la vez que se conserva una calidad del resultado similar a la original.Item Aceleración hardware para inferencia en redes neuronales convolucionales.(Universidad de Concepción., 2021) Pérez Cerdeira, Ignacio Jesús; Figueroa Toro, Miguel Ernesto; supervisor de grado; Carvajal Barrera, Gonzalo Andrés; supervisor de gradoGracias a su alta precisión para clasificar objetos en imágenes, las redes neuronales con volucionales (CNN) son una herramienta muy relevante en la visión computacional. Este tipo de red neuronal utiliza capas convolucionales para extraer características de las imágenes y las clasifica por medio de capas de clasificación. Típicamente, el proceso de reconocimiento, llamado inferencia, es aplicado en unidades centrales de procesamiento (CPU) o unidades de procesamiento gráfico (GPU), pero debido al alto paralelismo de estas últimas, las GPUs muestran un mejor desempeño. Aun así, su alto consumo de potencia dificulta la implementación de estas plataformas en dispositivos móviles. Por esto, una alternativa para solucionar este problema es diseñar arquitecturas hardware en sistemas dedicados, como arreglos de compuertas programables (FPGA), que permiten reducir el consumo de potencia y acelerar la inferencia. Debido a esto, en este trabajo diseñamos una arquitectura heterogénea para realizar la inferencia de la CNN MobileNet V2 sobre hardware dedicado. Esta arquitectura utiliza una CPU y memoria embebida para controlar y almacenar datos del proceso, y un acelerador hardware sintetizado en la lógica programable de un FPGA para disminuir los tiempos de inferencia. Para reducir la cantidad de operaciones y datos en la FPGA, utilizamos técnicas de loop tiling, pruning y cuantización. Implementamos la arquitectura sobre la plataforma Xilinx Zynq Ultrascale+, utilizando la CPU ARM Cortex-A53 como controlador, una memoria DDR4 de 2GB para almacenar datos y la FPGA XCZU7EV para sintetizar cuatro elementos de procesamiento que permiten la inferencia en paralelo. Nuestra implementación puede inferir una imagen de la base de datos ImageNet de 224×224 píxeles en 220ms, utilizando 532 bloques de RAM (BRAM), 24 RAMs de UltraScale (URAM) y 340 procesadores digitales de señales (DSP) del FPGA, y consumiendo 7.34W de potencia. Comparada con una implementación software sobre una GPU y CPU, nuestro diseño es 10.18 veces más lento que la GPU y tiene un frame-rate similar a la CPU, pero consume 29.23 y 12.93 veces menos potencia que estos dispositivos respectivamenteItem Acelerador hardware para búsqueda de motivos emergentes en streams de secuencias de ADN(Universidad de Concepción., 2018) Saavedra Mondaca, Antonio Sebastián; Hernández Rivas, Cecilia; supervisora de gradoEl descubrimiento de motivos en cadenas de ADN se define como la búsqueda de secuencias cortas de elementos compartidos en un conjunto largo de bases de nucleótidos que poseen una función biológica común. El descubrimiento de motivos entre los sitios de unión de los factores de transcripción, debido a la importancia de su función regulatoria en la expresión genética, resulta un problema de relevancia biológica. Este tipo de problemas presenta una alta complejidad computacional, especialmente debido a las dificultad de trabajar con bases de datos masivas. Las soluciones existentes en este tipo de problema se enfocan, por lo general, a plataformas en grandes clusters de alto costo, elevados tiempos de ejecución y consumo de potencia. En este trabajo se desarrolla un acelerador hardware reconfigurable para la búsqueda de motivos emergentes en secuencias de ADN. Los motivos emergentes se definen como aquellos que cumplen requisitos establecidos de frecuencia dentro de la secuencias analizadas. Su búsqueda representa un problema biológicamente relevante que presenta altos requisitos de memoria y costos computacionales. La plataforma se propone en base a algoritmos capaces de resolver el problema de la búsqueda de elementos más frecuentes dentro de un stream de datos. Estos algoritmos utilizan estructuras de datos conocidas como sketches para realizar una aproximación al proceso de conteo para determinar los elementos más frecuentes. A diferencia de un conteo tradicional, la utilización de sketches permite resolver, a través de procesos probabilísticos, en espacio sublineal, la estimación de la frecuencia de cada elemento del stream. Se implementaron en software los algoritmos CountSketch, Countmin, y Countmin-CU. Utilizando bases de datos biológicas públicas, se analizaron las dimensiones requeridas para operar con buena precisión y sensibilidad. El algoritmo Countmin-CU es capaz de encontrar los motivos emergentes de largos entre 10 y 20 utilizando arreglos de 65 mil contadores. El conteo tradicional requeriría sobre 100 mil millones. Se diseñó una arquitectura hardware dedicada que permite utilizar un FPGA como acelerador en un contexto de computación heterogénea. El algoritmo de streaming logra un balance adecuado entre el cómputo y los accesos requeridos a memoria permitiendo explotar el paralelismo fino de este tipo de plataforma. De esta manera, la lógica programable del FPGA con un diseño especializado nos permite reducir los costos de tiempo y el consumo de potencia de la solución. Este modelo de computación acelerada por hardware, con el FPGA nos permite trabajando con un reloj de 300MHz y consumiendo 3 Watts de potencia, nos permite alcanzar una aceleración de hasta 290 veces sobre la versión en software.Item Acelerador hardware para búsqueda de motivos emergentes en streams de secuencias de ADN.(Universidad de Concepción., 2018) Saavedra Moncada, Antonio Sebastián; Figueroa Toro, Miguel Ernesto; supervisor de gradoEl descubrimiento de motivos en cadenas de ADN se define como la búsqueda de secuencias cortas de elementos compartidos en un conjunto largo de bases de nucleótidos que poseen una función biológica común. El descubrimiento de motivos entre los sitios de unión de los factores de transcripción, debido a la importancia de su función regulatoria en la expresión genética, resulta un problema de relevancia biológica. Este tipo de problemas presenta una alta complejidad computacional, especialmente debido a las dificultad de trabajar con bases de datos masivas. Las soluciones existentes en este tipo de problema se enfocan, por lo general, a plataformas en grandes clusters de alto costo, elevados tiempos de ejecución y consumo de potencia. En este trabajo se desarrolla un acelerador hardware reconfigurable para la búsqueda de motivos emergentes en secuencias de ADN. Los motivos emergentes se definen como aquellos que cumplen requisitos establecidos de frecuencia dentro de la secuencias analizadas. Su búsqueda representa un problema biológicamente relevante que presenta altos requisitos de memoria y costos computacionales. La plataforma se propone en base a algoritmos capaces de resolver el problema de la búsqueda de elementos más frecuentes dentro de un stream de datos. Estos algoritmos utilizan estructuras de datos conocidas como sketches para realizar una aproximación al proceso de conteo para determinar los elementos más frecuentes. A diferencia de un conteo tradicional, la utilización de sketches permite resolver, a través de procesos probabilísticos, en espacio sublineal, la estimación de la frecuencia de cada elemento del stream. Se implementaron en software los algoritmos CountSketch, Countmin, y Countmin-CU. Utilizando bases de datos biológicas públicas, se analizaron las dimensiones requeridas para operar con buena precisión y sensibilidad. El algoritmo Countmin-CU es capaz de encontrar los motivos emergentes de largos entre 10 y 20 utilizando arreglos de 65 mil contadores. El conteo tradicional requeriría sobre 100 mil millones. Se diseñó una arquitectura hardware dedicada que permite utilizar un FPGA como acelerador en un contexto de computación heterogénea. El algoritmo de streaming logra un balance adecuado entre el cómputo y los accesos requeridos a memoria permitiendo explotar el paralelismo fino de este tipo de plataforma. De esta manera, la lógica programable del FPGA con un diseño especializado nos permite reducir los costos de tiempo y el consumo de potencia de la solución. Este modelo de computación acelerada por hardware, con el FPGA nos permite trabajando con un reloj de 300MHz y consumiendo 3 Watts de potencia, nos permite alcanzar una aceleración de hasta 290 veces sobre la versión en software.Item Acelerador hardware para estimación de cuantiles en tráfico de redes.(Universidad de Concepción, 2024) Gallardo Pavesi, Carolina Sofía; Figueroa T., Miguel; Hernández R., CeciliaLas propiedades estadísticas del tráfico, tales como los cuantiles, entre los cuales se encuentran la mediana y el percentil 99, y la función de distribución acumulativa, nos ayudan a entender la distribución del tráfico y detectar anomalías a corto y largo plazo. Sin embargo, calcular de manera exacta el valor de estas propiedades es costoso en términos de espacio y tiempo. Particularmente, en el caso de los percentiles distintos de 0 y 100, es imposible encontrar una solución exacta en una pasada sin almacenar todos los datos. Utilizar un acelerador hardware basado en arreglos de lógica programable (FPGA, del inglés Field Programmable Gate Array) nos permite enfrentar la necesidad de procesar un stream de paquetes a alta velocidad y producir resultados con baja latencia. Sin embargo, la memoria interna disponible en estos dispositivos es limitada, por lo que almacenar todos los elementos no es una opción viable. Para responder a este problema, se han propuesto algoritmos basados en sketches: estructuras probabilísticas compactas que utilizan un espacio de memoria sublineal para estimar una propiedad con una cota de error predeterminada. Este trabajo presenta la arquitectura de un acelerador hardware para la estimación de cuantiles usando un algoritmo basado en sketches. La arquitectura propuesta se basa en la estructura general del sketch KLL presentado por Karnin et al. [1]. Implementamos la arquitectura en una tarjeta de desarrollo Xilinx Alveo U55C, la cual contiene un FPGA Virtex™ XCU55 UltraScale+, obteniendo un tiempo de ejecución total por lo menos 35 veces menor que el tiempo de ejecución total de la implementación en software del algoritmo modificado, y una aceleración mínima de 37 veces en cuanto al tiempo de inserción de elementos al sketch. El acelerador puede operar a una frecuencia de reloj de máxima 325.2 MHz, lo que equivale a una tasa mínima de 166 Gbps (gigabits por segundo). Mostramos empíricamente que las estimaciones mantienen una buena precisión, respetando las cotas de error cuando el número de paquetes de la traza es lo suficientemente parecido al número de elementos para el que dimensionamos el sketch.Item Acelerador hardware para la estimación de entropía empírica mediante sketches.(Universidad de Concepción., 2021) Paulo Pedro, Ubisse; Figueroa, Miguel; supervisor de grado; Hernández, Cecilia; supervisora de gradoLos enfoques basados en entropía para la detección de anomalías son atractivos, ya que propor cionan información más detallada que el análisis de volumen de tráfico tradicional. Sin embargo, el cálculo de la entropía empírica exacta en un gran conjunto de datos puede ser costoso en uti lización de memoria, debido a que su cómputo requiere almacenar el número de ocurrencias de todos los elementos distintos observados en el flujo. Un alto uso de memoria reduce el desem peño de los aceleradores hardware, que son necesarios para estimar la entropía en redes de alta velocidad. Una solución práctica es, entonces, relajar la restricción de un cálculo exacto. En este trabajo, presentamos dos métodos probabilísticos basados en sketches para aproximar la entropía empírica de un gran conjunto de datos en procesamiento en tiempo real, con uso de espacio de memoria sublineal. Los sketches son estructuras de datos que utilizan espacio sublineal donde el uso de memoria crece de forma sublineal con los datos de entrada. Cuando el tamaño de la memoria utilizada es menor que la entrada, la pérdida de precisión es inevi table y conduce a resultados probabilísticos. Sin embargo, los algoritmos basados en sketches proporcionan aproximaciones con resultados de alta calidad. El primer enfoque consiste en es timar la entropía empírica de un flujo de datos, considerando los elementos top-K, o sea los K elementos más frecuentes. El segundo y principal enfoque de nuestro trabajo, consiste en aproximar la estimación de la entropía empírica no solo tomando la parte del flujo de datos que corresponde a los K elementos más frecuentes, sino también tomando la parte del flujo de datos que corresponde a los elementos menos frecuentes. Los dos enfoques han sido implementados en un sistema en chip (System on chip, SoC) Zynq UltraScale de Xilinx. Para el primer enfoque, los resultados experimentales del diseño de hardwa re en una FPGA Xilinx Zynq UltraScale+MPSoC ZCU102 (Field Programmable Gate Array), muestran que el sistema funciona a una frecuencia de reloj de 354 MHz y puede funcionar con una velocidad de red de 181 Gigabits por segundo (Gbps). Para el segundo y principal enfoque, los resultados experimentales en una arquitectura de propósito especial implementada en un FPGA ZCU104 de ultraescala Xilinx Zynq, muestran que el sistema alcanza un rendimiento de un paquete por ciclo a 400 MHz, lo que le permite operar a velocidades de red de hasta 204 Gbps.Item Actualización de la instrumentación de la planta de vapor del laboratorio de termofluidos.(Universidad de Concepción, 2024) Jara Contreras, Martín Alonso; Farías Fuentes, ÓscarLa Planta de Vapor del Laboratorio de Termofluidos de la Universidad ha estado en operación por más de 50 años, siendo fundamental para la formación profesional de los estudiantes, ya que cuenta con los componentes principales de una central termoeléctrica. Sin embargo, no ha experimentado cambios significativos en los instrumentos de medición, por lo que se requiere modernizar dichos equipos e implementar un sistema local que registre los datos de manera continua. El propósito del presente trabajo consiste proponer mejoras en la instrumentación de la Planta de Vapor para la enseñanza práctica de las asignaturas relacionadas con el área de Termofluidos. Conforme a esto, se lleva a cabo un diagnóstico de la central basado en mediciones históricas y en los balances de masa y energía del ciclo, los cuales fueron resueltos mediante un programa EES. Este análisis resalta las variables críticas y los equipos con errores significativos, identificando que el circuito de generación presenta los mayores márgenes de error. La implementación incluye la instalación de 10 transmisores de presión, 13 transmisores de temperatura, 4 flujómetros, 1 analizador de corriente y un sistema de monitoreo de variables con pantalla táctil, entre otros. Posteriormente, se analiza la percepción de los estudiantes mediante una encuesta que muestra la visualización de las variables del sistema local, obteniendo resultados positivos en cuanto a la claridad y facilidad de interpretación de datos. En términos de mejora de precisión, se logra reducir el error del rendimiento del ciclo a un 10% de su valor original, y se alcanza una disminución del 95% en el error del rendimiento de la turbina. Finalmente, se diseñan protocolos de ensayo para las asignaturas del área de Termofluidos, esquematizando las experiencias de laboratorio de acuerdo con la taxonomía de Bloom y vinculando los resultados de aprendizaje con los indicadores clave de desempeño establecidos para la carrera de Ingeniería Civil Mecánica.Item Actualización de un controlador de modelo interno, basado en la identificación dinámica en lazo cerrado, para un intercambiador de calor(Universidad de Concepción., 2016) Steel Heldt, Brian Andrew Brian Andrew; Melo Lagos, Diógenes; Canales Rebolledo, EdgardoEl control eficiente de los procesos químicos es fundamental para las industrias permitiendo operar los procesos de forma segura (cuidando el medio ambiente y la salud de los operadores) y maximizar utilidades (obteniendo un producto de calidad al mismo tiempo que se optimizan los consumos de suministros y reactivos). Para poder controlar un proceso de forma correcta se deben conocer las características estáticas (ganancia) y dinámicas (constantes de tiempo y retardo) del mismo. Este trabajo de tesis propone utilizar un método de identificación en lazo cerrado para obtener los parámetros que caracterizan las funciones de transferencia de, a diferencia de trabajos anteriores, procesos con controladores de modelo interno. Este modo de control reconoce la referencia, impidiendo identificar la ganancia de manera directa (la razón de amplitud a frecuencia angular cero es indeterminada). Por ello se ideó un algoritmo basado en numerosas simulaciones de sistemas de primer orden, el que se probó en procesos con parámetros y tiempos de muestreos aleatorios, demostrando ser exacto cuando la razón entre el tiempo de muestreo y la constante de tiempo del proceso estaba entre 2.5 y 8.5. Cada ensayo experimental consiste en realizar un cambio escalón en la referencia del controlador. Luego se registra la respuesta del sistema en lazo cerrado bajo la acción del controlador de modelo interno, la que se somete a un tratamiento matemático que involucra técnicas numéricas, permitiendo obtener la respuesta de frecuencia del sistema en lazo abierto. Un análisis de frecuencia de esta respuesta conduce a las características del sistema, ajustándole por ejemplo un modelo de primer orden con retardo. El modelo de la planta utilizado en el controlador es actualizado con los parámetros identificados. El funcionamiento del algoritmo del método de identificación se puso a prueba, primero, simulando el lazo de control de temperatura de un intercambiador de calor, para lo cual se empleó el software SIMULINK™. Para el sistema se usaron los parámetros identificados por Steel (2013). Para el modelo se tomaron como referencia los mismos parámetros, pero con cierto porcentaje de error. Posteriormente, se experimentó sobre lazos de control instalados en un intercambiador de calor que tiene cuatro pasadas por los tubos y una por la carcasa. Por los tubos circula agua fría y a través la carcasa vapor de agua. El método probó ser muy efectivo en los sistemas simulados. La calidad de los datos facilitó el trabajo. El mayor error en un parámetro fue del 2.61%. Los modelos iniciales que presentaban mayor error se mejoraron considerablemente. En los ensayos en el intercambiador de calor el ruido de los datos dificultó el trabajo del algoritmo, lo que no fue impedimento para que se ajustasen los modelos de primer orden con retardo, con los que se mejoró la sintonía de los lazos de control. Todas las mejoras en los modelos se reflejaron en las respuestas, disminuyendo sobrepasos, oscilaciones y el tiempo que demoraban en alcanzar el estado estacionario. Aunque un proceso real puede ser de orden superior, el ajuste demostró ser suficiente para el funcionamiento del controlador de modelo interno disponible en el software de control RSLogix 5000™ (éste solo ofrece un modelo de primer orden con retardo).Item Actualización del análisis empírico del impacto de las licitaciones de derechos monopolíticos sobre afiliados nuevos en el sistema de pensiones chileno considerando el periodo 2010-2023.(Universidad de Concepción, 2024) Almendra Gajardo, Mauricio Ignacio; Parada Contzen, MarcelaEn esta memoria de título se extiende el estudio de Harrison, Parada y Villena (2023) centrado en el mecanismo de licitaciones de derechos monopólicos sobre nuevos afiliados, introducido en la Reforma Previsional de 2008 en el sistema de pensiones chileno. El objetivo es analizar el impacto de dichas licitaciones en el mercado de las administradoras de fondos de pensiones, extendiendo el análisis desde 2016 hasta 2023. Luego, se evalúa el impacto de las licitaciones en el mercado. Para el análisis, se recopilan datos del sitio web de la Superintendencia de Pensiones y el Banco Central de Chile. Con la información reunida, se construye una base de datos de panel y se aplican regresiones lineales y logarítmicas. Se utilizan mínimos cuadrados con efectos fijos de tiempo utilizando el software estadístico STATA. Para abordar el impacto de las licitaciones en el mercado, se estiman cuatro modelos empíricos que consideran variables de interés como: comisiones, concentración de mercado, márgenes de ganancia, rentabilidad y premios por riesgo. Los resultados obtenidos en las estimaciones se contrastan con las conclusiones de Harrison, Parada y Villena (2023). Observamos un incremento en la elasticidad-precio de la demanda luego de la implementación de licitaciones. Sin embargo, en ambos estudios se mantiene la conclusión de que la demanda sigue siendo inelástica al precio a pesar del incremento de elasticidad post-licitaciones. Asimismo, para ambos estudios, la implementación de licitaciones es significativa en explicar una baja en las comisiones sólo para las firmas ganadoras. Al considerar sólo las firmas no ganadoras de licitaciones, encontramos que el cambio en el cobro del Seguro de Invalidez y Sobrevivencia (SIS) sigue siendo la única explicación en la variación de comisiones luego de implementadas las licitaciones. También encontramos que las licitaciones tienen un impacto estadísticamente significativo y negativo en los márgenes de ganancia, demostrando que su implementación ha incrementado la competencia en la industria para ambos estudios. Por último, encontramos que la implementación de licitaciones no tiene un impacto en las rentabilidades de los fondos de pensiones, lo que difiere con las conclusiones de Harrison, Parada y Villena (2023).Item Actualización y validación del modelo de elementos finitos del radiotelescopio Vertex DRD-36 del observatorio ALMA para su análisis estructural bajo condiciones críticas de operación.(Universidad de Concepción, 2024) Moraga Valenzuela, Jaime Francisco; Canales Cárdenas, CristianItem Adaptación de dominio profunda sobre imágenes astronómicas.(Universidad de Concepción., 2022) Bolívar Severino, César Andrés; Cabrera Vives, Guillermo Felipe; supervisor de gradoLos modelos de Aprendizaje Profundo pueden verse afectados negativamente cuando ocurre un cambio de distribución entre el conjunto de datos de entrenamiento y el conjunto de datos de prueba. Esta baja en desempeño puede acrecentarse aún más cuando se tienen pocos datos etiquetados, pero puede mitigarse empleando técnicas de Apatación de Dominio. En este trabajo, se estudia la clasificación binaria de alertas astronómicas en “real” versus “bogus”, utilizando cuatro conjuntos de datos diferentes: Asteroid Terrestrial-impact Alert System (ATLAS), Dark Energy Survey (DES), High-cadence Transient Survey (HiTS) y Zwicky Transient Facility (ZTF). Se utiliza un modelo de clasificación profundo con un entrenamiento fine tuning y un modelo de adaptación de dominio llamado Minimax Entropy (MME), y se estudia el comportamiento de dichos modelos en diferentes escenarios donde el conjunto de entrenamiento difiere al de prueba, y donde se utiliza pocos elementos etiquetados por clase de los conjuntos de datos objetivo para el entrenamiento. Se muestra que el domain shift está presente en los conjuntos de datos, y que ambos modelos son capaces de mejorar la exactitud de un modelo base, incluso con apenas 1 elemento etiquetado por clase para algunos de los escenarios propuestos.Item Adquisición de equipamiento médico basada en AHP caso de estudio de Servicio de Salud Maule (SSM)(Universidad de Concepción., 2016) Muñoz Tiznado, Paulina de los Ángeles; Salazar Hornig, Eduardo Javier; profesor guíaEn este trabajo se presenta la aplicación de una metodología de adquisición de equipos médicos basada en AHP (Proceso Analítico Jerárquico), donde en conjunto con el indicador financiero VAC (Valor Actual de Costos) es posible llegar a un resultado que busca la elección de un Equipo de Rx Digital Pórtatil acorde a las necesidades en conjunto con la optimización de los recursos. Esta metodología toma datos de una adquisición real del Servicio de Salud Maule (SSM), en la cual por medio de otra metodología se llega al ranking de equipos. Se catastran ambos resultados, se comparan y se concluye que la herramienta AHP sirve como apoyo para poder llegar a hacer una elección acorde a las necesidades específicas en las cuales se quiere adquirir el equipo médico, ya que es menos generalizada y el modelo se construye para cada caso y situación en particular, evidenciándose los beneficios cuando el equipo es puesto en marcha.Item Adsorción de metales pesados en agua usando carbón activado modificado mediante tratamiento ácido(Universidad de Concepción, 2024) Torres Fernández, Catalina Sofía; García, Ximena; Ulloa, Claudia; Valenzuela, FelipeLa contaminación de agua con metales pesados representa un gran problema al medio ambiente y a los seres humanos debido a la toxicidad de estas especies. En la zona norte de Chile se presentan altas concentraciones de cobre, cadmio y plomo en ríos que abastecen agua potable. Dentro de las técnicas de remoción de estas especies en agua, la adsorción mediante carbón activado es una de más las efectivas. La adsorción de metales pesados en carbón activado ocurre principalmente en grupos funcionales oxigenados. La introducción de estos grupos en la superficie del carbón activado se realiza mediante tratamientos ácidos. El objetivo general de este trabajo es evaluar el efecto de la modificación superficial con ácido nítrico de un carbón activado en la adsorción de cobre, cadmio y plomo en agua. Se ensayaron tres métodos distintos de acidificación de la superficie mediante los siguientes equipos: placa calefactora, baño María y rotavapor. Se modificó un carbón activado obtenido de neumáticos fuera de uso, con ácido nítrico 5M por 3 horas a 60°C. Se seleccionó como procedimiento óptimo el uso del rotavapor ya que permite mantener la solución de ácido nítrico y carbón activado en rotación constante y producir una mezcla homogénea. El material original (DMAC) y el modificado (DMAC-HNO3), fueron caracterizados mediante adsorción-desorción de N2 a 77K, punto de carga cero, espectroscopía infrarroja por transformada de Fourier (FTIR) y mediante análisis termogravimétrico y espectroscopia de masa (TGA-MS). Para comparar el porcentaje de remoción de ambos adsorbentes se realizaron test de adsorción en solución monocomponente (solo un metal en solución). El DMAC-HNO3 se sometió a ensayos de equilibrio y cinéticos en solución mono y multicomponente. Los datos experimentales fueron ajustados a modelos de isotermas (Langmuir, Freundlich, Temkin y Dubinin-Radushkevich) y a modelos cinéticos (pseudo-primer orden, pseudo-segundo orden, Elovich y difusión intrapartícula). El DMAC-HNO3 obtuvo un área superficial de 988 m2 g-1, siendo caracterizado como mesoporoso. Se comprobó el aumento de grupos carbonilos y ácidos carboxilos en la superficie del adsorbente luego del tratamiento con ácido nítrico. Por otro lado, se demostró un incremento del porcentaje de remoción de los metales en solución monocomponente empleando el DMAC-HNO3 en comparación a DMAC; Pb(II) aumentó de 94,19% a 99,03%, Cu(II) de 27,90 ± 1,10% a 85,85 ± 0,44% y Cd(II) 5,95 ± 0,03% a 49,97± 3,14%. La isoterma de adsorción en solución monocomponente de los tres iones se ajustó al modelo de Freundlich. En solución multicomponente, el modelo de Freundlich se ajustó satisfactoriamente a los datos experimentales de Cu(II), mientras que, los datos experimentales de Cd(II) y Pb(II) no se ajustaron a ningún modelo. La cinética del Cu(II) en solución monocomponente se ajustó al modelo de pseudo-segundo orden, mientras que Cd(II) y Pb(II) fueron mejor representados por el modelo de Elovich. La cinética en solución multicomponente de los tres iones fue mejor representada por el modelo de Elovich. Esto indica que el mecanismo limitante de la velocidad es la quimisorción de cada metal sobre la superficie del carbón activado. Por otra parte, se obtuvo una disminución de las capacidades III de adsorción de los tres metales en solución multicomponente. El estudio de la selectividad en solución multicomponente demostró que el material DMAC-HNO3 es selectivo hacia Cu(II), obteniendo el siguiente orden de remoción: Cu(II) > Pb(II) > Cd(II). A partir de estos resultados se comprueba la efectividad del tratamiento con ácido nítrico en la adsorción de metales pesados, no obstante, se sugiere profundizar en el proceso de adsorción mediante el estudio de variaciones de pH y las condiciones de modificación con ácido nítrico, que permita obtener capacidades de adsorción mayores en solución multicomponente.Item Adsorción de tolueno en carbón activado. Estudio teórico-experimental preliminar.(Universidad de Concepción, 2024) Vargas Araneda, Ximena Angélica; García, Ximena; Ulloa, Claudia; Zaror, ClaudioLa emisión de compuestos orgánicos volátiles (COVs) por parte de las industrias constituye una significativa fuente de contaminación ambiental. Esta problemática incide directamente en la salud y comodidad de las comunidades circundantes, dando lugar a diversas afecciones atribuidas a concentraciones superiores a los umbrales permitidos de COVs en el entorno. En respuesta a este desafío, la aplicación de la adsorción en carbón activado (CA) ha emergido como una solución destacada debido a su eficacia, bajo costo y capacidad de reutilización. Por ello, se realizó un estudio teórico-práctico que abarcó desde un análisis bibliográfico de investigaciones sobre adsorción de COVs, hasta la definición, diseño y aplicación de un procedimiento experimental, a nivel de laboratorio, para desarrollar experimentos de adsorción de manera replicable. La misma consta de una secuencia de pasos que incluyen: (i) acondicionamiento del CA, (ii) preparación de muestras, (iii) medición de datos y (iv) construcción de la isoterma de adsorción de Tolueno (TOL), seleccionado como compuesto modelo, en CA. Se usaron dos técnicas de análisis, a saber, termogravimetría (TG) y cromatografía de gases (CG). Se confirmó la reproducibilidad del procedimiento experimental seleccionado a través de la realización de 3 pruebas idénticas, las que arrojaron un error cuadrático medio (ECM) de 0,83 (%). Luego, se estudió el comportamiento de la adsorción de TOL en CA a distintas concentraciones, obteniendo la isoterma de adsorción a 22°C, donde la máxima capacidad de adsorción experimental fue de 263 (𝑚𝑔/𝑔), aunque se observó un promedio en 255 (𝑚𝑔/𝑔) como máximo para diferentes concentraciones. Además, se propuso que, por cada microlitro de tolueno, debe haber al menos 7,5 (𝑚𝑔) de CA para asegurar una adsorción sobre el 90%. Finalmente, se ajustaron los datos experimentales a los modelos de Langmuir (LM), Freundlich (FR) y Dubinin-Radushkevich (D-R), obteniendo que el modelo de isoterma D-R fue el que mejor predijo el comportamiento de la adsorción de TOL sobre CA. Se recomienda repetir las pruebas a menor concentración de tolueno, para otra sustancia odorífera, como acetona; utilizar el método de columna dinámica y aplicar tratamientos de mejora al CA como impregnación de Cu.Item Adversarial variational domain adaptation for semi-supervised image classification.(Universidad de Concepción., 2019) Pérez Carrasco, Manuel Ignacio; Cabrera Vives, Guillermo Felipe; supervisor de gradoFor success fully training deep neural networks, we usually need a large amount of annotated data in order to avoid the overfitting and being able to generalize to new data. In most of real cases, getting labels is difficult and time consuming. In this work we address the problem of transferring knowledge obtained from a vast annotated source domain to a low labeled or unlabeled target domain, reducing the efforts to get labels on the target. We propose Adversarial Variational Domain Adaptation (AVDA), a semi-supervised domain adaptation method based on deep variational embedded representations. The idea of AVDA is to use a mixture of Gaussian distribution as a prior for the latent space, mapping samples that belong to the same class into the same Gaussian component, independently of the domain membership, using approximate inference. We use adversarial methods to align source and target distributions in latent space for each class independently. We tested our model using the digits dataset, which contains images of handwritten digits and images of number of houses. We empirically show that on a semi-supervised scenario, our approach improved the state of the art for digits dataset from 0.3 to 1.5% of accuracy using only 1 and 5 labels per class. Also, we tested out model using images of galaxies from the Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey (CANDELS, [23]) as source and the Cluster Lensing and Supernova Survey with Hubble (CLASH, [62]) as target. We empirically show that using few labels our model presents a significant speed-up in terms of the increase in accuracy, and the model keeps improving as more labels we add.Item Aislamiento y optimización energética híbrida insular en Chile: una propuesta para la sustentabilidad energética insular.(Universidad de Concepción., 2021) Morales Lassalle, James Alexis; Link Lazo, Óscar Eduardo; supervisor de gradoEn el presente trabajo se evalúa la idoneidad de sistemas híbridos de generación eléctrica, con enfoque particular en islas, tanto del mundo como de Chile, y la posibilidad de cuantificar el nivel de aislamiento energético de estas unidades a partir del diseño de un índice de aislamiento energético insular. El trabajo se divide en 3 partes: (1) Se realiza una revisión bibliográfica de la experiencia en optimización de sistemas híbridos en islas alrededor del mundo; (2) Se identifican características que convierten a las islas en unidades geográficas especiales desde el punto de vista energético; (3) Se plantea la construcción de un índice que refleje las condiciones de aislamiento energético a las que se ven sometidas las comunidades insulares. Para abordar el punto (1) se realizó una extensa revisión bibliográfica en revistas indexadas, que incluyeran un proceso de optimización de sistemas híbridos (o Hybrid Renewable Energy System, por sus siglas en inglés). La muestra consideró un total de 73 islas, distribuidas por todo el mundo, incluyendo pequeñas comunidades insulares (como Mykines y Eigg), así como islas con alto grado de desarrollo y población (como Canarias o Hainan). El trabajo permitió recolectar información relacionada con: aspectos demográficos y geográficos de las islas, nivel de demanda eléctrica y metodologías de obtención de perfiles de carga, metodologías de evaluación del potencial energético renovable, objetivos de optimización, metodologías y herramientas de optimización, mix de generación y almacenamiento de energía. En el trabajo se discuten elementos comunes en los procesos de optimización, así como los principales desafíos de su diseño. Además, se identificó de manera preliminar una relación de potencia, con exponente superior a 1 entre las variables de población y consumo eléctrico, elemento que fue analizado en la segunda parte de esta tesis. Para el punto (2) se sugirió una ley de potencia entre las variables de población y consumo eléctrico anual para islas. En este caso, se escogió una muestra de 51 islas distribuidas por todo el mundo, pero que cumplieran con criterios que aseguraran su aislamiento. El resultado demostró que el consumo energético seguía una relación de potencia con exponente 1.12 y un coeficiente de determinación 𝑅 2 = 0.91. La relación demostró ser significativa estadísticamente, mientras que las variables se distribuyen de manera normal. Los resultados fueron comparados con los obtenidos para otras entidades geográficas, en particular, países y pequeños estados insulares en desarrollo (SIDS), verificándose una diferencia significativa para ambos casos. Se hipotetizó tanto en los alcances de este resultado, como las posibles explicaciones de la diferencia entre las distintas entidades geográficas. Algunas posibilidades serían: ineficiencias en el transporte de la electricidad, existencia de deseconomías de escala, la distribución espacial de los asentamientos insulares y finalmente el efecto que aspectos políticos pudiesen tener en el consumo eléctrico. Finalmente, para abordar (3) se planteó el diseño de un indicador compuesto, al que se llamó Índice de Aislamiento Energético Insular” y que permite evaluar “La carencia en el acceso a un conjunto de fuentes y/o servicios energéticos, propiciado por las condiciones territoriales inherentes de una isla”. Se identificaron 4 dimensiones para abordar esta problemática, a partir de las cuales se definieron 8 indicadores. El índice se sometió a un análisis de incerteza y sensibilidad para evaluar la robustez del mismo y finalmente ser aplicado a una muestra de 58 islas chilenas con asentamientos permanentes.