Facultad de Ingeniería
Permanent URI for this community
Browse
Browsing Facultad de Ingeniería by Title
Now showing 1 - 20 of 1809
Results Per Page
Sort Options
Item A CFD Based Design Modelfor Tubular Fixed Bed CO2 Methanation Reactors under Power to Gas Operation.(Universidad de Concepción, 2022) Soto Pascual, Victor; García Carmona, Ximena Andrea; Ulloa T., ClaudiaToday, there is no doubt that renewable energy will and must play a central role in the future’s energy mix. During the 2000s and 2010s the strong growth in wind and solar photovoltaic plants for electricity production was mostly prompted by economics, environmental and social drivers. However, due to recent geo-political developments (Ukraine War, South China Sea disputes), the energy independence has resurged as an additional promoter for renewable energy development. In either case, it is already demonstrated that a large participation of non-dispatchable renewable energy in the electrical grid requires seasonal and hourly storage system to balance peak and low generation periods. Power to X (PtX) technologies, allows for the required storage, transforming electrical energy surplus into other energy carriers such as methane, hydrogen and methanol. In this work, methane as final product of the PtX process is considered due to its versatility and capacity to easily been injected into the existing gas grid. Therefore, the methane storage path also known as Power to Methane (PtM) will be mostly used to describe a particular form of Power to X system, which is of interest in this study. This work addresses one of the main technical problems demanded by methanation technology: heat management and temperature control of CO2 methanation reactors. A novel Computational Fluid Dynamics based design methodology is proposed for tubular fixed bed reactors in a PtM operational context. This thesis outlines an extensive literature review regarding the current trends in reactor modelling and the operational requirements of PtM technology. The main technological challenges regarding heat management in the tubular fixed bed reactor concept have not been addressed properly. In this research a computational modelling methodology was developed to design a methanation reactor in the context of a PtM operation. A 3D transient computational fluid dynamics model was implemented in ANSYS Fluent for such purposes. First a suitable CO2 kinetic model is validated against experimental data using a simplified tubular reactor model. Then, the heat transfer process between the reactor tubes and coolant is assessed against empirical correlations used extensively in shell and tube heat exchanger design. This unique approach allows to ensure that the proposed design fulfills entirely, both product gas quality (methane content) and heat management capabilities. Then, a sensitivity study was carried out to identify relevant differences between the two most common coolant fluids used in methanation. Unlike what is found in the revised literature, the most suitable coolant in terms of pumping energy consumption and heat transfer, is thermal oil instead of molten salts. Then, an optimal flow of coolant is found, which minimizes the energy consumed in pumping, while maintaining an optimum temperature control. Finally, a design configuration is proposed based on two modules (the first one of 1 m length, and the second of 0.5 m) with interstage water condensation. Then, the design configuration obtained in the previous chapter is subjected to disruptions relevant to Power to Gas operation. Firstly, the amount of time the reactor requires to reach the steady state from a standby condition is determined. In line with similar works, the time required for the reactor to leave the warm-start condition was 330 s. As for the reactor shutdown, it took 130 s to return to its original warm-start condition. Regarding reactor feeding relevant disruptions, a 30 s H2 feed interruption prompted a transient low-temperature hot-spot. After 90 s of resuming the H2 feed, the temperature profile returned to its original values. As for temperature disruptions, a 20 K sudden inlet feed rise, promoted the formation of a lower hot-spot and a new steady state at lower temperatures. On the other hand, a 20 K feed temperature drop triggered a high temperature hot spot, which exposed the catalytic bed to its maximum operating temperature (≈923 K). The appearance of this “wrong-way” behaviour was explained by the combined effect of transient reactant concentration and thermal inertia of the bed. Temperature disruptions did not affect substantially the quality of the outlet gas, while the H2 interruption induced a 90 s latency time required to return to the minimum methane required concentration. Finally, in the absence of coolant flow or chemical reaction, the reactor maintained warm start conditions for 3 h after all heat flow ceased. The author expects that this thesis will serve as a reference tool to the designers, chemical 4 or mechanical engineering students to better understand the phenomena involved in chemical reactor engineering in the context of intermittent energy storage.Item A debiasing framework for deep learning applied to the morphological classification of galaxies.(Universidad de Concepción, 2023) Medina Rosales, Esteban; Cabrera Vives, GuillermoIn order to train deep learning models, usually a large amount of correctly annotated data is needed. Depending on the data domain, the task of correctly annotating data can prove to be difficult, as in many cases the ground truth of the data is not obtainable. This is true for numerous problems within the astronomy domain, one of these being the morphological classification of galaxies. The aforementioned means that astronomers are forced to rely on an estimate of the ground truth, often generated by human annotators. The problem with this is that human generated labels have been shown to contain biases related to the quality of the data being labeled, such as image resolution. This type of bias is a consequence of the quality of the data, that is, it is independent of the annotators, meaning that even datasets annotated by experts can be affected by this type of bias. In this work, we show that deep learning models trained on biased data learn the bias contained in the data, transferring the bias to its predictions. We also propose a framework to train deep learning models, that allows us to obtain unbiased models even when training on biased data. We test our framework by training a classification model on images of morphologically classified galaxies from Galaxy Zoo 2 and show that we are able to diminish the bias in the data.Item A simulation-optimization approach for the fire stations location and vehicle assignment problem: A case study in the Concepcion Province, Chile.(Universidad de Concepción, 2020) Rodríguez Cartes, Sebastián A.; De la Fuente, RodrigoBomberos son una parte importante los servicios de emergencia al ser responsables de atender varias emergencias urbanas. Para atender estas de mejor forma, ellos deben planificar una adecuada localización de sus compañías y asignación de vehículos. Para apoyar esta toma de decisiones, proponemos un método iterativo de simulación optimización que basado en parámetros de utilización previamente calculados actualiza la localización óptima de vehículos y compañías usando un modelo de programación lineal. Llamamos a este modelo el Facility Location and Equipment Emplacement Technique with Expected Coverage (FLEET-EXC), que considera múltiples tipos de emergencias y vehículos, y una política de despacho que depende del tipo de región. Luego, modelo de simulación es ejecutado con las localizaciones y asignaciones obtenidas para actualizar los parámetros de utilización. Adicionalmente, el modelo de simulación usa un método de muestreo espacio-temporal que acopla un Kernel Density Estimator para el componente espacial y un proceso de arribo non-Stationary non-Renewal basado en un modelo de Markov-Mixture of Erlangs of Common Order para generar los tiempos entre-arribos para el componente temporal. Ademas, un conjunto de incertidumbre para los parámetros de utilización es obtenido de la simulación; por lo tanto, proponemos un modelo de optimizan robusta para extender la formulación previa. Los principales resultados muestran que el método de muestreo propuesto logra una mejor representación del proceso de arribo de emergencias que aquellos generalmente usados en la literatura. Por otra parte, el procedimiento de simulación-optimización que usa el modelo de FLEET-EXC tiene un mejor desempeño que el modelo discrete FLEET, resultando en hasta 2% de mayor cobertura. Ademas, el modelo robusto también tuvo un mejor desempeño que el modelo discreto FLEET, pero tiene un desempeño variable al compararse con el FLEET-EXC. Sin embargo, el modelo robusto logra el menor tiempo de respuesta promedio cuando solo se consideran las emergencias bao el percentil 60.Item Aceleración de Metabat mediante la integración de compresores GPU Nvidia.(Universidad de Concepción, 2024) Caro Quijada, Hernán Vicente; Hernández, CeciliaUn problema del área de la Metagenómica es la identificación de los diversos genomas encontrados en muestras obtenidas del ambiente, esto se debe a que las muestras contienen una gran cantidad de material genético que puede pertenecer a diversos microorganismos. MetaBAT es una herramienta desarrollada en C++ utilizada para resolver dicho problema, ya que recibe como entrada las muestras procesadas en forma de contigs, para posteriormente entregar como resultado clusters de contigs, donde cada cluster constituye las secuencias genómicas de un genoma. El aporte de esta herramienta es de utilidad en el contexto ecológico y en particular, en el estudio de microorganismos del ser humano, el trabajo realizado por los investigadores de esta área puede resultar muy beneficioso para lograr el diagnóstico, tratamiento y control de enfermedades que pueden provocar dichos microorganismos. Cómo se puede presumir los datasets utilizados por MetaBAT son de gran magnitud, es por ello que en esta memoria de título se llevó a cabo el análisis e integración de compresores de datos acelerados por GPU NVIDIA, con el propósito de disminuir el tiempo de compresión y descompresión de estos. Además, se abordó la fase de clustering en MetaBAT con un algoritmo igualmente acelerado por GPU NVIDIA, para disminuir el tiempo de procesamiento del clustering a la vez que se conserva una calidad del resultado similar a la original.Item Aceleración hardware para inferencia en redes neuronales convolucionales.(Universidad de Concepción, 2021) Pérez Cerdeira, Ignacio Jesús; Figueroa Toro, Miguel Ernesto; Carvajal Barrera, Gonzalo AndrésGracias a su alta precisión para clasificar objetos en imágenes, las redes neuronales con volucionales (CNN) son una herramienta muy relevante en la visión computacional. Este tipo de red neuronal utiliza capas convolucionales para extraer características de las imágenes y las clasifica por medio de capas de clasificación. Típicamente, el proceso de reconocimiento, llamado inferencia, es aplicado en unidades centrales de procesamiento (CPU) o unidades de procesamiento gráfico (GPU), pero debido al alto paralelismo de estas últimas, las GPUs muestran un mejor desempeño. Aun así, su alto consumo de potencia dificulta la implementación de estas plataformas en dispositivos móviles. Por esto, una alternativa para solucionar este problema es diseñar arquitecturas hardware en sistemas dedicados, como arreglos de compuertas programables (FPGA), que permiten reducir el consumo de potencia y acelerar la inferencia. Debido a esto, en este trabajo diseñamos una arquitectura heterogénea para realizar la inferencia de la CNN MobileNet V2 sobre hardware dedicado. Esta arquitectura utiliza una CPU y memoria embebida para controlar y almacenar datos del proceso, y un acelerador hardware sintetizado en la lógica programable de un FPGA para disminuir los tiempos de inferencia. Para reducir la cantidad de operaciones y datos en la FPGA, utilizamos técnicas de loop tiling, pruning y cuantización. Implementamos la arquitectura sobre la plataforma Xilinx Zynq Ultrascale+, utilizando la CPU ARM Cortex-A53 como controlador, una memoria DDR4 de 2GB para almacenar datos y la FPGA XCZU7EV para sintetizar cuatro elementos de procesamiento que permiten la inferencia en paralelo. Nuestra implementación puede inferir una imagen de la base de datos ImageNet de 224×224 píxeles en 220ms, utilizando 532 bloques de RAM (BRAM), 24 RAMs de UltraScale (URAM) y 340 procesadores digitales de señales (DSP) del FPGA, y consumiendo 7.34W de potencia. Comparada con una implementación software sobre una GPU y CPU, nuestro diseño es 10.18 veces más lento que la GPU y tiene un frame-rate similar a la CPU, pero consume 29.23 y 12.93 veces menos potencia que estos dispositivos respectivamenteItem Acelerador hardware para búsqueda de motivos emergentes en streams de secuencias de ADN(Universidad de Concepción, 2018) Saavedra Mondaca, Antonio Sebastián; Hernández Rivas, CeciliaEl descubrimiento de motivos en cadenas de ADN se define como la búsqueda de secuencias cortas de elementos compartidos en un conjunto largo de bases de nucleótidos que poseen una función biológica común. El descubrimiento de motivos entre los sitios de unión de los factores de transcripción, debido a la importancia de su función regulatoria en la expresión genética, resulta un problema de relevancia biológica. Este tipo de problemas presenta una alta complejidad computacional, especialmente debido a las dificultad de trabajar con bases de datos masivas. Las soluciones existentes en este tipo de problema se enfocan, por lo general, a plataformas en grandes clusters de alto costo, elevados tiempos de ejecución y consumo de potencia. En este trabajo se desarrolla un acelerador hardware reconfigurable para la búsqueda de motivos emergentes en secuencias de ADN. Los motivos emergentes se definen como aquellos que cumplen requisitos establecidos de frecuencia dentro de la secuencias analizadas. Su búsqueda representa un problema biológicamente relevante que presenta altos requisitos de memoria y costos computacionales. La plataforma se propone en base a algoritmos capaces de resolver el problema de la búsqueda de elementos más frecuentes dentro de un stream de datos. Estos algoritmos utilizan estructuras de datos conocidas como sketches para realizar una aproximación al proceso de conteo para determinar los elementos más frecuentes. A diferencia de un conteo tradicional, la utilización de sketches permite resolver, a través de procesos probabilísticos, en espacio sublineal, la estimación de la frecuencia de cada elemento del stream. Se implementaron en software los algoritmos CountSketch, Countmin, y Countmin-CU. Utilizando bases de datos biológicas públicas, se analizaron las dimensiones requeridas para operar con buena precisión y sensibilidad. El algoritmo Countmin-CU es capaz de encontrar los motivos emergentes de largos entre 10 y 20 utilizando arreglos de 65 mil contadores. El conteo tradicional requeriría sobre 100 mil millones. Se diseñó una arquitectura hardware dedicada que permite utilizar un FPGA como acelerador en un contexto de computación heterogénea. El algoritmo de streaming logra un balance adecuado entre el cómputo y los accesos requeridos a memoria permitiendo explotar el paralelismo fino de este tipo de plataforma. De esta manera, la lógica programable del FPGA con un diseño especializado nos permite reducir los costos de tiempo y el consumo de potencia de la solución. Este modelo de computación acelerada por hardware, con el FPGA nos permite trabajando con un reloj de 300MHz y consumiendo 3 Watts de potencia, nos permite alcanzar una aceleración de hasta 290 veces sobre la versión en software.Item Acelerador hardware para búsqueda de motivos emergentes en streams de secuencias de ADN.(Universidad de Concepción, 2018) Saavedra Moncada, Antonio Sebastián; Figueroa Toro, Miguel ErnestoEl descubrimiento de motivos en cadenas de ADN se define como la búsqueda de secuencias cortas de elementos compartidos en un conjunto largo de bases de nucleótidos que poseen una función biológica común. El descubrimiento de motivos entre los sitios de unión de los factores de transcripción, debido a la importancia de su función regulatoria en la expresión genética, resulta un problema de relevancia biológica. Este tipo de problemas presenta una alta complejidad computacional, especialmente debido a las dificultad de trabajar con bases de datos masivas. Las soluciones existentes en este tipo de problema se enfocan, por lo general, a plataformas en grandes clusters de alto costo, elevados tiempos de ejecución y consumo de potencia. En este trabajo se desarrolla un acelerador hardware reconfigurable para la búsqueda de motivos emergentes en secuencias de ADN. Los motivos emergentes se definen como aquellos que cumplen requisitos establecidos de frecuencia dentro de la secuencias analizadas. Su búsqueda representa un problema biológicamente relevante que presenta altos requisitos de memoria y costos computacionales. La plataforma se propone en base a algoritmos capaces de resolver el problema de la búsqueda de elementos más frecuentes dentro de un stream de datos. Estos algoritmos utilizan estructuras de datos conocidas como sketches para realizar una aproximación al proceso de conteo para determinar los elementos más frecuentes. A diferencia de un conteo tradicional, la utilización de sketches permite resolver, a través de procesos probabilísticos, en espacio sublineal, la estimación de la frecuencia de cada elemento del stream. Se implementaron en software los algoritmos CountSketch, Countmin, y Countmin-CU. Utilizando bases de datos biológicas públicas, se analizaron las dimensiones requeridas para operar con buena precisión y sensibilidad. El algoritmo Countmin-CU es capaz de encontrar los motivos emergentes de largos entre 10 y 20 utilizando arreglos de 65 mil contadores. El conteo tradicional requeriría sobre 100 mil millones. Se diseñó una arquitectura hardware dedicada que permite utilizar un FPGA como acelerador en un contexto de computación heterogénea. El algoritmo de streaming logra un balance adecuado entre el cómputo y los accesos requeridos a memoria permitiendo explotar el paralelismo fino de este tipo de plataforma. De esta manera, la lógica programable del FPGA con un diseño especializado nos permite reducir los costos de tiempo y el consumo de potencia de la solución. Este modelo de computación acelerada por hardware, con el FPGA nos permite trabajando con un reloj de 300MHz y consumiendo 3 Watts de potencia, nos permite alcanzar una aceleración de hasta 290 veces sobre la versión en software.Item Acelerador hardware para estimación de cuantiles en tráfico de redes.(Universidad de Concepción, 2024) Gallardo Pavesi, Carolina Sofía; Figueroa T., Miguel; Hernández R., CeciliaLas propiedades estadísticas del tráfico, tales como los cuantiles, entre los cuales se encuentran la mediana y el percentil 99, y la función de distribución acumulativa, nos ayudan a entender la distribución del tráfico y detectar anomalías a corto y largo plazo. Sin embargo, calcular de manera exacta el valor de estas propiedades es costoso en términos de espacio y tiempo. Particularmente, en el caso de los percentiles distintos de 0 y 100, es imposible encontrar una solución exacta en una pasada sin almacenar todos los datos. Utilizar un acelerador hardware basado en arreglos de lógica programable (FPGA, del inglés Field Programmable Gate Array) nos permite enfrentar la necesidad de procesar un stream de paquetes a alta velocidad y producir resultados con baja latencia. Sin embargo, la memoria interna disponible en estos dispositivos es limitada, por lo que almacenar todos los elementos no es una opción viable. Para responder a este problema, se han propuesto algoritmos basados en sketches: estructuras probabilísticas compactas que utilizan un espacio de memoria sublineal para estimar una propiedad con una cota de error predeterminada. Este trabajo presenta la arquitectura de un acelerador hardware para la estimación de cuantiles usando un algoritmo basado en sketches. La arquitectura propuesta se basa en la estructura general del sketch KLL presentado por Karnin et al. [1]. Implementamos la arquitectura en una tarjeta de desarrollo Xilinx Alveo U55C, la cual contiene un FPGA Virtex™ XCU55 UltraScale+, obteniendo un tiempo de ejecución total por lo menos 35 veces menor que el tiempo de ejecución total de la implementación en software del algoritmo modificado, y una aceleración mínima de 37 veces en cuanto al tiempo de inserción de elementos al sketch. El acelerador puede operar a una frecuencia de reloj de máxima 325.2 MHz, lo que equivale a una tasa mínima de 166 Gbps (gigabits por segundo). Mostramos empíricamente que las estimaciones mantienen una buena precisión, respetando las cotas de error cuando el número de paquetes de la traza es lo suficientemente parecido al número de elementos para el que dimensionamos el sketch.Item Acelerador hardware para la estimación de entropía empírica mediante sketches.(Universidad de Concepción, 2021) Paulo Pedro, Ubisse; Figueroa, Miguel; Hernández, CeciliaLos enfoques basados en entropía para la detección de anomalías son atractivos, ya que propor cionan información más detallada que el análisis de volumen de tráfico tradicional. Sin embargo, el cálculo de la entropía empírica exacta en un gran conjunto de datos puede ser costoso en uti lización de memoria, debido a que su cómputo requiere almacenar el número de ocurrencias de todos los elementos distintos observados en el flujo. Un alto uso de memoria reduce el desem peño de los aceleradores hardware, que son necesarios para estimar la entropía en redes de alta velocidad. Una solución práctica es, entonces, relajar la restricción de un cálculo exacto. En este trabajo, presentamos dos métodos probabilísticos basados en sketches para aproximar la entropía empírica de un gran conjunto de datos en procesamiento en tiempo real, con uso de espacio de memoria sublineal. Los sketches son estructuras de datos que utilizan espacio sublineal donde el uso de memoria crece de forma sublineal con los datos de entrada. Cuando el tamaño de la memoria utilizada es menor que la entrada, la pérdida de precisión es inevi table y conduce a resultados probabilísticos. Sin embargo, los algoritmos basados en sketches proporcionan aproximaciones con resultados de alta calidad. El primer enfoque consiste en es timar la entropía empírica de un flujo de datos, considerando los elementos top-K, o sea los K elementos más frecuentes. El segundo y principal enfoque de nuestro trabajo, consiste en aproximar la estimación de la entropía empírica no solo tomando la parte del flujo de datos que corresponde a los K elementos más frecuentes, sino también tomando la parte del flujo de datos que corresponde a los elementos menos frecuentes. Los dos enfoques han sido implementados en un sistema en chip (System on chip, SoC) Zynq UltraScale de Xilinx. Para el primer enfoque, los resultados experimentales del diseño de hardwa re en una FPGA Xilinx Zynq UltraScale+MPSoC ZCU102 (Field Programmable Gate Array), muestran que el sistema funciona a una frecuencia de reloj de 354 MHz y puede funcionar con una velocidad de red de 181 Gigabits por segundo (Gbps). Para el segundo y principal enfoque, los resultados experimentales en una arquitectura de propósito especial implementada en un FPGA ZCU104 de ultraescala Xilinx Zynq, muestran que el sistema alcanza un rendimiento de un paquete por ciclo a 400 MHz, lo que le permite operar a velocidades de red de hasta 204 Gbps.Item Actualización de la guía Chilena de diseño de pavimentos de adoquines de hormigón para calles, caminos y pasajes.(Universidad de Concepción, 2024) Puentes Ríos, María Paz; Echaveguren Navarro, Tomás; Merino Quilodrán, LuisLos pavimentos de adoquines de hormigón tienen numerosas ventajas, entre ellas, su durabilidad ante ambientes agresivos, su rapidez en puesta de operación, su mantenimiento debido a que es fácil de reponer, su contribución a la seguridad vial por su condición de operación y su reutilización. En el año 2013 no existía ni una norma que definiera las especificaciones y diseño de los pavimentos de adoquines de hormigón. Por esta razón el Instituto del Cemento y del Hormigón de Chile, publica en el año 2013 la segunda edición del “Manual de Diseño de Pavimentos de Adoquines de Hormigón” con la finalidad de proponer un método de diseño de pavimentos de adoquines de hormigón para uso vehicular en calles, caminos y pasajes. Con el tiempo, se ha identificado una brecha en el estado del arte, principalmente por la publicación de la primera norma de adoquines de hormigón en el país. El Manual adaptó el método de diseño de pavimento de adoquines de hormigón del Reino Unido del año 2010, sin embargo, este fue actualizado en 2021. Por las razones mencionadas anteriormente, se genera la necesidad de actualizar el Manual del ICH. Este trabajo revisa el Manual para identificar oportunidades de actualización. Luego, se realiza una revisión del estado del arte para proponer mejoras en las especificaciones del adoquín, las solicitaciones de diseño y el procedimiento de diseño de pavimentos. Finalmente, se elaboran ejemplos de diseño para distintos tipos de tráfico vehicular. Se concluye que los cambios en el estado del arte se deben a actualizaciones en las normas que definen las especificaciones de materiales y las solicitaciones de diseño. En relación con las solicitaciones de diseño, se propone relacionar directamente las categorías de tráfico con el dimensionamiento del pavimento, de esta manera, se sistematiza todo el proceso de dimensionamiento de pavimentos de adoquines de hormigón. Para la inclusión de las propuestas mencionadas, se recomienda integrar los capítulos de “Solicitaciones de diseño” y “Diseño estructural” del manual del ICH, ya que se abordan de manera separada, lo que genera una discontinuidad en el proceso de diseño. La propuesta consiste en unificar el diseño de pavimentos en un solo capítulo, incluyendo un nuevo diseño sistemático para los pavimentos de tráfico vehicular. Este capítulo detallará las especificaciones de materiales, las solicitaciones de diseño y presentará ejemplos de diseño desarrollados según el nuevo método de diseño, con el objetivo de mejorar la comprensión del lector sobre el proceso de diseño de pavimentos.Item Actualización de la instrumentación de la planta de vapor del laboratorio de termofluidos.(Universidad de Concepción, 2024) Jara Contreras, Martín Alonso; Farías Fuentes, ÓscarLa Planta de Vapor del Laboratorio de Termofluidos de la Universidad ha estado en operación por más de 50 años, siendo fundamental para la formación profesional de los estudiantes, ya que cuenta con los componentes principales de una central termoeléctrica. Sin embargo, no ha experimentado cambios significativos en los instrumentos de medición, por lo que se requiere modernizar dichos equipos e implementar un sistema local que registre los datos de manera continua. El propósito del presente trabajo consiste proponer mejoras en la instrumentación de la Planta de Vapor para la enseñanza práctica de las asignaturas relacionadas con el área de Termofluidos. Conforme a esto, se lleva a cabo un diagnóstico de la central basado en mediciones históricas y en los balances de masa y energía del ciclo, los cuales fueron resueltos mediante un programa EES. Este análisis resalta las variables críticas y los equipos con errores significativos, identificando que el circuito de generación presenta los mayores márgenes de error. La implementación incluye la instalación de 10 transmisores de presión, 13 transmisores de temperatura, 4 flujómetros, 1 analizador de corriente y un sistema de monitoreo de variables con pantalla táctil, entre otros. Posteriormente, se analiza la percepción de los estudiantes mediante una encuesta que muestra la visualización de las variables del sistema local, obteniendo resultados positivos en cuanto a la claridad y facilidad de interpretación de datos. En términos de mejora de precisión, se logra reducir el error del rendimiento del ciclo a un 10% de su valor original, y se alcanza una disminución del 95% en el error del rendimiento de la turbina. Finalmente, se diseñan protocolos de ensayo para las asignaturas del área de Termofluidos, esquematizando las experiencias de laboratorio de acuerdo con la taxonomía de Bloom y vinculando los resultados de aprendizaje con los indicadores clave de desempeño establecidos para la carrera de Ingeniería Civil Mecánica.Item Actualización de un controlador de modelo interno, basado en la identificación dinámica en lazo cerrado, para un intercambiador de calor(Universidad de Concepción, 2016) Steel Heldt, Brian Andrew Brian Andrew; Melo Lagos, Diógenes; Canales Rebolledo, EdgardoEl control eficiente de los procesos químicos es fundamental para las industrias permitiendo operar los procesos de forma segura (cuidando el medio ambiente y la salud de los operadores) y maximizar utilidades (obteniendo un producto de calidad al mismo tiempo que se optimizan los consumos de suministros y reactivos). Para poder controlar un proceso de forma correcta se deben conocer las características estáticas (ganancia) y dinámicas (constantes de tiempo y retardo) del mismo. Este trabajo de tesis propone utilizar un método de identificación en lazo cerrado para obtener los parámetros que caracterizan las funciones de transferencia de, a diferencia de trabajos anteriores, procesos con controladores de modelo interno. Este modo de control reconoce la referencia, impidiendo identificar la ganancia de manera directa (la razón de amplitud a frecuencia angular cero es indeterminada). Por ello se ideó un algoritmo basado en numerosas simulaciones de sistemas de primer orden, el que se probó en procesos con parámetros y tiempos de muestreos aleatorios, demostrando ser exacto cuando la razón entre el tiempo de muestreo y la constante de tiempo del proceso estaba entre 2.5 y 8.5. Cada ensayo experimental consiste en realizar un cambio escalón en la referencia del controlador. Luego se registra la respuesta del sistema en lazo cerrado bajo la acción del controlador de modelo interno, la que se somete a un tratamiento matemático que involucra técnicas numéricas, permitiendo obtener la respuesta de frecuencia del sistema en lazo abierto. Un análisis de frecuencia de esta respuesta conduce a las características del sistema, ajustándole por ejemplo un modelo de primer orden con retardo. El modelo de la planta utilizado en el controlador es actualizado con los parámetros identificados. El funcionamiento del algoritmo del método de identificación se puso a prueba, primero, simulando el lazo de control de temperatura de un intercambiador de calor, para lo cual se empleó el software SIMULINK™. Para el sistema se usaron los parámetros identificados por Steel (2013). Para el modelo se tomaron como referencia los mismos parámetros, pero con cierto porcentaje de error. Posteriormente, se experimentó sobre lazos de control instalados en un intercambiador de calor que tiene cuatro pasadas por los tubos y una por la carcasa. Por los tubos circula agua fría y a través la carcasa vapor de agua. El método probó ser muy efectivo en los sistemas simulados. La calidad de los datos facilitó el trabajo. El mayor error en un parámetro fue del 2.61%. Los modelos iniciales que presentaban mayor error se mejoraron considerablemente. En los ensayos en el intercambiador de calor el ruido de los datos dificultó el trabajo del algoritmo, lo que no fue impedimento para que se ajustasen los modelos de primer orden con retardo, con los que se mejoró la sintonía de los lazos de control. Todas las mejoras en los modelos se reflejaron en las respuestas, disminuyendo sobrepasos, oscilaciones y el tiempo que demoraban en alcanzar el estado estacionario. Aunque un proceso real puede ser de orden superior, el ajuste demostró ser suficiente para el funcionamiento del controlador de modelo interno disponible en el software de control RSLogix 5000™ (éste solo ofrece un modelo de primer orden con retardo).Item Actualización del análisis empírico del impacto de las licitaciones de derechos monopolíticos sobre afiliados nuevos en el sistema de pensiones chileno considerando el periodo 2010-2023.(Universidad de Concepción, 2024) Almendra Gajardo, Mauricio Ignacio; Parada Contzen, MarcelaIn this thesis, I extend the study by Harrison, Parada, and Villena ( which focused on the mechanism of monopoly rights auctions over new enrollees’ introduced in the 2008 Pension Reform in the Chilean pension system. In particular, I extend the study period from 2003 2016 to 2003 2023. Subsequently, based on the extended period, we assess the impact of auctions on the market. For the analysis, I collect data from the website of the Superintendence of Pensions and the Central Bank of Chile. With the gathered information, I construct a panel database to serve as a basis for linear and logarithmic regressions using the Ordinary Least Squares (method with fixed effects and the STATA statistical software. I estimate four models to address the impact of auctions on the market. I consider variables of interest such as commissions, market concentration, profit margins, profitability, and risk premiums. The results were contrasted with Harrison, Parada, and Villena ( conclusions. My analysis reveals differences and similarities with the original study. When evaluating the price elasticity of demand, we found that in both periods, the implementation of auctions increased an individual’s price elasticity. Nevertheless, the conclusion that demand is inelastic to price remains despite the increase in the elasticity coefficient. Regarding average market fees, considering all firms in both periods, we found that since auction three, they have been significant in explaining a decrease in fees. On the other hand, when I only used never winning firms, the conclusion is that price variation is only explained by changes in the charge for disability and survival insurance. Also, I found that auctions have a statistically significant and negative impact on markups, indicating that their implementation has increased competition in the industry. The impact of auctions on risk premiums is stronger in less risky funds. Finally, we found that by extending the analysis period, the implementation of auctions no longer impacted fund returns compared to the initial period.Item Actualización electrónica, modelado y control dinámico del banco de ensayos de hélice de paso variable LTA.(Universidad de Concepción, 2024) Neira Salgado, Benjamín Ignacio; Hernández Vicente, Bernardo AndrésEl presente informe detalla la actualización de la electrónica y rediseño del banco de ensayos de hélice de paso variable, del Laboratorio de técnicas aeroespaciales. con el objetivo mejorar su funcionamiento y control. Contar con un correcto funcionamiento de este banco es fundamental para la formación de ingenieros aeroespaciales, ya que permite de manera practica demostrar cómo funcionan las hélices de paso variable. Para llevar a cabo este proyecto se utilizó la metodología CDIO (concebir, diseñar, implementar y operar). En la fase de concepción, se evaluaron las mejores opciones de mejora para el banco. Posteriormente, se seleccionaron y diseñaron los nuevos componentes, los cuales fueron implementados, calibrados y finalmente puestos en operación. Uno de los principales problemas que presentaba el banco de ensayo era la inexactitud del sensor de RPM, el cual tenía una desviación estándar 124.2 RPM en sus mediciones, Esto afectaba al control del banco y la estabilidad del control. Como solución se instaló un sensor encoder el cual disminuyo la desviación estándar de las mediciones a 13.78 RPM. Para implementar este sensor fue necesario rediseñar soportes y piezas las cuales fueron impresas en 3D. Además, se reemplazaron otros componentes del banco de ensayos. El sistema de paso variable tipo B fue reemplazado por un sistema de paso variable tipo C, eliminando la necesidad de utilizar un motor eléctrico de eje hueco y ampliando las opciones de selección del motor. También se reemplazó el microcontrolador, pasando de un Arduino MEGA a un ESP32, teniendo este una mejora en la memoria y la velocidad de procesamiento de los datos. Para asegurar la correcta medición y funcionamiento de los nuevos componentes instalados, se realizaron calibraciones de las celdas de carga, servo motor y validación de la medición del sensor enconder. Finalmente, se desarrolló de un modelo espacio estado utilizando la herramienta System identification toolbox de MATLAB y se implementó una arquitectura de control multivariable. Obteniendo un error de control de 100.98 RPM y 0.122 [kg mm] de torque, y también un tiempo de estabilización de 1.16 segundos para las RPM y 1.375 para el torque. En conclusión, el proyecto logro reducir con el éxito el error y las oscilaciones en la medición de RPM. Se desarrollo un modelo espacio-estado de segundo orden que modela la respuesta del sistema en 53.91% para el torque y 52.17% para las RPM. Además, se implementó un controlado state-feedback el cual dio como resultado un funcionamiento estable del banco de ensayos, con una baja tasa de error.Item Actualización y validación del modelo de elementos finitos del radiotelescopio Vertex DRD-36 del observatorio ALMA para su análisis estructural bajo condiciones críticas de operación.(Universidad de Concepción, 2024) Moraga Valenzuela, Jaime Francisco; Canales Cárdenas, CristianItem Adaptación de dominio profunda sobre imágenes astronómicas.(Universidad de Concepción, 2022) Bolívar Severino, César Andrés; Cabrera Vives, Guillermo FelipeLos modelos de Aprendizaje Profundo pueden verse afectados negativamente cuando ocurre un cambio de distribución entre el conjunto de datos de entrenamiento y el conjunto de datos de prueba. Esta baja en desempeño puede acrecentarse aún más cuando se tienen pocos datos etiquetados, pero puede mitigarse empleando técnicas de Apatación de Dominio. En este trabajo, se estudia la clasificación binaria de alertas astronómicas en “real” versus “bogus”, utilizando cuatro conjuntos de datos diferentes: Asteroid Terrestrial-impact Alert System (ATLAS), Dark Energy Survey (DES), High-cadence Transient Survey (HiTS) y Zwicky Transient Facility (ZTF). Se utiliza un modelo de clasificación profundo con un entrenamiento fine tuning y un modelo de adaptación de dominio llamado Minimax Entropy (MME), y se estudia el comportamiento de dichos modelos en diferentes escenarios donde el conjunto de entrenamiento difiere al de prueba, y donde se utiliza pocos elementos etiquetados por clase de los conjuntos de datos objetivo para el entrenamiento. Se muestra que el domain shift está presente en los conjuntos de datos, y que ambos modelos son capaces de mejorar la exactitud de un modelo base, incluso con apenas 1 elemento etiquetado por clase para algunos de los escenarios propuestos.Item Adquisición de equipamiento médico basada en AHP caso de estudio de Servicio de Salud Maule (SSM)(Universidad de Concepción, 2016) Muñoz Tiznado, Paulina de los Ángeles; Salazar Hornig, Eduardo JavierEn este trabajo se presenta la aplicación de una metodología de adquisición de equipos médicos basada en AHP (Proceso Analítico Jerárquico), donde en conjunto con el indicador financiero VAC (Valor Actual de Costos) es posible llegar a un resultado que busca la elección de un Equipo de Rx Digital Pórtatil acorde a las necesidades en conjunto con la optimización de los recursos. Esta metodología toma datos de una adquisición real del Servicio de Salud Maule (SSM), en la cual por medio de otra metodología se llega al ranking de equipos. Se catastran ambos resultados, se comparan y se concluye que la herramienta AHP sirve como apoyo para poder llegar a hacer una elección acorde a las necesidades específicas en las cuales se quiere adquirir el equipo médico, ya que es menos generalizada y el modelo se construye para cada caso y situación en particular, evidenciándose los beneficios cuando el equipo es puesto en marcha.Item Adsorción de metales pesados en agua usando carbón activado modificado mediante tratamiento ácido(Universidad de Concepción, 2024) Torres Fernández, Catalina Sofía; García, Ximena; Ulloa, Claudia; Valenzuela, FelipeWater pollution by heavy metals represents a major problem to the environment and human beings due to the toxicity of these species. Rivers that supply drinking water in Northern Chile show high concentrations of copper, cadmium and lead. Among the methods for removal of heavy metals from water, adsorption onto activated carbon is considered one of the most effective. Heavy metals adsorption onto activated carbon is considered to mainly take place at oxygen containing functional groups. Acid treatment is used to introduce oxygen containing functional groups to the surface of the activated carbon. The main objective of this work is to investigate the effect of nitric acid surface modification of an activated carbon on the adsorption of copper, cadmium and lead from aqueous solution. Three different surface modification methods were tested using the following equipment: hot plate, water bath and rotary evaporator. An activated carbon based on end-of-life tires was treated with 5M nitric acid for 3 hours at 60°C. The rotary evaporator was selected as the optimal procedure since it can keep the nitric acid and activated carbon solution in constant rotation and produce a homogeneous mixture. The original material (DMAC) and the modified material (DMAC-HNO3) were characterized by N2 adsorption-desorption at 77K, point of zero charge, Fourier transform infrared spectroscopy (FTIR) and by thermogravimetric analysis and mass spectroscopy (TGA-MS). Adsorption tests were carried out in mono-component solution to compare the removal of both adsorbents. Equilibrium and kinetic tests were performed to evaluate the adsorption capacity of DMAC-HNO3 in mono and multicomponent solution. Experimental data were fitted to Langmuir, Freundlich, Temkin and Dubinin-Radushkevich isotherm models and pseudo-first order, pseudo-second order, Elovich and intraparticle diffusion kinetic models. The modified material resulted in a surface area of 988 m2 g-1 and a mesoporous structure. As a result of nitric acid modification, the amount of carbonyl groups and carboxylic acids on the surface of the adsorbent increased. There was an improvement in the percentage removal of metals in mono-component solution on DMAC adsorption compared to DMAC-HNO3 where Pb(II) increased from 94,19% to 99,03%, Cu(II) from 27.90 ± 1,10% to 85,85 ± 0,44% and Cd(II) 5,95 ± 0,03% to 49,97± 3,14%. The adsorption isotherm in mono-component solution of the three metals was best fitted to Freundlich model. The adsorption isotherm in multicomponent solution of Cu(II) was best fitted to Freundlich model, while Cd(II) and Pb(II) did not fit to any model. The kinetics of Cu(II) in monocomponente solution fit the pseudo-second order model, while Cd(II) and Pb(II) were best represented by Elovich model. The kinetics of three ions in multicomponent solution were best represented by Elovich model. This indicates that the rate limiting mechanism is the chemisorption of each metal on the activated carbon surface. On the other hand, adsorption capacities of the three metals decreased in multicomponent solution. The selectivity sequence of heavy metal adsorption in multicomponent solution was in the order Cu(II) > Pb(II) > Cd(II). V From these results, it was show that modified activated carbon treated with nitric acid effectively removes heavy metals from water, however, it is suggested to further investigate the adsorption process by studying pH variations and modification conditions with nitric acid, to obtain greater adsorption capacities in multicomponent solution.Item Adsorción de tolueno en carbón activado. Estudio teórico-experimental preliminar.(Universidad de Concepción, 2024) Vargas Araneda, Ximena Angélica; García, Ximena; Ulloa, Claudia; Zaror, ClaudioThe emission of volatile organic compounds (VOCs) by industries constitutes a significant source of environmental pollution. This problem directly affects the health and comfort of the surrounding communities, giving rise to various conditions attributed to concentrations higher than the permitted thresholds of VOCs in the environment. In response to this challenge, the application of adsorption on activated carbon (AC) has emerged as a prominent solution due to its effectiveness, low cost and reusability. Therefore, a theoretical-practical study was carried out that ranged from a bibliographic analysis of research on VOC adsorption, to the definition, design, and application of an experimental procedure, at the laboratory level, to develop adsorption experiments in a replicable manner. It consists of a sequence of steps that include: (i) AC conditioning, (ii) sample preparation, (iii) data measurement and (iv) construction of the adsorption isotherm of Toluene (TOL), selected as a compound. model, in CA. Two analysis techniques were used, namely thermogravimetry (TG) and gas chromatography (GC). It was validated that the proposed experimental procedure was reproducible through the performance of 3 identical tests, which yielded an ECM of 0,83 (%). Then, the behavior of the adsorption of TOL in CA-s at different concentrations was studied, obtaining the adsorption isotherm at 22°C, where the maximum experimental adsorption capacity was 263 (𝑚𝑔/𝑔), although stability was observed around 255 (𝑚𝑔/𝑔) maximum for different concentrations. Furthermore, it was proposed that, for every microliter of toluene, there must be at least 7,5 (mg) of CA-s to ensure adsorption of over 90%. Finally, the experimental data were fitted to the Langmuir (LM), Freundlich (FR) and Dubinin-Radushkevich (D-R) models, obtaining that the D-R isotherm model was the one that best predicted the behavior of the adsorption of TOL on CA-s. For greater clarity in the study, it is recommended to repeat the tests at a lower concentration; with another odoriferous substance, such as acetone; use the dynamic column method and apply improvement treatments to the AC such as Cu impregnationItem Adversarial variational domain adaptation for semi-supervised image classification.(Universidad de Concepción, 2019) Pérez Carrasco, Manuel Ignacio; Cabrera Vives, Guillermo FelipeFor success fully training deep neural networks, we usually need a large amount of annotated data in order to avoid the overfitting and being able to generalize to new data. In most of real cases, getting labels is difficult and time consuming. In this work we address the problem of transferring knowledge obtained from a vast annotated source domain to a low labeled or unlabeled target domain, reducing the efforts to get labels on the target. We propose Adversarial Variational Domain Adaptation (AVDA), a semi-supervised domain adaptation method based on deep variational embedded representations. The idea of AVDA is to use a mixture of Gaussian distribution as a prior for the latent space, mapping samples that belong to the same class into the same Gaussian component, independently of the domain membership, using approximate inference. We use adversarial methods to align source and target distributions in latent space for each class independently. We tested our model using the digits dataset, which contains images of handwritten digits and images of number of houses. We empirically show that on a semi-supervised scenario, our approach improved the state of the art for digits dataset from 0.3 to 1.5% of accuracy using only 1 and 5 labels per class. Also, we tested out model using images of galaxies from the Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey (CANDELS, [23]) as source and the Cluster Lensing and Supernova Survey with Hubble (CLASH, [62]) as target. We empirically show that using few labels our model presents a significant speed-up in terms of the increase in accuracy, and the model keeps improving as more labels we add.