Facultad de Ingeniería
Permanent URI for this community
Browse
Browsing Facultad de Ingeniería by Title
Now showing 1 - 20 of 1891
Results Per Page
Sort Options
Item An accurate characterization of complex fluid mixtures. A collaborative approach based on Molecular Simulations and the Statistical Associating Fluid Theory.(Universidad de Concepción, 2016) Garrido Acuña, José Matías; Mejía Matallana, Sergio Andrés; Segura Gómez, HugoA rational guide able to qualitatively predict the thermo-physical properties in terms of state variables ( temperature, pressure, composition) becomes relevant in various technological applications. As part of a global approach where theory and Molecular Simulations (MS) collaborate in characterizing phase and interface behaviors, it has been well established the need of a unequivocal guidance for estimating initial guesses of conditions able to generate stable MS experiments devoted to predict specific phenomena, where due to extreme conditions, experimental measurements have a limited capability to accurately predict all the properties of complex fluids. Molecular based Equation of State (EoS) models and MS provide key pieces of such an approach since, on the one hand, they are closely related in terms of the underlying molecular model the force potential field- and, on the other hand, they directly depend on the interactions exerted by unlike molecules, so we claim in this thesis that an approach based on Global Phase Diagrams (GDP) a parametric map where phase behaviors may be delimited in terms of molecular parameters- is useful to rationally guide molecular simulations.Item Aceleración de Metabat mediante la integración de compresores GPU Nvidia.(Universidad de Concepción, 2024) Caro Quijada, Hernán Vicente; Hernández Rivas, CeciliaUn problema del área de la Metagenómica es la identificación de los diversos genomas encontrados en muestras obtenidas del ambiente, esto se debe a que las muestras contienen una gran cantidad de material genético que puede pertenecer a diversos microorganismos. MetaBAT es una herramienta desarrollada en C++ utilizada para resolver dicho problema, ya que recibe como entrada las muestras procesadas en forma de contigs, para posteriormente entregar como resultado clusters de contigs, donde cada cluster constituye las secuencias genómicas de un genoma. El aporte de esta herramienta es de utilidad en el contexto ecológico y en particular, en el estudio de microorganismos del ser humano, el trabajo realizado por los investigadores de esta área puede resultar muy beneficioso para lograr el diagnóstico, tratamiento y control de enfermedades que pueden provocar dichos microorganismos. Cómo se puede presumir los datasets utilizados por MetaBAT son de gran magnitud, es por ello que en esta memoria de título se llevó a cabo el análisis e integración de compresores de datos acelerados por GPU NVIDIA, con el propósito de disminuir el tiempo de compresión y descompresión de estos. Además, se abordó la fase de clustering en MetaBAT con un algoritmo igualmente acelerado por GPU NVIDIA, para disminuir el tiempo de procesamiento del clustering a la vez que se conserva una calidad del resultado similar a la original.Item Aceleración hardware para inferencia en redes neuronales convolucionales.(Universidad de Concepción, 2021) Pérez Cerdeira, Ignacio Jesús; Figueroa Toro, Miguel Ernesto; Carvajal Barrera, Gonzalo AndrésGracias a su alta precisión para clasificar objetos en imágenes, las redes neuronales con volucionales (CNN) son una herramienta muy relevante en la visión computacional. Este tipo de red neuronal utiliza capas convolucionales para extraer características de las imágenes y las clasifica por medio de capas de clasificación. Típicamente, el proceso de reconocimiento, llamado inferencia, es aplicado en unidades centrales de procesamiento (CPU) o unidades de procesamiento gráfico (GPU), pero debido al alto paralelismo de estas últimas, las GPUs muestran un mejor desempeño. Aun así, su alto consumo de potencia dificulta la implementación de estas plataformas en dispositivos móviles. Por esto, una alternativa para solucionar este problema es diseñar arquitecturas hardware en sistemas dedicados, como arreglos de compuertas programables (FPGA), que permiten reducir el consumo de potencia y acelerar la inferencia. Debido a esto, en este trabajo diseñamos una arquitectura heterogénea para realizar la inferencia de la CNN MobileNet V2 sobre hardware dedicado. Esta arquitectura utiliza una CPU y memoria embebida para controlar y almacenar datos del proceso, y un acelerador hardware sintetizado en la lógica programable de un FPGA para disminuir los tiempos de inferencia. Para reducir la cantidad de operaciones y datos en la FPGA, utilizamos técnicas de loop tiling, pruning y cuantización. Implementamos la arquitectura sobre la plataforma Xilinx Zynq Ultrascale+, utilizando la CPU ARM Cortex-A53 como controlador, una memoria DDR4 de 2GB para almacenar datos y la FPGA XCZU7EV para sintetizar cuatro elementos de procesamiento que permiten la inferencia en paralelo. Nuestra implementación puede inferir una imagen de la base de datos ImageNet de 224×224 píxeles en 220ms, utilizando 532 bloques de RAM (BRAM), 24 RAMs de UltraScale (URAM) y 340 procesadores digitales de señales (DSP) del FPGA, y consumiendo 7.34W de potencia. Comparada con una implementación software sobre una GPU y CPU, nuestro diseño es 10.18 veces más lento que la GPU y tiene un frame-rate similar a la CPU, pero consume 29.23 y 12.93 veces menos potencia que estos dispositivos respectivamenteItem Acelerador hardware para búsqueda de motivos emergentes en streams de secuencias de ADN.(Universidad de Concepción, 2018) Saavedra Mondaca, Antonio Sebastián; Figueroa Toro, Miguel Ernesto; Hernández Rivas, CeciliaEl descubrimiento de motivos en cadenas de ADN se define como la búsqueda de secuencias cortas de elementos compartidos en un conjunto largo de bases de nucleótidos que poseen una función biológica común. El descubrimiento de motivos entre los sitios de unión de los factores de transcripción, debido a la importancia de su función regulatoria en la expresión genética, resulta un problema de relevancia biológica. Este tipo de problemas presenta una alta complejidad computacional, especialmente debido a las dificultad de trabajar con bases de datos masivas. Las soluciones existentes en este tipo de problema se enfocan, por lo general, a plataformas en grandes clusters de alto costo, elevados tiempos de ejecución y consumo de potencia. En este trabajo se desarrolla un acelerador hardware reconfigurable para la búsqueda de motivos emergentes en secuencias de ADN. Los motivos emergentes se definen como aquellos que cumplen requisitos establecidos de frecuencia dentro de la secuencias analizadas. Su búsqueda representa un problema biológicamente relevante que presenta altos requisitos de memoria y costos computacionales. La plataforma se propone en base a algoritmos capaces de resolver el problema de la búsqueda de elementos más frecuentes dentro de un stream de datos. Estos algoritmos utilizan estructuras de datos conocidas como sketches para realizar una aproximación al proceso de conteo para determinar los elementos más frecuentes. A diferencia de un conteo tradicional, la utilización de sketches permite resolver, a través de procesos probabilísticos, en espacio sublineal, la estimación de la frecuencia de cada elemento del stream. Se implementaron en software los algoritmos CountSketch, Countmin, y Countmin-CU. Utilizando bases de datos biológicas públicas, se analizaron las dimensiones requeridas para operar con buena precisión y sensibilidad. El algoritmo Countmin-CU es capaz de encontrar los motivos emergentes de largos entre 10 y 20 utilizando arreglos de 65 mil contadores. El conteo tradicional requeriría sobre 100 mil millones. Se diseñó una arquitectura hardware dedicada que permite utilizar un FPGA como acelerador en un contexto de computación heterogénea. El algoritmo de streaming logra un balance adecuado entre el cómputo y los accesos requeridos a memoria permitiendo explotar el paralelismo fino de este tipo de plataforma. De esta manera, la lógica programable del FPGA con un diseño especializado nos permite reducir los costos de tiempo y el consumo de potencia de la solución. Este modelo de computación acelerada por hardware, con el FPGA nos permite trabajando con un reloj de 300MHz y consumiendo 3 Watts de potencia, nos permite alcanzar una aceleración de hasta 290 veces sobre la versión en software.Item Acelerador hardware para estimación de cuantiles en tráfico de redes.(Universidad de Concepción, 2024) Gallardo Pavesi, Carolina Sofía; Figueroa Toro, Miguel Ernesto; Hernández Rivas, CeciliaLas propiedades estadísticas del tráfico, tales como los cuantiles, entre los cuales se encuentran la mediana y el percentil 99, y la función de distribución acumulativa, nos ayudan a entender la distribución del tráfico y detectar anomalías a corto y largo plazo. Sin embargo, calcular de manera exacta el valor de estas propiedades es costoso en términos de espacio y tiempo. Particularmente, en el caso de los percentiles distintos de 0 y 100, es imposible encontrar una solución exacta en una pasada sin almacenar todos los datos. Utilizar un acelerador hardware basado en arreglos de lógica programable (FPGA, del inglés Field Programmable Gate Array) nos permite enfrentar la necesidad de procesar un stream de paquetes a alta velocidad y producir resultados con baja latencia. Sin embargo, la memoria interna disponible en estos dispositivos es limitada, por lo que almacenar todos los elementos no es una opción viable. Para responder a este problema, se han propuesto algoritmos basados en sketches: estructuras probabilísticas compactas que utilizan un espacio de memoria sublineal para estimar una propiedad con una cota de error predeterminada. Este trabajo presenta la arquitectura de un acelerador hardware para la estimación de cuantiles usando un algoritmo basado en sketches. La arquitectura propuesta se basa en la estructura general del sketch KLL presentado por Karnin et al. [1]. Implementamos la arquitectura en una tarjeta de desarrollo Xilinx Alveo U55C, la cual contiene un FPGA Virtex™ XCU55 UltraScale+, obteniendo un tiempo de ejecución total por lo menos 35 veces menor que el tiempo de ejecución total de la implementación en software del algoritmo modificado, y una aceleración mínima de 37 veces en cuanto al tiempo de inserción de elementos al sketch. El acelerador puede operar a una frecuencia de reloj de máxima 325.2 MHz, lo que equivale a una tasa mínima de 166 Gbps (gigabits por segundo). Mostramos empíricamente que las estimaciones mantienen una buena precisión, respetando las cotas de error cuando el número de paquetes de la traza es lo suficientemente parecido al número de elementos para el que dimensionamos el sketch.Item Acelerador hardware para la estimación de entropía empírica mediante sketches.(Universidad de Concepción, 2021) Ubisse, Paulo Pedro; Figueroa Toro, Miguel Ernesto; Hernández Rivas, CeciliaLos enfoques basados en entropía para la detección de anomalías son atractivos, ya que propor cionan información más detallada que el análisis de volumen de tráfico tradicional. Sin embargo, el cálculo de la entropía empírica exacta en un gran conjunto de datos puede ser costoso en uti lización de memoria, debido a que su cómputo requiere almacenar el número de ocurrencias de todos los elementos distintos observados en el flujo. Un alto uso de memoria reduce el desem peño de los aceleradores hardware, que son necesarios para estimar la entropía en redes de alta velocidad. Una solución práctica es, entonces, relajar la restricción de un cálculo exacto. En este trabajo, presentamos dos métodos probabilísticos basados en sketches para aproximar la entropía empírica de un gran conjunto de datos en procesamiento en tiempo real, con uso de espacio de memoria sublineal. Los sketches son estructuras de datos que utilizan espacio sublineal donde el uso de memoria crece de forma sublineal con los datos de entrada. Cuando el tamaño de la memoria utilizada es menor que la entrada, la pérdida de precisión es inevi table y conduce a resultados probabilísticos. Sin embargo, los algoritmos basados en sketches proporcionan aproximaciones con resultados de alta calidad. El primer enfoque consiste en es timar la entropía empírica de un flujo de datos, considerando los elementos top-K, o sea los K elementos más frecuentes. El segundo y principal enfoque de nuestro trabajo, consiste en aproximar la estimación de la entropía empírica no solo tomando la parte del flujo de datos que corresponde a los K elementos más frecuentes, sino también tomando la parte del flujo de datos que corresponde a los elementos menos frecuentes. Los dos enfoques han sido implementados en un sistema en chip (System on chip, SoC) Zynq UltraScale de Xilinx. Para el primer enfoque, los resultados experimentales del diseño de hardwa re en una FPGA Xilinx Zynq UltraScale+MPSoC ZCU102 (Field Programmable Gate Array), muestran que el sistema funciona a una frecuencia de reloj de 354 MHz y puede funcionar con una velocidad de red de 181 Gigabits por segundo (Gbps). Para el segundo y principal enfoque, los resultados experimentales en una arquitectura de propósito especial implementada en un FPGA ZCU104 de ultraescala Xilinx Zynq, muestran que el sistema alcanza un rendimiento de un paquete por ciclo a 400 MHz, lo que le permite operar a velocidades de red de hasta 204 Gbps.Item Actualización de la guía Chilena de diseño de pavimentos de adoquines de hormigón para calles, caminos y pasajes.(Universidad de Concepción, 2024) Puentes Ríos, María Paz; Echaveguren Navarro, Tomás Benjamín; Merino Quilodrán, Luis EnriqueLos pavimentos de adoquines de hormigón tienen numerosas ventajas, entre ellas, su durabilidad ante ambientes agresivos, su rapidez en puesta de operación, su mantenimiento debido a que es fácil de reponer, su contribución a la seguridad vial por su condición de operación y su reutilización. En el año 2013 no existía ni una norma que definiera las especificaciones y diseño de los pavimentos de adoquines de hormigón. Por esta razón el Instituto del Cemento y del Hormigón de Chile, publica en el año 2013 la segunda edición del “Manual de Diseño de Pavimentos de Adoquines de Hormigón” con la finalidad de proponer un método de diseño de pavimentos de adoquines de hormigón para uso vehicular en calles, caminos y pasajes. Con el tiempo, se ha identificado una brecha en el estado del arte, principalmente por la publicación de la primera norma de adoquines de hormigón en el país. El Manual adaptó el método de diseño de pavimento de adoquines de hormigón del Reino Unido del año 2010, sin embargo, este fue actualizado en 2021. Por las razones mencionadas anteriormente, se genera la necesidad de actualizar el Manual del ICH. Este trabajo revisa el Manual para identificar oportunidades de actualización. Luego, se realiza una revisión del estado del arte para proponer mejoras en las especificaciones del adoquín, las solicitaciones de diseño y el procedimiento de diseño de pavimentos. Finalmente, se elaboran ejemplos de diseño para distintos tipos de tráfico vehicular. Se concluye que los cambios en el estado del arte se deben a actualizaciones en las normas que definen las especificaciones de materiales y las solicitaciones de diseño. En relación con las solicitaciones de diseño, se propone relacionar directamente las categorías de tráfico con el dimensionamiento del pavimento, de esta manera, se sistematiza todo el proceso de dimensionamiento de pavimentos de adoquines de hormigón. Para la inclusión de las propuestas mencionadas, se recomienda integrar los capítulos de “Solicitaciones de diseño” y “Diseño estructural” del manual del ICH, ya que se abordan de manera separada, lo que genera una discontinuidad en el proceso de diseño. La propuesta consiste en unificar el diseño de pavimentos en un solo capítulo, incluyendo un nuevo diseño sistemático para los pavimentos de tráfico vehicular. Este capítulo detallará las especificaciones de materiales, las solicitaciones de diseño y presentará ejemplos de diseño desarrollados según el nuevo método de diseño, con el objetivo de mejorar la comprensión del lector sobre el proceso de diseño de pavimentos.Item Actualización de la instrumentación de la planta de vapor del laboratorio de termofluidos.(Universidad de Concepción, 2024) Jara Contreras, Martín Alonso; Farías Fuentes, Óscar FranciscoThe Steam Plant of the University's Thermofluids Laboratory has been in operation for more than 50 years, being fundamental for the professional training of students, since it has the main components of a thermoelectric power plant. However, it has not undergone significant changes in the measuring instruments, so it is required to modernize such equipment and implement a local system to record data continuously. The purpose of this work is to propose improvements in the instrumentation of the Steam Plant for the practical teaching of subjects related to the area of Thermofluids. Accordingly, a diagnosis of the plant is carried out based on historical measurements and on the mass and energy balances of the cycle, which were solved by means of an EES program. This analysis highlights the critical variables and equipment with significant errors, identifying that the generation circuit has the highest error margins. The implementation includes the installation of 10 pressure transmitters, 13 temperature transmitters, 4 flowmeters, 1 current analyzer and a variable monitoring system with touch screen, among others. Subsequently, the students' perception is analyzed by means of a survey showing the visualization of the local system variables, obtaining positive results in terms of clarity and ease of data interpretation. In terms of accuracy improvement, the cycle performance error is reduced to 10% of its original value, and a 95% decrease in the turbine performance error is achieved. Finally, test protocols are designed for the subjects of the Thermofluids area, outlining the laboratory experiences according to Bloom's taxonomy and linking the learning results with the key performance indicators established for the Mechanical Civil Engineering.Item Actualización de un controlador de modelo interno, basado en la identificación dinámica en lazo cerrado, para un intercambiador de calor(Universidad de Concepción, 2016) Steel Heldt, Brian Andrew Brian Andrew; Melo Lagos, Diógenes; Canales Rebolledo, EdgardoEl control eficiente de los procesos químicos es fundamental para las industrias permitiendo operar los procesos de forma segura (cuidando el medio ambiente y la salud de los operadores) y maximizar utilidades (obteniendo un producto de calidad al mismo tiempo que se optimizan los consumos de suministros y reactivos). Para poder controlar un proceso de forma correcta se deben conocer las características estáticas (ganancia) y dinámicas (constantes de tiempo y retardo) del mismo. Este trabajo de tesis propone utilizar un método de identificación en lazo cerrado para obtener los parámetros que caracterizan las funciones de transferencia de, a diferencia de trabajos anteriores, procesos con controladores de modelo interno. Este modo de control reconoce la referencia, impidiendo identificar la ganancia de manera directa (la razón de amplitud a frecuencia angular cero es indeterminada). Por ello se ideó un algoritmo basado en numerosas simulaciones de sistemas de primer orden, el que se probó en procesos con parámetros y tiempos de muestreos aleatorios, demostrando ser exacto cuando la razón entre el tiempo de muestreo y la constante de tiempo del proceso estaba entre 2.5 y 8.5. Cada ensayo experimental consiste en realizar un cambio escalón en la referencia del controlador. Luego se registra la respuesta del sistema en lazo cerrado bajo la acción del controlador de modelo interno, la que se somete a un tratamiento matemático que involucra técnicas numéricas, permitiendo obtener la respuesta de frecuencia del sistema en lazo abierto. Un análisis de frecuencia de esta respuesta conduce a las características del sistema, ajustándole por ejemplo un modelo de primer orden con retardo. El modelo de la planta utilizado en el controlador es actualizado con los parámetros identificados. El funcionamiento del algoritmo del método de identificación se puso a prueba, primero, simulando el lazo de control de temperatura de un intercambiador de calor, para lo cual se empleó el software SIMULINK™. Para el sistema se usaron los parámetros identificados por Steel (2013). Para el modelo se tomaron como referencia los mismos parámetros, pero con cierto porcentaje de error. Posteriormente, se experimentó sobre lazos de control instalados en un intercambiador de calor que tiene cuatro pasadas por los tubos y una por la carcasa. Por los tubos circula agua fría y a través la carcasa vapor de agua. El método probó ser muy efectivo en los sistemas simulados. La calidad de los datos facilitó el trabajo. El mayor error en un parámetro fue del 2.61%. Los modelos iniciales que presentaban mayor error se mejoraron considerablemente. En los ensayos en el intercambiador de calor el ruido de los datos dificultó el trabajo del algoritmo, lo que no fue impedimento para que se ajustasen los modelos de primer orden con retardo, con los que se mejoró la sintonía de los lazos de control. Todas las mejoras en los modelos se reflejaron en las respuestas, disminuyendo sobrepasos, oscilaciones y el tiempo que demoraban en alcanzar el estado estacionario. Aunque un proceso real puede ser de orden superior, el ajuste demostró ser suficiente para el funcionamiento del controlador de modelo interno disponible en el software de control RSLogix 5000™ (éste solo ofrece un modelo de primer orden con retardo).Item Actualización del análisis empírico del impacto de las licitaciones de derechos monopolíticos sobre afiliados nuevos en el sistema de pensiones chileno considerando el periodo 2010-2023.(Universidad de Concepción, 2024) Almendra Gajardo, Mauricio Ignacio; Parada Contzen, MarcelaIn this thesis, I extend the study by Harrison, Parada, and Villena ( which focused on the mechanism of monopoly rights auctions over new enrollees’ introduced in the 2008 Pension Reform in the Chilean pension system. In particular, I extend the study period from 2003 2016 to 2003 2023. Subsequently, based on the extended period, we assess the impact of auctions on the market. For the analysis, I collect data from the website of the Superintendence of Pensions and the Central Bank of Chile. With the gathered information, I construct a panel database to serve as a basis for linear and logarithmic regressions using the Ordinary Least Squares (method with fixed effects and the STATA statistical software. I estimate four models to address the impact of auctions on the market. I consider variables of interest such as commissions, market concentration, profit margins, profitability, and risk premiums. The results were contrasted with Harrison, Parada, and Villena ( conclusions. My analysis reveals differences and similarities with the original study. When evaluating the price elasticity of demand, we found that in both periods, the implementation of auctions increased an individual’s price elasticity. Nevertheless, the conclusion that demand is inelastic to price remains despite the increase in the elasticity coefficient. Regarding average market fees, considering all firms in both periods, we found that since auction three, they have been significant in explaining a decrease in fees. On the other hand, when I only used never winning firms, the conclusion is that price variation is only explained by changes in the charge for disability and survival insurance. Also, I found that auctions have a statistically significant and negative impact on markups, indicating that their implementation has increased competition in the industry. The impact of auctions on risk premiums is stronger in less risky funds. Finally, we found that by extending the analysis period, the implementation of auctions no longer impacted fund returns compared to the initial period.Item Actualización electrónica, modelado y control dinámico del banco de ensayos de hélice de paso variable LTA.(Universidad de Concepción, 2024) Neira Salgado, Benjamín Ignacio; Hernández Vicente, Bernardo AndrésEl presente informe detalla la actualización de la electrónica y rediseño del banco de ensayos de hélice de paso variable, del Laboratorio de técnicas aeroespaciales. con el objetivo mejorar su funcionamiento y control. Contar con un correcto funcionamiento de este banco es fundamental para la formación de ingenieros aeroespaciales, ya que permite de manera practica demostrar cómo funcionan las hélices de paso variable. Para llevar a cabo este proyecto se utilizó la metodología CDIO (concebir, diseñar, implementar y operar). En la fase de concepción, se evaluaron las mejores opciones de mejora para el banco. Posteriormente, se seleccionaron y diseñaron los nuevos componentes, los cuales fueron implementados, calibrados y finalmente puestos en operación. Uno de los principales problemas que presentaba el banco de ensayo era la inexactitud del sensor de RPM, el cual tenía una desviación estándar 124.2 RPM en sus mediciones, Esto afectaba al control del banco y la estabilidad del control. Como solución se instaló un sensor encoder el cual disminuyo la desviación estándar de las mediciones a 13.78 RPM. Para implementar este sensor fue necesario rediseñar soportes y piezas las cuales fueron impresas en 3D. Además, se reemplazaron otros componentes del banco de ensayos. El sistema de paso variable tipo B fue reemplazado por un sistema de paso variable tipo C, eliminando la necesidad de utilizar un motor eléctrico de eje hueco y ampliando las opciones de selección del motor. También se reemplazó el microcontrolador, pasando de un Arduino MEGA a un ESP32, teniendo este una mejora en la memoria y la velocidad de procesamiento de los datos. Para asegurar la correcta medición y funcionamiento de los nuevos componentes instalados, se realizaron calibraciones de las celdas de carga, servo motor y validación de la medición del sensor enconder. Finalmente, se desarrolló de un modelo espacio estado utilizando la herramienta System identification toolbox de MATLAB y se implementó una arquitectura de control multivariable. Obteniendo un error de control de 100.98 RPM y 0.122 [kg mm] de torque, y también un tiempo de estabilización de 1.16 segundos para las RPM y 1.375 para el torque. En conclusión, el proyecto logro reducir con el éxito el error y las oscilaciones en la medición de RPM. Se desarrollo un modelo espacio-estado de segundo orden que modela la respuesta del sistema en 53.91% para el torque y 52.17% para las RPM. Además, se implementó un controlado state-feedback el cual dio como resultado un funcionamiento estable del banco de ensayos, con una baja tasa de error.Item Actualización y validación del modelo de elementos finitos del radiotelescopio Vertex DRD-36 del observatorio ALMA para su análisis estructural bajo condiciones críticas de operación.(Universidad de Concepción, 2024) Moraga Valenzuela, Jaime Francisco; Canales Cárdenas, Cristian AlexisItem Adaptación de dominio profunda sobre imágenes astronómicas.(Universidad de Concepción, 2022) Bolívar Severino, César Andrés; Cabrera Vives, Guillermo FelipeLos modelos de Aprendizaje Profundo pueden verse afectados negativamente cuando ocurre un cambio de distribución entre el conjunto de datos de entrenamiento y el conjunto de datos de prueba. Esta baja en desempeño puede acrecentarse aún más cuando se tienen pocos datos etiquetados, pero puede mitigarse empleando técnicas de Apatación de Dominio. En este trabajo, se estudia la clasificación binaria de alertas astronómicas en “real” versus “bogus”, utilizando cuatro conjuntos de datos diferentes: Asteroid Terrestrial-impact Alert System (ATLAS), Dark Energy Survey (DES), High-cadence Transient Survey (HiTS) y Zwicky Transient Facility (ZTF). Se utiliza un modelo de clasificación profundo con un entrenamiento fine tuning y un modelo de adaptación de dominio llamado Minimax Entropy (MME), y se estudia el comportamiento de dichos modelos en diferentes escenarios donde el conjunto de entrenamiento difiere al de prueba, y donde se utiliza pocos elementos etiquetados por clase de los conjuntos de datos objetivo para el entrenamiento. Se muestra que el domain shift está presente en los conjuntos de datos, y que ambos modelos son capaces de mejorar la exactitud de un modelo base, incluso con apenas 1 elemento etiquetado por clase para algunos de los escenarios propuestos.Item Adquisición de equipamiento médico basada en AHP caso de estudio de Servicio de Salud Maule (SSM)(Universidad de Concepción, 2016) Muñoz Tiznado, Paulina de los Ángeles; Salazar Hornig, Eduardo JavierEn este trabajo se presenta la aplicación de una metodología de adquisición de equipos médicos basada en AHP (Proceso Analítico Jerárquico), donde en conjunto con el indicador financiero VAC (Valor Actual de Costos) es posible llegar a un resultado que busca la elección de un Equipo de Rx Digital Pórtatil acorde a las necesidades en conjunto con la optimización de los recursos. Esta metodología toma datos de una adquisición real del Servicio de Salud Maule (SSM), en la cual por medio de otra metodología se llega al ranking de equipos. Se catastran ambos resultados, se comparan y se concluye que la herramienta AHP sirve como apoyo para poder llegar a hacer una elección acorde a las necesidades específicas en las cuales se quiere adquirir el equipo médico, ya que es menos generalizada y el modelo se construye para cada caso y situación en particular, evidenciándose los beneficios cuando el equipo es puesto en marcha.Item Adsorción de metales pesados en agua usando carbón activado modificado mediante tratamiento ácido(Universidad de Concepción, 2024) Torres Fernández, Catalina Sofía; García Carmona, Ximena Andrea; Ulloa Tesser, Claudia Alejandra; Valenzuela, FelipeWater pollution by heavy metals represents a major problem to the environment and human beings due to the toxicity of these species. Rivers that supply drinking water in Northern Chile show high concentrations of copper, cadmium and lead. Among the methods for removal of heavy metals from water, adsorption onto activated carbon is considered one of the most effective. Heavy metals adsorption onto activated carbon is considered to mainly take place at oxygen containing functional groups. Acid treatment is used to introduce oxygen containing functional groups to the surface of the activated carbon. The main objective of this work is to investigate the effect of nitric acid surface modification of an activated carbon on the adsorption of copper, cadmium and lead from aqueous solution. Three different surface modification methods were tested using the following equipment: hot plate, water bath and rotary evaporator. An activated carbon based on end-of-life tires was treated with 5M nitric acid for 3 hours at 60°C. The rotary evaporator was selected as the optimal procedure since it can keep the nitric acid and activated carbon solution in constant rotation and produce a homogeneous mixture. The original material (DMAC) and the modified material (DMAC-HNO3) were characterized by N2 adsorption-desorption at 77K, point of zero charge, Fourier transform infrared spectroscopy (FTIR) and by thermogravimetric analysis and mass spectroscopy (TGA-MS). Adsorption tests were carried out in mono-component solution to compare the removal of both adsorbents. Equilibrium and kinetic tests were performed to evaluate the adsorption capacity of DMAC-HNO3 in mono and multicomponent solution. Experimental data were fitted to Langmuir, Freundlich, Temkin and Dubinin-Radushkevich isotherm models and pseudo-first order, pseudo-second order, Elovich and intraparticle diffusion kinetic models. The modified material resulted in a surface area of 988 m2 g-1 and a mesoporous structure. As a result of nitric acid modification, the amount of carbonyl groups and carboxylic acids on the surface of the adsorbent increased. There was an improvement in the percentage removal of metals in mono-component solution on DMAC adsorption compared to DMAC-HNO3 where Pb(II) increased from 94,19% to 99,03%, Cu(II) from 27.90 ± 1,10% to 85,85 ± 0,44% and Cd(II) 5,95 ± 0,03% to 49,97± 3,14%. The adsorption isotherm in mono-component solution of the three metals was best fitted to Freundlich model. The adsorption isotherm in multicomponent solution of Cu(II) was best fitted to Freundlich model, while Cd(II) and Pb(II) did not fit to any model. The kinetics of Cu(II) in monocomponente solution fit the pseudo-second order model, while Cd(II) and Pb(II) were best represented by Elovich model. The kinetics of three ions in multicomponent solution were best represented by Elovich model. This indicates that the rate limiting mechanism is the chemisorption of each metal on the activated carbon surface. On the other hand, adsorption capacities of the three metals decreased in multicomponent solution. The selectivity sequence of heavy metal adsorption in multicomponent solution was in the order Cu(II) > Pb(II) > Cd(II). V From these results, it was show that modified activated carbon treated with nitric acid effectively removes heavy metals from water, however, it is suggested to further investigate the adsorption process by studying pH variations and modification conditions with nitric acid, to obtain greater adsorption capacities in multicomponent solution.Item Adsorción de tolueno en carbón activado. Estudio teórico-experimental preliminar.(Universidad de Concepción, 2024) Vargas Araneda, Ximena Angélica; García Carmona, Ximena Andrea; Ulloa Tesser, Claudia Alejandra; Zaror Zaror, ClaudioThe emission of volatile organic compounds (VOCs) by industries constitutes a significant source of environmental pollution. This problem directly affects the health and comfort of the surrounding communities, giving rise to various conditions attributed to concentrations higher than the permitted thresholds of VOCs in the environment. In response to this challenge, the application of adsorption on activated carbon (AC) has emerged as a prominent solution due to its effectiveness, low cost and reusability. Therefore, a theoretical-practical study was carried out that ranged from a bibliographic analysis of research on VOC adsorption, to the definition, design, and application of an experimental procedure, at the laboratory level, to develop adsorption experiments in a replicable manner. It consists of a sequence of steps that include: (i) AC conditioning, (ii) sample preparation, (iii) data measurement and (iv) construction of the adsorption isotherm of Toluene (TOL), selected as a compound. model, in CA. Two analysis techniques were used, namely thermogravimetry (TG) and gas chromatography (GC). It was validated that the proposed experimental procedure was reproducible through the performance of 3 identical tests, which yielded an ECM of 0,83 (%). Then, the behavior of the adsorption of TOL in CA-s at different concentrations was studied, obtaining the adsorption isotherm at 22°C, where the maximum experimental adsorption capacity was 263 (𝑚𝑔/𝑔), although stability was observed around 255 (𝑚𝑔/𝑔) maximum for different concentrations. Furthermore, it was proposed that, for every microliter of toluene, there must be at least 7,5 (mg) of CA-s to ensure adsorption of over 90%. Finally, the experimental data were fitted to the Langmuir (LM), Freundlich (FR) and Dubinin-Radushkevich (D-R) models, obtaining that the D-R isotherm model was the one that best predicted the behavior of the adsorption of TOL on CA-s. For greater clarity in the study, it is recommended to repeat the tests at a lower concentration; with another odoriferous substance, such as acetone; use the dynamic column method and apply improvement treatments to the AC such as Cu impregnationItem Adversarial variational domain adaptation for semi-supervised image classification.(Universidad de Concepción, 2019) Pérez Carrasco, Manuel Ignacio; Cabrera Vives, Guillermo FelipeFor success fully training deep neural networks, we usually need a large amount of annotated data in order to avoid the overfitting and being able to generalize to new data. In most of real cases, getting labels is difficult and time consuming. In this work we address the problem of transferring knowledge obtained from a vast annotated source domain to a low labeled or unlabeled target domain, reducing the efforts to get labels on the target. We propose Adversarial Variational Domain Adaptation (AVDA), a semi-supervised domain adaptation method based on deep variational embedded representations. The idea of AVDA is to use a mixture of Gaussian distribution as a prior for the latent space, mapping samples that belong to the same class into the same Gaussian component, independently of the domain membership, using approximate inference. We use adversarial methods to align source and target distributions in latent space for each class independently. We tested our model using the digits dataset, which contains images of handwritten digits and images of number of houses. We empirically show that on a semi-supervised scenario, our approach improved the state of the art for digits dataset from 0.3 to 1.5% of accuracy using only 1 and 5 labels per class. Also, we tested out model using images of galaxies from the Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey (CANDELS, [23]) as source and the Cluster Lensing and Supernova Survey with Hubble (CLASH, [62]) as target. We empirically show that using few labels our model presents a significant speed-up in terms of the increase in accuracy, and the model keeps improving as more labels we add.Item Aislamiento y optimización energética híbrida insular en Chile: una propuesta para la sustentabilidad energética insular.(Universidad de Concepción, 2021) Morales Lassalle, James Alexis; Link Lazo, Óscar EduardoEn el presente trabajo se evalúa la idoneidad de sistemas híbridos de generación eléctrica, con enfoque particular en islas, tanto del mundo como de Chile, y la posibilidad de cuantificar el nivel de aislamiento energético de estas unidades a partir del diseño de un índice de aislamiento energético insular. El trabajo se divide en 3 partes: (1) Se realiza una revisión bibliográfica de la experiencia en optimización de sistemas híbridos en islas alrededor del mundo; (2) Se identifican características que convierten a las islas en unidades geográficas especiales desde el punto de vista energético; (3) Se plantea la construcción de un índice que refleje las condiciones de aislamiento energético a las que se ven sometidas las comunidades insulares. Para abordar el punto (1) se realizó una extensa revisión bibliográfica en revistas indexadas, que incluyeran un proceso de optimización de sistemas híbridos (o Hybrid Renewable Energy System, por sus siglas en inglés). La muestra consideró un total de 73 islas, distribuidas por todo el mundo, incluyendo pequeñas comunidades insulares (como Mykines y Eigg), así como islas con alto grado de desarrollo y población (como Canarias o Hainan). El trabajo permitió recolectar información relacionada con: aspectos demográficos y geográficos de las islas, nivel de demanda eléctrica y metodologías de obtención de perfiles de carga, metodologías de evaluación del potencial energético renovable, objetivos de optimización, metodologías y herramientas de optimización, mix de generación y almacenamiento de energía. En el trabajo se discuten elementos comunes en los procesos de optimización, así como los principales desafíos de su diseño. Además, se identificó de manera preliminar una relación de potencia, con exponente superior a 1 entre las variables de población y consumo eléctrico, elemento que fue analizado en la segunda parte de esta tesis. Para el punto (2) se sugirió una ley de potencia entre las variables de población y consumo eléctrico anual para islas. En este caso, se escogió una muestra de 51 islas distribuidas por todo el mundo, pero que cumplieran con criterios que aseguraran su aislamiento. El resultado demostró que el consumo energético seguía una relación de potencia con exponente 1.12 y un coeficiente de determinación 𝑅 2 = 0.91. La relación demostró ser significativa estadísticamente, mientras que las variables se distribuyen de manera normal. Los resultados fueron comparados con los obtenidos para otras entidades geográficas, en particular, países y pequeños estados insulares en desarrollo (SIDS), verificándose una diferencia significativa para ambos casos. Se hipotetizó tanto en los alcances de este resultado, como las posibles explicaciones de la diferencia entre las distintas entidades geográficas. Algunas posibilidades serían: ineficiencias en el transporte de la electricidad, existencia de deseconomías de escala, la distribución espacial de los asentamientos insulares y finalmente el efecto que aspectos políticos pudiesen tener en el consumo eléctrico. Finalmente, para abordar (3) se planteó el diseño de un indicador compuesto, al que se llamó Índice de Aislamiento Energético Insular” y que permite evaluar “La carencia en el acceso a un conjunto de fuentes y/o servicios energéticos, propiciado por las condiciones territoriales inherentes de una isla”. Se identificaron 4 dimensiones para abordar esta problemática, a partir de las cuales se definieron 8 indicadores. El índice se sometió a un análisis de incerteza y sensibilidad para evaluar la robustez del mismo y finalmente ser aplicado a una muestra de 58 islas chilenas con asentamientos permanentes.Item Ajuste de reglas de secuenciamiento de tareas en ambiente dinámico mediante optimización estocástica: Caso un recurso.(Universidad de Concepción, 2004) Ahumada Ojeda, Jonhson Hernán; Cepeda Jünemann, ManuelEn esta investigación se aborda el problema de scheduling de una máquina considerando un ambiente dinámico, por lo tanto, el conjunto de tareas a ejecutar no es conocido a priori, sino que éstas llegan en paralelo con la evolución del tiempo, alterando la planificación actual y obligando a una reprogramación en tiempo real. Este problema será abordado mediante optimización estocástica, en particular la optimización del valor esperado de una medida de desempeño utilizando como herramienta la simulación, esto se conoce como optimización estocástica por simulación. El método de optimización estocástica aplicado al problema en estudio es el método del gradiente descendente utilizando perturbaciones finitas para estimar el gradiente. Se propone un índice de prioridad combinado que relaciona dos reglas de prioridad simple, de esta manera el problema original es transformado en uno de optimización paramétrica donde la función corresponde al valor esperado de la medida de desempeño. Los resultados obtenidos a través de los índices de prioridad combinado, son comparados con los resultados obtenidos al realizar el secuenciamiento de tareas por medio de las reglas de prioridad simple, obteniendo reducciones significativas en las medidas de desempeño. Para estimar el gradiente se implementaron dos criterios de término, el primero considera un número fijo de iteraciones y el segundo considera un criterio dinámico, sin embargo ambos criterios reportan idénticos resultados, pero el tiempo computacional empleado por el segundo criterio de término es significativamente menor.Item Aleaciones súper austeníticas estabilizadas con (Nb, V o Ti) expuestas en sales fundidas aplicadas en plantas térmicas concentradoras solares y salinas.(Universidad de Concepción, 2023) Ramírez Briceño, Jesús Alfredo; Rojas Jara, David Eduardo; Meléndrez Castro, ManuelLa siguiente investigación lleva por título “Aleaciones Súper Austeníticas estabilizadas con (Nb, V o Ti) expuestas en sales fundidas aplicadas en Plantas térmicas Concentradoras Solares". El desarrollo de esta investigación parte del estudio de un acero SASS-Nb modificado a partir del acero comercial 254SMO. En esta investigación se determinó el efecto del Nb como agente estabilizador y las temperaturas de tratamiento térmico optimas de recocido de precipitación sobre las propiedades de resistencia a la corrosión general y localizada. De acuerdo con esta investigación existen algunas incertidumbres e hipótesis si la adicción de otros elementos estabilizadores como (Nb, V y Ti), puedan incrementar las propiedades mecánicas, específicamente la resistencia al fenómeno de termofluencia sin promover la corrosión intergranular. La investigación del acero SASS-Nb modificado a partir del acero comercial 254SMO y 709, crea una base científica y un reto tecnológico para el diseño de nuevos aceros inoxidables superausteníticos (A1 y A2) con modificación de Mo y adición de nuevos elementos estabilizadores. La investigación realizada se enfocó en el diseño, producción, caracterización y evaluación de dos tipos de aceros Súper Austeníticos con la adición de elementos estabilizadores y tierras raras. Los aceros desarrollados fueron evaluados frente a condiciones cíclicas de trabajo (temperatura y tiempo) a las cuales operan los sistemas de almacenamiento de energía solar (tanques de almacenamiento, tuberías y válvulas), como lo son altas temperaturas (550 °C) y medios agresivos (sal solar), para evaluar su comportamiento como solución al deterioro acelerado de estos materiales. Se utilizó la simulación termodinámica Thermo-Calc, con la finalidad de predecir las posibles fases secundarias intermetálicas (σ, chi, MX, M23C6 y Laves) y temperatura de aplicación de tratamientos térmicos. La producción de las dos aleaciones se enfocó en el estudio de la influencia de la concentración de Nb, Ti y V con respecto a las propiedades de termofluencia. Asimismo, se integró el Ce para el estudio o contribución a la resistencia a la corrosión a alta temperatura y sales fundidas. Las aleaciones producidas fueron formadas por Nb, V, Ti y Ce en un rango de 0.37 %, 0.09 %, 0.02 % y 0.009 % (A1) y 0.16 %, 0.34 %, 0.00 % y 0.01 % (A2) y composiciones de Cr, Ni, Cu, Mn, Si y Fe similares. Se realizaron caracterización en condiciones iniciales y de exposición, mediante microscopia óptica, MEB, RAMAN, AFM, XPS y DRX. Como principales resultados se tiene que la microscopía óptica en ambas aleaciones mostró inclusiones no metálicas de óxidos globulares tipo D2 y morfología de granos austeníticos equiaxiales con tamaño de grano ASTM6 y precipitaciones secundarias. Los aceros diseñados expuesto alta temperatura (800 °C y 110 h de exposición) presentaron un excelente comportamiento con ganancia de masa de 0.17 mg/cm2 y 2.49 mg/cm2 para A1 y A2 respectivamente, siendo su cinética de oxidación del tipo parabólica con valores de su contante cinética de 9.16 × 10-13 g2/cm-4s-1 y 3,40 × 10-11 g2/cm-4s-1, lo cual indica una excelente resistencia de los aceros a la exposición a alta temperatura. En lo que respecta a la exposición en sales fundidas (NaNO3 y KNO3) a 550 °C durante 720 h, ambas aleaciones diseñadas presentaron un excelente comportamiento con ganancia de masa de 0.0110 mg/cm2 y 0.0353 mg/cm2 para A1 y A2 respectivamente. Es decir, sus ganancias de masa son muy bajas lo cual es excelente para la aplicación en plantas térmicas solares. Por otra parte, las propiedades mecánicas de tracción, dureza y termofluencia presentadas en las aleaciones A1 y A2 son excelentes y comparables al acero comercial 709. Destacándose la aleación A1 con altos tiempo de ruptura en ensayos de termofluencia en el orden de 1190 h a condiciones de 720 h – 150 MPa. De manera general, 1) la adición de elementos estabilizadores como Nb, V, Ti aumentaron la resistencia a la termofluencia de las aleaciones mediante el mecanismo de endurecimiento por precipitación (NbMX, TiMX y VMX) y 2) la adicción de Ce por debajo de 0.01 ppm modifica la microestructura de las aleaciones, resistencia a la oxidación y produce un refinamiento de la estructura dendrítica.