Tesis Pregrado
Permanent URI for this collection
Browse
Browsing Tesis Pregrado by Title
Now showing 1 - 20 of 1004
Results Per Page
Sort Options
Item Aceleración de Metabat mediante la integración de compresores GPU Nvidia.(Universidad de Concepción, 2024) Caro Quijada, Hernán Vicente; Hernández, CeciliaUn problema del área de la Metagenómica es la identificación de los diversos genomas encontrados en muestras obtenidas del ambiente, esto se debe a que las muestras contienen una gran cantidad de material genético que puede pertenecer a diversos microorganismos. MetaBAT es una herramienta desarrollada en C++ utilizada para resolver dicho problema, ya que recibe como entrada las muestras procesadas en forma de contigs, para posteriormente entregar como resultado clusters de contigs, donde cada cluster constituye las secuencias genómicas de un genoma. El aporte de esta herramienta es de utilidad en el contexto ecológico y en particular, en el estudio de microorganismos del ser humano, el trabajo realizado por los investigadores de esta área puede resultar muy beneficioso para lograr el diagnóstico, tratamiento y control de enfermedades que pueden provocar dichos microorganismos. Cómo se puede presumir los datasets utilizados por MetaBAT son de gran magnitud, es por ello que en esta memoria de título se llevó a cabo el análisis e integración de compresores de datos acelerados por GPU NVIDIA, con el propósito de disminuir el tiempo de compresión y descompresión de estos. Además, se abordó la fase de clustering en MetaBAT con un algoritmo igualmente acelerado por GPU NVIDIA, para disminuir el tiempo de procesamiento del clustering a la vez que se conserva una calidad del resultado similar a la original.Item Acelerador hardware para estimación de cuantiles en tráfico de redes.(Universidad de Concepción, 2024) Gallardo Pavesi, Carolina Sofía; Figueroa T., Miguel; Hernández R., CeciliaLas propiedades estadísticas del tráfico, tales como los cuantiles, entre los cuales se encuentran la mediana y el percentil 99, y la función de distribución acumulativa, nos ayudan a entender la distribución del tráfico y detectar anomalías a corto y largo plazo. Sin embargo, calcular de manera exacta el valor de estas propiedades es costoso en términos de espacio y tiempo. Particularmente, en el caso de los percentiles distintos de 0 y 100, es imposible encontrar una solución exacta en una pasada sin almacenar todos los datos. Utilizar un acelerador hardware basado en arreglos de lógica programable (FPGA, del inglés Field Programmable Gate Array) nos permite enfrentar la necesidad de procesar un stream de paquetes a alta velocidad y producir resultados con baja latencia. Sin embargo, la memoria interna disponible en estos dispositivos es limitada, por lo que almacenar todos los elementos no es una opción viable. Para responder a este problema, se han propuesto algoritmos basados en sketches: estructuras probabilísticas compactas que utilizan un espacio de memoria sublineal para estimar una propiedad con una cota de error predeterminada. Este trabajo presenta la arquitectura de un acelerador hardware para la estimación de cuantiles usando un algoritmo basado en sketches. La arquitectura propuesta se basa en la estructura general del sketch KLL presentado por Karnin et al. [1]. Implementamos la arquitectura en una tarjeta de desarrollo Xilinx Alveo U55C, la cual contiene un FPGA Virtex™ XCU55 UltraScale+, obteniendo un tiempo de ejecución total por lo menos 35 veces menor que el tiempo de ejecución total de la implementación en software del algoritmo modificado, y una aceleración mínima de 37 veces en cuanto al tiempo de inserción de elementos al sketch. El acelerador puede operar a una frecuencia de reloj de máxima 325.2 MHz, lo que equivale a una tasa mínima de 166 Gbps (gigabits por segundo). Mostramos empíricamente que las estimaciones mantienen una buena precisión, respetando las cotas de error cuando el número de paquetes de la traza es lo suficientemente parecido al número de elementos para el que dimensionamos el sketch.Item Actualización de la guía Chilena de diseño de pavimentos de adoquines de hormigón para calles, caminos y pasajes.(Universidad de Concepción, 2024) Puentes Ríos, María Paz; Echaveguren Navarro, Tomás; Merino Quilodrán, LuisLos pavimentos de adoquines de hormigón tienen numerosas ventajas, entre ellas, su durabilidad ante ambientes agresivos, su rapidez en puesta de operación, su mantenimiento debido a que es fácil de reponer, su contribución a la seguridad vial por su condición de operación y su reutilización. En el año 2013 no existía ni una norma que definiera las especificaciones y diseño de los pavimentos de adoquines de hormigón. Por esta razón el Instituto del Cemento y del Hormigón de Chile, publica en el año 2013 la segunda edición del “Manual de Diseño de Pavimentos de Adoquines de Hormigón” con la finalidad de proponer un método de diseño de pavimentos de adoquines de hormigón para uso vehicular en calles, caminos y pasajes. Con el tiempo, se ha identificado una brecha en el estado del arte, principalmente por la publicación de la primera norma de adoquines de hormigón en el país. El Manual adaptó el método de diseño de pavimento de adoquines de hormigón del Reino Unido del año 2010, sin embargo, este fue actualizado en 2021. Por las razones mencionadas anteriormente, se genera la necesidad de actualizar el Manual del ICH. Este trabajo revisa el Manual para identificar oportunidades de actualización. Luego, se realiza una revisión del estado del arte para proponer mejoras en las especificaciones del adoquín, las solicitaciones de diseño y el procedimiento de diseño de pavimentos. Finalmente, se elaboran ejemplos de diseño para distintos tipos de tráfico vehicular. Se concluye que los cambios en el estado del arte se deben a actualizaciones en las normas que definen las especificaciones de materiales y las solicitaciones de diseño. En relación con las solicitaciones de diseño, se propone relacionar directamente las categorías de tráfico con el dimensionamiento del pavimento, de esta manera, se sistematiza todo el proceso de dimensionamiento de pavimentos de adoquines de hormigón. Para la inclusión de las propuestas mencionadas, se recomienda integrar los capítulos de “Solicitaciones de diseño” y “Diseño estructural” del manual del ICH, ya que se abordan de manera separada, lo que genera una discontinuidad en el proceso de diseño. La propuesta consiste en unificar el diseño de pavimentos en un solo capítulo, incluyendo un nuevo diseño sistemático para los pavimentos de tráfico vehicular. Este capítulo detallará las especificaciones de materiales, las solicitaciones de diseño y presentará ejemplos de diseño desarrollados según el nuevo método de diseño, con el objetivo de mejorar la comprensión del lector sobre el proceso de diseño de pavimentos.Item Actualización de la instrumentación de la planta de vapor del laboratorio de termofluidos.(Universidad de Concepción, 2024) Jara Contreras, Martín Alonso; Farías Fuentes, ÓscarLa Planta de Vapor del Laboratorio de Termofluidos de la Universidad ha estado en operación por más de 50 años, siendo fundamental para la formación profesional de los estudiantes, ya que cuenta con los componentes principales de una central termoeléctrica. Sin embargo, no ha experimentado cambios significativos en los instrumentos de medición, por lo que se requiere modernizar dichos equipos e implementar un sistema local que registre los datos de manera continua. El propósito del presente trabajo consiste proponer mejoras en la instrumentación de la Planta de Vapor para la enseñanza práctica de las asignaturas relacionadas con el área de Termofluidos. Conforme a esto, se lleva a cabo un diagnóstico de la central basado en mediciones históricas y en los balances de masa y energía del ciclo, los cuales fueron resueltos mediante un programa EES. Este análisis resalta las variables críticas y los equipos con errores significativos, identificando que el circuito de generación presenta los mayores márgenes de error. La implementación incluye la instalación de 10 transmisores de presión, 13 transmisores de temperatura, 4 flujómetros, 1 analizador de corriente y un sistema de monitoreo de variables con pantalla táctil, entre otros. Posteriormente, se analiza la percepción de los estudiantes mediante una encuesta que muestra la visualización de las variables del sistema local, obteniendo resultados positivos en cuanto a la claridad y facilidad de interpretación de datos. En términos de mejora de precisión, se logra reducir el error del rendimiento del ciclo a un 10% de su valor original, y se alcanza una disminución del 95% en el error del rendimiento de la turbina. Finalmente, se diseñan protocolos de ensayo para las asignaturas del área de Termofluidos, esquematizando las experiencias de laboratorio de acuerdo con la taxonomía de Bloom y vinculando los resultados de aprendizaje con los indicadores clave de desempeño establecidos para la carrera de Ingeniería Civil Mecánica.Item Actualización del análisis empírico del impacto de las licitaciones de derechos monopolíticos sobre afiliados nuevos en el sistema de pensiones chileno considerando el periodo 2010-2023.(Universidad de Concepción, 2024) Almendra Gajardo, Mauricio Ignacio; Parada Contzen, MarcelaIn this thesis, I extend the study by Harrison, Parada, and Villena ( which focused on the mechanism of monopoly rights auctions over new enrollees’ introduced in the 2008 Pension Reform in the Chilean pension system. In particular, I extend the study period from 2003 2016 to 2003 2023. Subsequently, based on the extended period, we assess the impact of auctions on the market. For the analysis, I collect data from the website of the Superintendence of Pensions and the Central Bank of Chile. With the gathered information, I construct a panel database to serve as a basis for linear and logarithmic regressions using the Ordinary Least Squares (method with fixed effects and the STATA statistical software. I estimate four models to address the impact of auctions on the market. I consider variables of interest such as commissions, market concentration, profit margins, profitability, and risk premiums. The results were contrasted with Harrison, Parada, and Villena ( conclusions. My analysis reveals differences and similarities with the original study. When evaluating the price elasticity of demand, we found that in both periods, the implementation of auctions increased an individual’s price elasticity. Nevertheless, the conclusion that demand is inelastic to price remains despite the increase in the elasticity coefficient. Regarding average market fees, considering all firms in both periods, we found that since auction three, they have been significant in explaining a decrease in fees. On the other hand, when I only used never winning firms, the conclusion is that price variation is only explained by changes in the charge for disability and survival insurance. Also, I found that auctions have a statistically significant and negative impact on markups, indicating that their implementation has increased competition in the industry. The impact of auctions on risk premiums is stronger in less risky funds. Finally, we found that by extending the analysis period, the implementation of auctions no longer impacted fund returns compared to the initial period.Item Actualización electrónica, modelado y control dinámico del banco de ensayos de hélice de paso variable LTA.(Universidad de Concepción, 2024) Neira Salgado, Benjamín Ignacio; Hernández Vicente, Bernardo AndrésEl presente informe detalla la actualización de la electrónica y rediseño del banco de ensayos de hélice de paso variable, del Laboratorio de técnicas aeroespaciales. con el objetivo mejorar su funcionamiento y control. Contar con un correcto funcionamiento de este banco es fundamental para la formación de ingenieros aeroespaciales, ya que permite de manera practica demostrar cómo funcionan las hélices de paso variable. Para llevar a cabo este proyecto se utilizó la metodología CDIO (concebir, diseñar, implementar y operar). En la fase de concepción, se evaluaron las mejores opciones de mejora para el banco. Posteriormente, se seleccionaron y diseñaron los nuevos componentes, los cuales fueron implementados, calibrados y finalmente puestos en operación. Uno de los principales problemas que presentaba el banco de ensayo era la inexactitud del sensor de RPM, el cual tenía una desviación estándar 124.2 RPM en sus mediciones, Esto afectaba al control del banco y la estabilidad del control. Como solución se instaló un sensor encoder el cual disminuyo la desviación estándar de las mediciones a 13.78 RPM. Para implementar este sensor fue necesario rediseñar soportes y piezas las cuales fueron impresas en 3D. Además, se reemplazaron otros componentes del banco de ensayos. El sistema de paso variable tipo B fue reemplazado por un sistema de paso variable tipo C, eliminando la necesidad de utilizar un motor eléctrico de eje hueco y ampliando las opciones de selección del motor. También se reemplazó el microcontrolador, pasando de un Arduino MEGA a un ESP32, teniendo este una mejora en la memoria y la velocidad de procesamiento de los datos. Para asegurar la correcta medición y funcionamiento de los nuevos componentes instalados, se realizaron calibraciones de las celdas de carga, servo motor y validación de la medición del sensor enconder. Finalmente, se desarrolló de un modelo espacio estado utilizando la herramienta System identification toolbox de MATLAB y se implementó una arquitectura de control multivariable. Obteniendo un error de control de 100.98 RPM y 0.122 [kg mm] de torque, y también un tiempo de estabilización de 1.16 segundos para las RPM y 1.375 para el torque. En conclusión, el proyecto logro reducir con el éxito el error y las oscilaciones en la medición de RPM. Se desarrollo un modelo espacio-estado de segundo orden que modela la respuesta del sistema en 53.91% para el torque y 52.17% para las RPM. Además, se implementó un controlado state-feedback el cual dio como resultado un funcionamiento estable del banco de ensayos, con una baja tasa de error.Item Actualización y validación del modelo de elementos finitos del radiotelescopio Vertex DRD-36 del observatorio ALMA para su análisis estructural bajo condiciones críticas de operación.(Universidad de Concepción, 2024) Moraga Valenzuela, Jaime Francisco; Canales Cárdenas, CristianItem Adsorción de metales pesados en agua usando carbón activado modificado mediante tratamiento ácido(Universidad de Concepción, 2024) Torres Fernández, Catalina Sofía; García, Ximena; Ulloa, Claudia; Valenzuela, FelipeWater pollution by heavy metals represents a major problem to the environment and human beings due to the toxicity of these species. Rivers that supply drinking water in Northern Chile show high concentrations of copper, cadmium and lead. Among the methods for removal of heavy metals from water, adsorption onto activated carbon is considered one of the most effective. Heavy metals adsorption onto activated carbon is considered to mainly take place at oxygen containing functional groups. Acid treatment is used to introduce oxygen containing functional groups to the surface of the activated carbon. The main objective of this work is to investigate the effect of nitric acid surface modification of an activated carbon on the adsorption of copper, cadmium and lead from aqueous solution. Three different surface modification methods were tested using the following equipment: hot plate, water bath and rotary evaporator. An activated carbon based on end-of-life tires was treated with 5M nitric acid for 3 hours at 60°C. The rotary evaporator was selected as the optimal procedure since it can keep the nitric acid and activated carbon solution in constant rotation and produce a homogeneous mixture. The original material (DMAC) and the modified material (DMAC-HNO3) were characterized by N2 adsorption-desorption at 77K, point of zero charge, Fourier transform infrared spectroscopy (FTIR) and by thermogravimetric analysis and mass spectroscopy (TGA-MS). Adsorption tests were carried out in mono-component solution to compare the removal of both adsorbents. Equilibrium and kinetic tests were performed to evaluate the adsorption capacity of DMAC-HNO3 in mono and multicomponent solution. Experimental data were fitted to Langmuir, Freundlich, Temkin and Dubinin-Radushkevich isotherm models and pseudo-first order, pseudo-second order, Elovich and intraparticle diffusion kinetic models. The modified material resulted in a surface area of 988 m2 g-1 and a mesoporous structure. As a result of nitric acid modification, the amount of carbonyl groups and carboxylic acids on the surface of the adsorbent increased. There was an improvement in the percentage removal of metals in mono-component solution on DMAC adsorption compared to DMAC-HNO3 where Pb(II) increased from 94,19% to 99,03%, Cu(II) from 27.90 ± 1,10% to 85,85 ± 0,44% and Cd(II) 5,95 ± 0,03% to 49,97± 3,14%. The adsorption isotherm in mono-component solution of the three metals was best fitted to Freundlich model. The adsorption isotherm in multicomponent solution of Cu(II) was best fitted to Freundlich model, while Cd(II) and Pb(II) did not fit to any model. The kinetics of Cu(II) in monocomponente solution fit the pseudo-second order model, while Cd(II) and Pb(II) were best represented by Elovich model. The kinetics of three ions in multicomponent solution were best represented by Elovich model. This indicates that the rate limiting mechanism is the chemisorption of each metal on the activated carbon surface. On the other hand, adsorption capacities of the three metals decreased in multicomponent solution. The selectivity sequence of heavy metal adsorption in multicomponent solution was in the order Cu(II) > Pb(II) > Cd(II). V From these results, it was show that modified activated carbon treated with nitric acid effectively removes heavy metals from water, however, it is suggested to further investigate the adsorption process by studying pH variations and modification conditions with nitric acid, to obtain greater adsorption capacities in multicomponent solution.Item Adsorción de tolueno en carbón activado. Estudio teórico-experimental preliminar.(Universidad de Concepción, 2024) Vargas Araneda, Ximena Angélica; García, Ximena; Ulloa, Claudia; Zaror, ClaudioThe emission of volatile organic compounds (VOCs) by industries constitutes a significant source of environmental pollution. This problem directly affects the health and comfort of the surrounding communities, giving rise to various conditions attributed to concentrations higher than the permitted thresholds of VOCs in the environment. In response to this challenge, the application of adsorption on activated carbon (AC) has emerged as a prominent solution due to its effectiveness, low cost and reusability. Therefore, a theoretical-practical study was carried out that ranged from a bibliographic analysis of research on VOC adsorption, to the definition, design, and application of an experimental procedure, at the laboratory level, to develop adsorption experiments in a replicable manner. It consists of a sequence of steps that include: (i) AC conditioning, (ii) sample preparation, (iii) data measurement and (iv) construction of the adsorption isotherm of Toluene (TOL), selected as a compound. model, in CA. Two analysis techniques were used, namely thermogravimetry (TG) and gas chromatography (GC). It was validated that the proposed experimental procedure was reproducible through the performance of 3 identical tests, which yielded an ECM of 0,83 (%). Then, the behavior of the adsorption of TOL in CA-s at different concentrations was studied, obtaining the adsorption isotherm at 22°C, where the maximum experimental adsorption capacity was 263 (𝑚𝑔/𝑔), although stability was observed around 255 (𝑚𝑔/𝑔) maximum for different concentrations. Furthermore, it was proposed that, for every microliter of toluene, there must be at least 7,5 (mg) of CA-s to ensure adsorption of over 90%. Finally, the experimental data were fitted to the Langmuir (LM), Freundlich (FR) and Dubinin-Radushkevich (D-R) models, obtaining that the D-R isotherm model was the one that best predicted the behavior of the adsorption of TOL on CA-s. For greater clarity in the study, it is recommended to repeat the tests at a lower concentration; with another odoriferous substance, such as acetone; use the dynamic column method and apply improvement treatments to the AC such as Cu impregnationItem Algoritmo automático para la detección de síndrome de QT Largo (SQTL).(Universidad de Concepción, 2024) Fernández Lagos, Paulina Ximena; Pino Quiroga, EstebanLong QT Syndrome (LQTS) is a cardiac condition characterized by a prolongation of the QT interval. Most of the time it is not visible to the naked eye on the ECG, so for its detection the QT intervals of the ECG must be segmented. Automated methods offer advantages compared to manual detection in terms of absolute repeatability of measurements, immunity from errors related to observer fatigue, lapses of attention and transcription. This work seeks to obtain automated QT interval measurements for LQTS detection from Physionet’s PTB Diagnostic ECG Database. The database consists of measurements of ECG recordings from patients with different signal abnormalities. The motivation is to contribute with developing advanced diagnostic algorithms for LQTS, achieving accurate detection of the Q-point and the end of the T-wave in the whole signal, in order to be able to obtain valid results by an automatic algorithm. A new algorithm was developed in Matlab called “Kenay QT” in which the totality of the Q points and T wave in the complete signal is automatically calculated and the valid QT intervals are obtained along the whole signal of each of the processed records. “Kenay QT” is based on the search of the fiducial points in the ECG signal by “ Pan and Tompkins”. The “Kenay QT” algorithm was evaluated on the 549 records in the database, obtaining a graphic display of all Q points, T wave, and QRS complex of the records. The QT interval results are delivered in milliseconds. Comparing the performance obtained with published data using the same database, a final score (the RMS difference between the reference QT intervals and the corresponding QT intervals) of 16.05 ms was obtained, better than the score obtained using an open source automated method by Yuriy Chesnokov who obtained a final score of 17.33 ms. The developed algorithm demonstrates better score and performance in the detection of QT intervals, facilitating LQTS detection, fulfilling the objectives set out in this report.Item Algoritmo de aprendizaje automático para el estudio de la asociación entre enfermedad cardiovascular y depresión.(Universidad de Concepción, 2023) Navarro Araneda, Rodrigo Ignacio; Figueroa I., RosaDesde hace 20 años las enfermedades cardiovasculares son la principal causa de muerte a nivel global y en Chile son las responsables de un 25.6% de defunciones. Por su parte, la depresión es la principal causa de baja laboral, afectado a más de 450 millones de personas a nivel global, y en Chile se estima que un 15.8% de la población la padece. La base de datos CHS posee datos de 20 años, más de 300 variables y un aproximado de 5000 pacientes adultos mayores con enfermedades cardiovasculares, siendo al año 2000 el estudio longitudinal más extenso realizado nunca. Se utilizaron los algoritmos de aprendizaje automático Random Forest y Red Neuronal Artificial para realizar un estudio de las variables que predicen la fatalidad por enfermedades cardiovasculares y aquellas que predicen la depresión. El ensamble de ambos algoritmos permitió encontrar variables predictoras de depresión cuyo origen es cardiovascular, sin encontrar a la depresión como un predictor directo de las enfermedades cardiovasculares.Item Algoritmo de conjugación bacteriana con enfrentamiento(Universidad de Concepción, 2016) Torres Méndez, Claudio Antonio; Pinninghoff Junemann, María AngélicaLas bacterias han existido en la tierra desde hace aproximadamente 3500 millones de años, sobrevivieron las cinco extinciones masivas de animales y logran vivir en las condiciones más extremas del planeta. Todo esto se debe a que han logrado adaptarse al ambiente. Las buenas características que poseen las bacterias lograron que surgiera el Algoritmo de conjugación bacteriana, una nueva Metaheurística basada en la interacción de bacterias. El objetivo de esta memoria es unir los siguientes modelos: Algoritmo de conjugación Bacteriana (ACB) y Algoritmo Metaheurístico Basado en Evolución horizontal de microorganismos. El resultado es el algoritmo de conjugación bacteriana con enfrentamiento (ACBCE), cuya efectividad fue probada en CVRP utilizando las instancias de Augerat. Los resultados que obtuvo el ACBCE se compararon con los que obtuvieron los modelos de Algoritmos genéticos (AG), Algoritmo de Colonia Artificial de Abejas (ABC) y el Algoritmo de Conjugación Bacteriana con Control de la Población (ACBCP). Los resultados mostraron que los valores obtenidos por el ACBCE fueron cercanos a AG y ABC y superior en todas las instancias al ACBCP.Item Algoritmo de estimación de movimientos de los dedos de la mano a través de un arreglo de sensores de electromiografía superficial(Universidad de Concepción, 2014) Germany Morrison, Enrique Ignacio; Pino Quiroga, Esteban JavierLa prost´etica es la disciplina encargada de generar dispositivos para reemplazar partes del cuerpo que se han perdido por accidentes traum´aticos o por problemas cong´enitos. Desde siglos se han ido desarrollando diversos prototipos de dispositivos y con el paso del tiempo y la integraci ´on tecnol´ogica, han aumentado sus grados de destreza y capacidad para asimilar movimientos m´as completos y naturales. El control mioel´ectrico ha permanecido como el principal m´etodo de control a utilizar por diversos desarrolladores a lo largo del mundo, sin embargo, no es suficiente, ya que el funcionamiento muscular es complejo, por lo que herramientas avanzadas son utilizadas para intentar decodificar de buena forma la intenci´on del usuario de la pr´otesis. En este trabajo se abarca la aproximaci´on de control mioel´ectrico, adoptando un cambio de paradigma desde el control discreto entre clases definidas, decodificadas mediante reconocimiento de patrones, a un mecanismo de estimaci´on continua utilizando funciones de mapeo. El sistema se compone de dos partes, primero una secci´on de hardware que realiza la adquisici ´on de datos y segundo, una secci´on software que realiza la estimaci´on de posici´on. La parte de hardware permite de forma simult´anea registrar se˜nales de electromiograf´ıa (EMG) y de referencia del posicionamiento de los dedos de la mano. Las se˜nales son adquiridas mediante un electromi´ografo de 8 canales y un guante con sensores de flexi´on respectivamente. La parte de software debe digitalizar y guardar los datos a modo de utilizarlos en an´alisis posteriores. Utilizando MATLAB se procesaron las se˜nales y se dise˜n´o e implement´o un modelo de redes neuronales artificiales para estimar, desde las se˜nales de EMG, las posiciones de cada dedo de forma independiente. Las se˜nales estimadas se validaron mediante an´alisis de correlaci´on, con respecto a las se˜nales de referencia del guante. Los resultados avalan que este m´etodo logra de buena forma generar una relaci´on entre la actividad muscular y la posici´on de cada dedo de forma independiente, lo que otorga mayor libertad de movimientos y no requiere estados discretos que limitan al sistemaItem Algoritmo de identificación de las posiciones para la poda de las parras mediante técnicas de procesamiento de imágenes usando sensor kinect(Universidad de Concepción, 2014) Faúndez Báez, Iván Andrés; Sbárbaro Hofer, DanielEn la presente Memoria de Título se desarrolla un nuevo sistema de visión artificial capaz de identificar los puntos óptimos de poda para las parras de uva. Para llevar a cabo este concepto se trabajó con el dispositivo Microsoft Kinect, aprovechando así sus potenciales características que nos entregan valiosa información tridimensional de la escena enfocada. Para la calibración del dispositivo se utilizó el toolbox para Matlab desarrollado por Daniel Herrera[16] junto con la interfaz gráfica desarrollada en la Memoria de Título de C. Hernandez [7] con la cual se obtiene la data en unidades de ingeniería. Los datos son procesados en un computador portátil con el sistema operativo Linux Debían Squeeze 6.0.5. Además se instaló el software Matlab R2012a para la programación del algoritmo y creación de la interfaz de usuario. El set up experimental se constituyó con el sensor montado sobre un trípode frente a una parra real fijada en un pedestal y un telón blanco fue fijado en una de las paredes del Laboratorio de Control del DIE-UDEC. El algoritmo se encuentra basado primeramente en la binarización de la imagen, logrando así mayor eficiencia de cálculo. Luego en el análisis de imágenes se crearon diversos métodos para localizar las principales secciones de la planta como lo son el cordón, las ramas y los nodos. Además se llevó a cabo la reconstrucción en tres dimensiones de la parra, aprovechando de esta forma las imágenes de disparidad entregadas por el sensor Kinect. Finalmente se presenta una interfaz de usuario, donde se asignaron las diversas funciones del algoritmo a cada uno de los botones en este HMI. Los resultados obtenidos permiten concluir que a través de la visión por computador y eligiendo buenas técnicas de análisis de imagen se logra la creación de un algoritmo capaz de tomar buenas decisiones en la poda de la vid, esto siempre y cuando se sigan de buena manera las consideraciones del algoritmo, como por ejemplo elegir un umbral correcto para la binarización de la imagen, disponer de un telón para la segmentación de esta y tomar los resguardos indicados para localizar correctamente cada sección de la parra. Además, la reconstrucción 3D se llevó a cabo con éxito mediante las imágenes de disparidad proporcionadas por el dispositivo Microsoft Kinect, usando así uno de los avances tecnológicos mas actuales que ha salido al mercado de las videoconsolas, pero empleado en esta ocasión para el desarrollo del algoritmo que se describe en este informe.Item Algoritmo de ranking para complejos de proteínas basado en características fisioquímicas.(Universidad de Concepción, 2018) Valenzuela Figueroa, Felipe E.; Hernández Rivas, CeciliaIdentificar y describir la interacción entre proteínas es un problema ampliamente estudiado. Si un grupo de proteínas trabaja en conjunto es llamado complejo de proteínas (PC), y regularmente está asociado a una función específica. Existen herramientas computacionales que predicen complejos de proteína desde muchos enfoques. El resultado de estos predictores de complejos puede ser validado utilizando los Gold Standard Dataset (GSD), que son catálogos de referencia que incluyen información de proteínas experimentalmente aisladas, estudiadas y documentadas. De esta validación los resultados del predictor se clasifican como verdaderos positivos (VP) cuando están descritos en los GSD ó falsos positivos (FP) cuando no lo están. Un resultado del predictor clasificado como FP puede interpretarse como un complejo no descubierto o con poca documentación experimental, por ese motivo, los FP son un grupo interesante de estudio. El problema, es muy costosa la validación experimental de un complejo, por eso evaluar experimentalmente los FP debe planificarse y no hacerse aleatoriamente. Este trabajo propone un algoritmo de ranking para resultados FP basado en técnicas como el alineamiento estructural múltiple de proteínas (MPStrA) y el cálculo de índices fisicoquímicos de las proteínas. La función de orden del ranking busca dar el primer lugar de la lista al resultado FP que tenga más probabilidad de ser complejo, luego al segundo lugar más probabilidad que el tercero y así sucesivamente. Los resultados del algoritmo fueron exitosos al identificar resultados FP que fueron documentados como complejos posterior al año de la referencia de proteínas usada.Item Algoritmo de segmentación automática de las fibras cerebrales cortas de la región fronto-parietal y la ínsula(Universidad de Concepción, 2015) Guevara Olivares, Miguel Enrique; Guevara Álvez, Pamela BeatrizLa clasificación de fibras de materia blanca cerebral es fundamental para entender como está conectado el cerebro. Este es uno de los órganos más complejos y, por lo tanto, más díficil de estudiar. En especial, el estudio de las fibras de asociación cortas es un área reciente dentro de la investigación de la conectividad cerebral, por lo que éstas han sido escasamente descritas. Este trabajo busca desarrollar un algoritmo para estudiar la conectividad del cerebro entre distintos pares de regiones del hemisferio izquierdo del cerebro. Este tiene que ser capaz de segmentar de manera automática las fibras de asociación cortas del cerebro, a partir de datos de tractografía reclusterizados y utilizando parcelaciones de la superficie cortical. De manera general el trabajo constó de procesamientos manuales y automáticos. Los manuales involucraron el análisis de los resultados generados automáticamente, buscando un refinamiento de estos. Un poco más específicamente, el trabajo incluyó primero la generación de un modelo de las fibras cortas de asociación. Para esto se utilizaron los datos de tractografía de 20 sujetos de una base de datos de imágenes de difusión de alta resolución angular. Estos datos fueron segmentados y clusterizados para la generación del modelo. Segundo, este modelo fue utilizado para generar un atlas y a partir de éste, segmentar de manera automática 20 nuevos sujetos de la base de datos. Además, se realizaron cálculos de estadísticas con respecto a la cantidad de sujetos en los cuales estaban presentes los fascículos de fibras, la cantidad de fibras promedio y el largo que éstas presentan, etc. En el modelo se obtuvieron 45 fascículos de fibras. Y en base a la reproductibilidad (cantidad de sujetos en los cuales se encuentra presente un fascículo), la desviación estándar relativa de la cantidad de fibras y una inspección manual, se calificaron 15 de estos como los más estables. En cuanto a los resultados de la aplicación del atlas, se obtuvieron 28 fascículos para los cuales la reproductibilidad es de 20 y de estos, 14 corresponden a los que habían sido calificados como los más estables. Entre estos resultados destacaron las conexiones de la ínsula con circunvoluciones adyacentes, por ser poco descritas en la literatura. Estas demostraron tener una alta reproductibilidad de 19/20 y 20/20 junto con una baja desviación estándar relativa del número de fibras que las componen. Tambíen destacan, por ejemplo, las conexiones de la región superior frontal con el área de broca ya que estas si han sido descritas con mayor detalle en la literatura, y en el trabajo desarrollado se obtuvieron resultados con II reproductibilidad 20/20. El trabajo realizado permite facilitar el estudio de conexiones específicas, lo que podría ayudar en el diagnóstico de patologías. La ventaja que tiene el desarrollo de un método de segmentación automático, es que puede ser aplicado fácilmente a nuevos sujetos.Item Un algoritmo para resolver el problema del vendedor viajero con ventanas de tiempo para servicios postales.(Universidad de Concepción, 2022) Garcés Guzmán, José Tomás; Contreras Bolton, Carlos EmilioEsta memoria de título tiene como objetivo estudiar el problema del vendedor viajero con ventanas de tiempo aplicado al caso de los servicios postales, y elaborar una metaheurística para resolver el problema. Este problema es una variante del problema clásico del vendedor viajero que consiste en minimizar el costo de una ruta hamiltoniana con una restricción adicional, que consiste en la existencia de ventanas de tiempo para cada uno de los destinos en la ruta, generándose un aumento en la dificultad en la resolución. Esta dificultad se debe a que al llegar a un destino de forma prematura, se genera un aumento en el costo de la ruta y además, el arribo posterior al cierre de la ventana de tiempo produce una ruta no factible. En los servicios postales por lo general existen dos tipos de entregas, la paquetería y las cartas, para ambos casos la industria busca optimizar las rutas de entrega para reducir los costos operativos y de mano de obra. Además, existen muchos casos en los que el cliente tiene un tiempo acotado para recibir su entrega. Para resolver este problema se propone un algoritmo basado en una búsqueda local iterada. Este algoritmo trabaja con penalizaciones, perturbaciones y búsquedas locales. Los resultados de la metaheurística muestran buenos rendimientos hasta las instancias de 60 nodos.Item Algoritmos de clasificación de emociones en base a registros multicanal.(Universidad de Concepción, 2024) Alvial Sánchez, Alonso Gonzalo; Pino Quiroga, Esteban; Urrutia Martínez, MabelLa presente memoria de título forma parte del proyecto FONDECYT 13220040, EMOCREA: descubre y recrea tus emociones en entornos de realidad virtual mediante técnicas neurocientíficas y de inteligencia artificial, cuyo objetivo es determinar las categorías emocionales más salientes para su posterior entrenamiento en medios educativos. El objetivo general de esta memoria es clasificar emociones a partir de señales fisiológicas, como GSR, PPG, respiración y temperatura corporal, las cuales son de carácter mínimamente invasivo y de fácil adquisición. La motivación de este trabajo radica en la importancia de clasificar emociones humanas con precisión, con aplicaciones directas en el ámbito educativo. Para ello, las señales fisiológicas ofrecen un enfoque más certero y objetivo en comparación con métodos como las expresiones faciales. La metodología incluyó un experimento con 111 estímulos visuales clasificados en clústeres para evocar emociones. 64 participantes, con una media de edad de 15 años, calificaron cada estímulo en 3 categorías: aproximación, compromiso e identidad, utilizando una escala de 1 a 9. De estos, se seleccionaron 54 registros tras verificar la calidad. El procesamiento abarcó filtrado de ruido, normalización y segmentación de señales. Se realizó un análisis estadístico de los datos conductuales obtenidos por cada participante, tanto de las respuestas proporcionadas durante el experimento como de los tiempos de respuesta. Adicionalmente, se aplicó un análisis de ANOVA para identificar diferencias significativas entre los datos. En los casos donde estas diferencias fueron significativas, se realizó un análisis posterior para identificar los clústeres entre los cuales las diferencias eran mayores. Las señales fueron analizadas mediante algoritmos de Machine Learning, entre ellos árbol de decisión, regresión lineal, Naïve Bayes y SVM. Cada modelo fue evaluado utilizando métricas de pre dictibilidad positiva +P y sensibilidad Se, calculadas a partir de matrices de confusión. Los resultados mostraron que la efectividad de los modelos varió según la señal y el clúster de clasificación, alcanzando un desempeño aproximado del 33.8% en predictibilidad positiva y un 33.48% en sensibilidad, para los 3 clústeres. En conclusión, el algoritmo desarrollado no logró clasificar emociones de manera efectiva utilizando características fisiológicas. Sin embargo, se identificaron desafíos importantes, como la sincronización de señales y el manejo del ruido en los datos, que representan áreas clave para futuras investigaciones.Item Algoritmos paralelos para sketches de cardinalidad y cuentas.(Universidad de Concepción, 2024) Salini Irribarra, Estefano Alessandro; Hernández Rivas, Cecilia; Figueroa Toro, MiguelEl trabajo exploró el uso de algoritmos de streaming en el contexto de tráficos de red, estimándose la entropía de esta ya que es una medida que sirve para detectar ataques de red. Se implementaron algoritmos de streaming con sketches para la estimación de frecuencias y entropía de trazas de red, con el propósito de mejorar el tiempo de ejecución, el uso de memoria, y/o la precisión en la estimación. Se utilizan sketches ya que los streams de datos son muy grandes, y no es factible guardar en memoria la frecuencia de cada elemento del stream. La solución actual utiliza el sketch CountMin-CU junto a colas de prioridad de tamaño estático (que descartan los elementos menos frecuentes cuando la estructura esta llena y se inserta un nuevo elemento), para la estimación de frecuencias, junto al sketch HyperLogLog, para la estimación de la cardinalidad, para así en conjunto estimar la entropía. Se probó utilizar una modificación que extiende el algoritmo HyperLogLog, permitiendo calcular el histograma de frecuencias de una muestra del stream de datos, para estimar la entropía total y la contribución a la entropía de los elementos descartados por las colas de prioridad asociadas al sketch CountMin-CU. Se propuso también utilizar múltiples sketches CountMin-CU o TowerSketch-CU en conjunto con el sketch HyperLogLog para estimar la entropía. Nuestra implementación del sketch HyperLogLog fue modificada para reducir el uso de memoria en un 33 %. Se encontró que el algoritmo que extiende el sketch HyperLogLog guarda una muestra relativamente representativa del stream de datos, pero que la estimación de la entropía mediante el uso de esta muestra da malos resultados. Se encontró que no hay diferencias en la estimación de la entropía mediante el uso de uno o múltiples sketches CountMin-CU o TowerSketch-CU. Sin embargo, el uso de múltiples sketches CountMin-CU o TowerSketch-CU permite la lectura paralela de las trazas de red mediante OpenMP. Se probó también el algoritmo HyperLogLogLog, una modificación al algoritmo HyperLogLog que reduce el uso de memoria. Se encontró que no reduce el uso de memoria más que nuestra implementación del sketch Hyper-LogLog. Nuestros resultados indican que implementar el algoritmo utilizando múltiples sketches en una arquitectura con múltiples pipelines (equivalentes a hebras de CPU) reduciría el tiempo de ejecución.Item Almacenamiento de hidrógeno en carbón activado obtenido de carbón mineral. Efecto de la adición de Ni y Cu como promotores metálicos.(Universidad de Concepción, 2023) Romero Cifuentes, Gabriel Franco; García C., Ximena; Ulloa T., ClaudiaEl hidrógeno emerge como una opción altamente prometedora ante los apremiantes problemas climáticos. Sin embargo, surge una complicación central relacionada con su almacenamiento, ya que las formas convencionales presentan diversas limitaciones. Recientemente, la investigación científica se ha focalizado en el almacenamiento mediante materiales sólidos, específicamente en el carbón activado. Además, se sugiere que la introducción de metales podría ser una estrategia beneficiosa para mejorar este proceso de almacenamiento. En este contexto, se llevó a cabo un estudio para investigar cómo la adición de Ni y Cu en un carbón activado derivado de carbón mineral activado químicamente con NaOH, influye en el almacenamiento de hidrógeno. Los carbones activados fueron dopados con diferentes niveles de carga de metal: 0,5%, 1,0%, 1,5%, 2,5% y 5,0% en masa. Para caracterizar los carbones preparados, se realizaron pruebas de adsorción de nitrógeno a 77 K, con el fin de determinar parámetros cruciales como el área superficial BET y el volumen de microporos. Así mismo, se efectuaron pruebas de adsorción de hidrógeno a 77 K y 1 bar. Además, se aplicaron otros análisis con el propósito de obtener información adicional. Estos incluyen análisis elemental e inmediato, TEM y un análisis teórico aplicando el modelo de adsorción de Dubinin-Astakhov [56]. Los resultados demostraron que los carbones dopados, tanto con Ni y Cu presentaron una mayor porosidad en comparación al carbón sin dopar, lo cual se traduce en una mayor área BET. La forma de las isotermas de adsorción de nitrógeno de las muestras dopadas no presentó ninguna variación respecto de los carbones base, salvo en el caso del 5 Ni-CA, las isotermas fueron de tipo I y tipo IV según los criterios de la IUPAC. Se comprobó además una relación lineal entre el área BET y el volumen de microporos. El análisis TEM proporcionó un rango de tamaño de partícula que varió entre 14-7 nm, destacando que la muestra 2,5 Cu-CA exhibió este último valor. Con respecto a la adsorción de hidrógeno, se plantea la posibilidad de que la introducción de metal tenga un impacto restringido a condiciones de 77 K y 1 bar, lo cual podría estar influenciado por taponamiento de los poros. Esto se evidencia en el hecho de que la muestra de mayor desempeño fue 1,5-Ni-CA, alcanzando un valor del 2,51 % en peso de H2, lo que representa un aumento de solo un 1,6 % en comparación con la muestra sin dopar. Finalmente se logró proyectar los datos experimentales del carbón activado a condiciones de elevadas presiones y diversas temperaturas. Como resultado, se obtuvo un valor de 8,74% en peso a 100 bar, mientras que se registró un valor de 0,69% en peso a 298 K y 100 bar.