Tesis Pregrado
Permanent URI for this collection
Browse
Browsing Tesis Pregrado by Title
Now showing 1 - 20 of 906
Results Per Page
Sort Options
Item Aceleración de Metabat mediante la integración de compresores GPU Nvidia.(Universidad de Concepción, 2024) Caro Quijada, Hernán Vicente; Hernández, CeciliaUn problema del área de la Metagenómica es la identificación de los diversos genomas encontrados en muestras obtenidas del ambiente, esto se debe a que las muestras contienen una gran cantidad de material genético que puede pertenecer a diversos microorganismos. MetaBAT es una herramienta desarrollada en C++ utilizada para resolver dicho problema, ya que recibe como entrada las muestras procesadas en forma de contigs, para posteriormente entregar como resultado clusters de contigs, donde cada cluster constituye las secuencias genómicas de un genoma. El aporte de esta herramienta es de utilidad en el contexto ecológico y en particular, en el estudio de microorganismos del ser humano, el trabajo realizado por los investigadores de esta área puede resultar muy beneficioso para lograr el diagnóstico, tratamiento y control de enfermedades que pueden provocar dichos microorganismos. Cómo se puede presumir los datasets utilizados por MetaBAT son de gran magnitud, es por ello que en esta memoria de título se llevó a cabo el análisis e integración de compresores de datos acelerados por GPU NVIDIA, con el propósito de disminuir el tiempo de compresión y descompresión de estos. Además, se abordó la fase de clustering en MetaBAT con un algoritmo igualmente acelerado por GPU NVIDIA, para disminuir el tiempo de procesamiento del clustering a la vez que se conserva una calidad del resultado similar a la original.Item Acelerador hardware para estimación de cuantiles en tráfico de redes.(Universidad de Concepción, 2024) Gallardo Pavesi, Carolina Sofía; Figueroa T., Miguel; Hernández R., CeciliaLas propiedades estadísticas del tráfico, tales como los cuantiles, entre los cuales se encuentran la mediana y el percentil 99, y la función de distribución acumulativa, nos ayudan a entender la distribución del tráfico y detectar anomalías a corto y largo plazo. Sin embargo, calcular de manera exacta el valor de estas propiedades es costoso en términos de espacio y tiempo. Particularmente, en el caso de los percentiles distintos de 0 y 100, es imposible encontrar una solución exacta en una pasada sin almacenar todos los datos. Utilizar un acelerador hardware basado en arreglos de lógica programable (FPGA, del inglés Field Programmable Gate Array) nos permite enfrentar la necesidad de procesar un stream de paquetes a alta velocidad y producir resultados con baja latencia. Sin embargo, la memoria interna disponible en estos dispositivos es limitada, por lo que almacenar todos los elementos no es una opción viable. Para responder a este problema, se han propuesto algoritmos basados en sketches: estructuras probabilísticas compactas que utilizan un espacio de memoria sublineal para estimar una propiedad con una cota de error predeterminada. Este trabajo presenta la arquitectura de un acelerador hardware para la estimación de cuantiles usando un algoritmo basado en sketches. La arquitectura propuesta se basa en la estructura general del sketch KLL presentado por Karnin et al. [1]. Implementamos la arquitectura en una tarjeta de desarrollo Xilinx Alveo U55C, la cual contiene un FPGA Virtex™ XCU55 UltraScale+, obteniendo un tiempo de ejecución total por lo menos 35 veces menor que el tiempo de ejecución total de la implementación en software del algoritmo modificado, y una aceleración mínima de 37 veces en cuanto al tiempo de inserción de elementos al sketch. El acelerador puede operar a una frecuencia de reloj de máxima 325.2 MHz, lo que equivale a una tasa mínima de 166 Gbps (gigabits por segundo). Mostramos empíricamente que las estimaciones mantienen una buena precisión, respetando las cotas de error cuando el número de paquetes de la traza es lo suficientemente parecido al número de elementos para el que dimensionamos el sketch.Item Actualización de la guía Chilena de diseño de pavimentos de adoquines de hormigón para calles, caminos y pasajes.(Universidad de Concepción, 2024) Puentes Ríos, María Paz; Echaveguren Navarro, Tomás; Merino Quilodrán, LuisLos pavimentos de adoquines de hormigón tienen numerosas ventajas, entre ellas, su durabilidad ante ambientes agresivos, su rapidez en puesta de operación, su mantenimiento debido a que es fácil de reponer, su contribución a la seguridad vial por su condición de operación y su reutilización. En el año 2013 no existía ni una norma que definiera las especificaciones y diseño de los pavimentos de adoquines de hormigón. Por esta razón el Instituto del Cemento y del Hormigón de Chile, publica en el año 2013 la segunda edición del “Manual de Diseño de Pavimentos de Adoquines de Hormigón” con la finalidad de proponer un método de diseño de pavimentos de adoquines de hormigón para uso vehicular en calles, caminos y pasajes. Con el tiempo, se ha identificado una brecha en el estado del arte, principalmente por la publicación de la primera norma de adoquines de hormigón en el país. El Manual adaptó el método de diseño de pavimento de adoquines de hormigón del Reino Unido del año 2010, sin embargo, este fue actualizado en 2021. Por las razones mencionadas anteriormente, se genera la necesidad de actualizar el Manual del ICH. Este trabajo revisa el Manual para identificar oportunidades de actualización. Luego, se realiza una revisión del estado del arte para proponer mejoras en las especificaciones del adoquín, las solicitaciones de diseño y el procedimiento de diseño de pavimentos. Finalmente, se elaboran ejemplos de diseño para distintos tipos de tráfico vehicular. Se concluye que los cambios en el estado del arte se deben a actualizaciones en las normas que definen las especificaciones de materiales y las solicitaciones de diseño. En relación con las solicitaciones de diseño, se propone relacionar directamente las categorías de tráfico con el dimensionamiento del pavimento, de esta manera, se sistematiza todo el proceso de dimensionamiento de pavimentos de adoquines de hormigón. Para la inclusión de las propuestas mencionadas, se recomienda integrar los capítulos de “Solicitaciones de diseño” y “Diseño estructural” del manual del ICH, ya que se abordan de manera separada, lo que genera una discontinuidad en el proceso de diseño. La propuesta consiste en unificar el diseño de pavimentos en un solo capítulo, incluyendo un nuevo diseño sistemático para los pavimentos de tráfico vehicular. Este capítulo detallará las especificaciones de materiales, las solicitaciones de diseño y presentará ejemplos de diseño desarrollados según el nuevo método de diseño, con el objetivo de mejorar la comprensión del lector sobre el proceso de diseño de pavimentos.Item Actualización de la instrumentación de la planta de vapor del laboratorio de termofluidos.(Universidad de Concepción, 2024) Jara Contreras, Martín Alonso; Farías Fuentes, ÓscarLa Planta de Vapor del Laboratorio de Termofluidos de la Universidad ha estado en operación por más de 50 años, siendo fundamental para la formación profesional de los estudiantes, ya que cuenta con los componentes principales de una central termoeléctrica. Sin embargo, no ha experimentado cambios significativos en los instrumentos de medición, por lo que se requiere modernizar dichos equipos e implementar un sistema local que registre los datos de manera continua. El propósito del presente trabajo consiste proponer mejoras en la instrumentación de la Planta de Vapor para la enseñanza práctica de las asignaturas relacionadas con el área de Termofluidos. Conforme a esto, se lleva a cabo un diagnóstico de la central basado en mediciones históricas y en los balances de masa y energía del ciclo, los cuales fueron resueltos mediante un programa EES. Este análisis resalta las variables críticas y los equipos con errores significativos, identificando que el circuito de generación presenta los mayores márgenes de error. La implementación incluye la instalación de 10 transmisores de presión, 13 transmisores de temperatura, 4 flujómetros, 1 analizador de corriente y un sistema de monitoreo de variables con pantalla táctil, entre otros. Posteriormente, se analiza la percepción de los estudiantes mediante una encuesta que muestra la visualización de las variables del sistema local, obteniendo resultados positivos en cuanto a la claridad y facilidad de interpretación de datos. En términos de mejora de precisión, se logra reducir el error del rendimiento del ciclo a un 10% de su valor original, y se alcanza una disminución del 95% en el error del rendimiento de la turbina. Finalmente, se diseñan protocolos de ensayo para las asignaturas del área de Termofluidos, esquematizando las experiencias de laboratorio de acuerdo con la taxonomía de Bloom y vinculando los resultados de aprendizaje con los indicadores clave de desempeño establecidos para la carrera de Ingeniería Civil Mecánica.Item Actualización del análisis empírico del impacto de las licitaciones de derechos monopolíticos sobre afiliados nuevos en el sistema de pensiones chileno considerando el periodo 2010-2023.(Universidad de Concepción, 2024) Almendra Gajardo, Mauricio Ignacio; Parada Contzen, MarcelaEn esta memoria de título se extiende el estudio de Harrison, Parada y Villena (2023) centrado en el mecanismo de licitaciones de derechos monopólicos sobre nuevos afiliados, introducido en la Reforma Previsional de 2008 en el sistema de pensiones chileno. El objetivo es analizar el impacto de dichas licitaciones en el mercado de las administradoras de fondos de pensiones, extendiendo el análisis desde 2016 hasta 2023. Luego, se evalúa el impacto de las licitaciones en el mercado. Para el análisis, se recopilan datos del sitio web de la Superintendencia de Pensiones y el Banco Central de Chile. Con la información reunida, se construye una base de datos de panel y se aplican regresiones lineales y logarítmicas. Se utilizan mínimos cuadrados con efectos fijos de tiempo utilizando el software estadístico STATA. Para abordar el impacto de las licitaciones en el mercado, se estiman cuatro modelos empíricos que consideran variables de interés como: comisiones, concentración de mercado, márgenes de ganancia, rentabilidad y premios por riesgo. Los resultados obtenidos en las estimaciones se contrastan con las conclusiones de Harrison, Parada y Villena (2023). Observamos un incremento en la elasticidad-precio de la demanda luego de la implementación de licitaciones. Sin embargo, en ambos estudios se mantiene la conclusión de que la demanda sigue siendo inelástica al precio a pesar del incremento de elasticidad post-licitaciones. Asimismo, para ambos estudios, la implementación de licitaciones es significativa en explicar una baja en las comisiones sólo para las firmas ganadoras. Al considerar sólo las firmas no ganadoras de licitaciones, encontramos que el cambio en el cobro del Seguro de Invalidez y Sobrevivencia (SIS) sigue siendo la única explicación en la variación de comisiones luego de implementadas las licitaciones. También encontramos que las licitaciones tienen un impacto estadísticamente significativo y negativo en los márgenes de ganancia, demostrando que su implementación ha incrementado la competencia en la industria para ambos estudios. Por último, encontramos que la implementación de licitaciones no tiene un impacto en las rentabilidades de los fondos de pensiones, lo que difiere con las conclusiones de Harrison, Parada y Villena (2023).Item Actualización electrónica, modelado y control dinámico del banco de ensayos de hélice de paso variable LTA.(Universidad de Concepción, 2024) Neira Salgado, Benjamín Ignacio; Hernández Vicente, Bernardo AndrésEl presente informe detalla la actualización de la electrónica y rediseño del banco de ensayos de hélice de paso variable, del Laboratorio de técnicas aeroespaciales. con el objetivo mejorar su funcionamiento y control. Contar con un correcto funcionamiento de este banco es fundamental para la formación de ingenieros aeroespaciales, ya que permite de manera practica demostrar cómo funcionan las hélices de paso variable. Para llevar a cabo este proyecto se utilizó la metodología CDIO (concebir, diseñar, implementar y operar). En la fase de concepción, se evaluaron las mejores opciones de mejora para el banco. Posteriormente, se seleccionaron y diseñaron los nuevos componentes, los cuales fueron implementados, calibrados y finalmente puestos en operación. Uno de los principales problemas que presentaba el banco de ensayo era la inexactitud del sensor de RPM, el cual tenía una desviación estándar 124.2 RPM en sus mediciones, Esto afectaba al control del banco y la estabilidad del control. Como solución se instaló un sensor encoder el cual disminuyo la desviación estándar de las mediciones a 13.78 RPM. Para implementar este sensor fue necesario rediseñar soportes y piezas las cuales fueron impresas en 3D. Además, se reemplazaron otros componentes del banco de ensayos. El sistema de paso variable tipo B fue reemplazado por un sistema de paso variable tipo C, eliminando la necesidad de utilizar un motor eléctrico de eje hueco y ampliando las opciones de selección del motor. También se reemplazó el microcontrolador, pasando de un Arduino MEGA a un ESP32, teniendo este una mejora en la memoria y la velocidad de procesamiento de los datos. Para asegurar la correcta medición y funcionamiento de los nuevos componentes instalados, se realizaron calibraciones de las celdas de carga, servo motor y validación de la medición del sensor enconder. Finalmente, se desarrolló de un modelo espacio estado utilizando la herramienta System identification toolbox de MATLAB y se implementó una arquitectura de control multivariable. Obteniendo un error de control de 100.98 RPM y 0.122 [kg mm] de torque, y también un tiempo de estabilización de 1.16 segundos para las RPM y 1.375 para el torque. En conclusión, el proyecto logro reducir con el éxito el error y las oscilaciones en la medición de RPM. Se desarrollo un modelo espacio-estado de segundo orden que modela la respuesta del sistema en 53.91% para el torque y 52.17% para las RPM. Además, se implementó un controlado state-feedback el cual dio como resultado un funcionamiento estable del banco de ensayos, con una baja tasa de error.Item Actualización y validación del modelo de elementos finitos del radiotelescopio Vertex DRD-36 del observatorio ALMA para su análisis estructural bajo condiciones críticas de operación.(Universidad de Concepción, 2024) Moraga Valenzuela, Jaime Francisco; Canales Cárdenas, CristianItem Adsorción de metales pesados en agua usando carbón activado modificado mediante tratamiento ácido(Universidad de Concepción, 2024) Torres Fernández, Catalina Sofía; García, Ximena; Ulloa, Claudia; Valenzuela, FelipeLa contaminación de agua con metales pesados representa un gran problema al medio ambiente y a los seres humanos debido a la toxicidad de estas especies. En la zona norte de Chile se presentan altas concentraciones de cobre, cadmio y plomo en ríos que abastecen agua potable. Dentro de las técnicas de remoción de estas especies en agua, la adsorción mediante carbón activado es una de más las efectivas. La adsorción de metales pesados en carbón activado ocurre principalmente en grupos funcionales oxigenados. La introducción de estos grupos en la superficie del carbón activado se realiza mediante tratamientos ácidos. El objetivo general de este trabajo es evaluar el efecto de la modificación superficial con ácido nítrico de un carbón activado en la adsorción de cobre, cadmio y plomo en agua. Se ensayaron tres métodos distintos de acidificación de la superficie mediante los siguientes equipos: placa calefactora, baño María y rotavapor. Se modificó un carbón activado obtenido de neumáticos fuera de uso, con ácido nítrico 5M por 3 horas a 60°C. Se seleccionó como procedimiento óptimo el uso del rotavapor ya que permite mantener la solución de ácido nítrico y carbón activado en rotación constante y producir una mezcla homogénea. El material original (DMAC) y el modificado (DMAC-HNO3), fueron caracterizados mediante adsorción-desorción de N2 a 77K, punto de carga cero, espectroscopía infrarroja por transformada de Fourier (FTIR) y mediante análisis termogravimétrico y espectroscopia de masa (TGA-MS). Para comparar el porcentaje de remoción de ambos adsorbentes se realizaron test de adsorción en solución monocomponente (solo un metal en solución). El DMAC-HNO3 se sometió a ensayos de equilibrio y cinéticos en solución mono y multicomponente. Los datos experimentales fueron ajustados a modelos de isotermas (Langmuir, Freundlich, Temkin y Dubinin-Radushkevich) y a modelos cinéticos (pseudo-primer orden, pseudo-segundo orden, Elovich y difusión intrapartícula). El DMAC-HNO3 obtuvo un área superficial de 988 m2 g-1, siendo caracterizado como mesoporoso. Se comprobó el aumento de grupos carbonilos y ácidos carboxilos en la superficie del adsorbente luego del tratamiento con ácido nítrico. Por otro lado, se demostró un incremento del porcentaje de remoción de los metales en solución monocomponente empleando el DMAC-HNO3 en comparación a DMAC; Pb(II) aumentó de 94,19% a 99,03%, Cu(II) de 27,90 ± 1,10% a 85,85 ± 0,44% y Cd(II) 5,95 ± 0,03% a 49,97± 3,14%. La isoterma de adsorción en solución monocomponente de los tres iones se ajustó al modelo de Freundlich. En solución multicomponente, el modelo de Freundlich se ajustó satisfactoriamente a los datos experimentales de Cu(II), mientras que, los datos experimentales de Cd(II) y Pb(II) no se ajustaron a ningún modelo. La cinética del Cu(II) en solución monocomponente se ajustó al modelo de pseudo-segundo orden, mientras que Cd(II) y Pb(II) fueron mejor representados por el modelo de Elovich. La cinética en solución multicomponente de los tres iones fue mejor representada por el modelo de Elovich. Esto indica que el mecanismo limitante de la velocidad es la quimisorción de cada metal sobre la superficie del carbón activado. Por otra parte, se obtuvo una disminución de las capacidades III de adsorción de los tres metales en solución multicomponente. El estudio de la selectividad en solución multicomponente demostró que el material DMAC-HNO3 es selectivo hacia Cu(II), obteniendo el siguiente orden de remoción: Cu(II) > Pb(II) > Cd(II). A partir de estos resultados se comprueba la efectividad del tratamiento con ácido nítrico en la adsorción de metales pesados, no obstante, se sugiere profundizar en el proceso de adsorción mediante el estudio de variaciones de pH y las condiciones de modificación con ácido nítrico, que permita obtener capacidades de adsorción mayores en solución multicomponente.Item Adsorción de tolueno en carbón activado. Estudio teórico-experimental preliminar.(Universidad de Concepción, 2024) Vargas Araneda, Ximena Angélica; García, Ximena; Ulloa, Claudia; Zaror, ClaudioLa emisión de compuestos orgánicos volátiles (COVs) por parte de las industrias constituye una significativa fuente de contaminación ambiental. Esta problemática incide directamente en la salud y comodidad de las comunidades circundantes, dando lugar a diversas afecciones atribuidas a concentraciones superiores a los umbrales permitidos de COVs en el entorno. En respuesta a este desafío, la aplicación de la adsorción en carbón activado (CA) ha emergido como una solución destacada debido a su eficacia, bajo costo y capacidad de reutilización. Por ello, se realizó un estudio teórico-práctico que abarcó desde un análisis bibliográfico de investigaciones sobre adsorción de COVs, hasta la definición, diseño y aplicación de un procedimiento experimental, a nivel de laboratorio, para desarrollar experimentos de adsorción de manera replicable. La misma consta de una secuencia de pasos que incluyen: (i) acondicionamiento del CA, (ii) preparación de muestras, (iii) medición de datos y (iv) construcción de la isoterma de adsorción de Tolueno (TOL), seleccionado como compuesto modelo, en CA. Se usaron dos técnicas de análisis, a saber, termogravimetría (TG) y cromatografía de gases (CG). Se confirmó la reproducibilidad del procedimiento experimental seleccionado a través de la realización de 3 pruebas idénticas, las que arrojaron un error cuadrático medio (ECM) de 0,83 (%). Luego, se estudió el comportamiento de la adsorción de TOL en CA a distintas concentraciones, obteniendo la isoterma de adsorción a 22°C, donde la máxima capacidad de adsorción experimental fue de 263 (𝑚𝑔/𝑔), aunque se observó un promedio en 255 (𝑚𝑔/𝑔) como máximo para diferentes concentraciones. Además, se propuso que, por cada microlitro de tolueno, debe haber al menos 7,5 (𝑚𝑔) de CA para asegurar una adsorción sobre el 90%. Finalmente, se ajustaron los datos experimentales a los modelos de Langmuir (LM), Freundlich (FR) y Dubinin-Radushkevich (D-R), obteniendo que el modelo de isoterma D-R fue el que mejor predijo el comportamiento de la adsorción de TOL sobre CA. Se recomienda repetir las pruebas a menor concentración de tolueno, para otra sustancia odorífera, como acetona; utilizar el método de columna dinámica y aplicar tratamientos de mejora al CA como impregnación de Cu.Item Algoritmo automático para la detección de síndrome de QT Largo (SQTL).(Universidad de Concepción, 2024) Fernández Lagos, Paulina Ximena; Pino Quiroga, EstebanEl Síndrome de QT Largo (SQTL) o Long QT Syndrome en inglés, es una afección cardíaca, la cual se caracteriza por una prolongación del intervalo QT. La mayoría de las veces no es visible a simple vista en el ECG, por lo que para su detección se debe segmentar los intervalos QT del ECG. Los métodos automatizados ofrecen ventajas comparados con la detección manual en términos de repetibilidad absoluta de las mediciones, inmunidad de errores relacionados con la fatiga del observador, lapsus de atención y transcripción. Este trabajo busca obtener las mediciones automatizadas de los intervalos QT, para detección de SQTL en la base de datos PTB Diagnostic ECG Database de Physionet. La base de datos consiste en mediciones de registros ECG de pacientes con distintas anomalías de la señal. La motivación es contribuir con desarrollar algoritmos avanzados de diagnóstico para el SQTL, logrando una detección certera del punto Q y el final de la onda T en toda la señal, con el fin de poder obtener resultados válidos mediante un algoritmo automático. Se desarrolló un nuevo algoritmo en Matlab llamado “Kenay QT” en el que se calcula de forma automática la totalidad de los puntos Q y onda T en la señal completa y se obtienen los intervalos QT válidos a lo largo de toda la señal de cada uno de los registros procesados. “Kenay QT” se basa en la búsqueda de los puntos fiduciales en la señal ECG mediante “ Pan and Tompkins”. Se evaluó en los 549 registros de la base de datos el algoritmo “Kenay QT”, obteniendo una visualización gráfica de todos los puntos Q, onda T, y complejo QRS de los registros. Los resultados del intervalo QT son entregados en milisegundos. Al comparar el rendimiento obtenido con los datos publicados utilizando la misma base de datos, se obtuvo una puntuación final (la diferencia RMS entre los intervalos QT de referencia y los intervalos QT correspondientes) de 16,05 ms, mejor que la puntuación obtenida mediante un método automatizado de código abierto de Yuriy Chesnokov quien obtuvo una puntuación final de 17,33 ms. El algoritmo desarrollado demuestra tener mejor puntuación y rendimiento en la detección de intervalos QT, facilitando la detección del SQTL, cumpliendo con los objetivos planteados en esta memoria.Item Algoritmo de aprendizaje automático para el estudio de la asociación entre enfermedad cardiovascular y depresión.(Universidad de Concepción., 2023) Navarro Araneda, Rodrigo Ignacio; Figueroa I., RosaDesde hace 20 años las enfermedades cardiovasculares son la principal causa de muerte a nivel global y en Chile son las responsables de un 25.6% de defunciones. Por su parte, la depresión es la principal causa de baja laboral, afectado a más de 450 millones de personas a nivel global, y en Chile se estima que un 15.8% de la población la padece. La base de datos CHS posee datos de 20 años, más de 300 variables y un aproximado de 5000 pacientes adultos mayores con enfermedades cardiovasculares, siendo al año 2000 el estudio longitudinal más extenso realizado nunca. Se utilizaron los algoritmos de aprendizaje automático Random Forest y Red Neuronal Artificial para realizar un estudio de las variables que predicen la fatalidad por enfermedades cardiovasculares y aquellas que predicen la depresión. El ensamble de ambos algoritmos permitió encontrar variables predictoras de depresión cuyo origen es cardiovascular, sin encontrar a la depresión como un predictor directo de las enfermedades cardiovasculares.Item Algoritmo de conjugación bacteriana con enfrentamiento(Universidad de Concepción., 2016) Torres Méndez, Claudio Antonio; Pinninghoff Junemann, María AngélicaLas bacterias han existido en la tierra desde hace aproximadamente 3500 millones de años, sobrevivieron las cinco extinciones masivas de animales y logran vivir en las condiciones más extremas del planeta. Todo esto se debe a que han logrado adaptarse al ambiente. Las buenas características que poseen las bacterias lograron que surgiera el Algoritmo de conjugación bacteriana, una nueva Metaheurística basada en la interacción de bacterias. El objetivo de esta memoria es unir los siguientes modelos: Algoritmo de conjugación Bacteriana (ACB) y Algoritmo Metaheurístico Basado en Evolución horizontal de microorganismos. El resultado es el algoritmo de conjugación bacteriana con enfrentamiento (ACBCE), cuya efectividad fue probada en CVRP utilizando las instancias de Augerat. Los resultados que obtuvo el ACBCE se compararon con los que obtuvieron los modelos de Algoritmos genéticos (AG), Algoritmo de Colonia Artificial de Abejas (ABC) y el Algoritmo de Conjugación Bacteriana con Control de la Población (ACBCP). Los resultados mostraron que los valores obtenidos por el ACBCE fueron cercanos a AG y ABC y superior en todas las instancias al ACBCP.Item Algoritmo de estimación de movimientos de los dedos de la mano a través de un arreglo de sensores de electromiografía superficial(Universidad de Concepción., 2014) Germany Morrison, Enrique Ignacio; Pino Quiroga, Esteban JavierLa prost´etica es la disciplina encargada de generar dispositivos para reemplazar partes del cuerpo que se han perdido por accidentes traum´aticos o por problemas cong´enitos. Desde siglos se han ido desarrollando diversos prototipos de dispositivos y con el paso del tiempo y la integraci ´on tecnol´ogica, han aumentado sus grados de destreza y capacidad para asimilar movimientos m´as completos y naturales. El control mioel´ectrico ha permanecido como el principal m´etodo de control a utilizar por diversos desarrolladores a lo largo del mundo, sin embargo, no es suficiente, ya que el funcionamiento muscular es complejo, por lo que herramientas avanzadas son utilizadas para intentar decodificar de buena forma la intenci´on del usuario de la pr´otesis. En este trabajo se abarca la aproximaci´on de control mioel´ectrico, adoptando un cambio de paradigma desde el control discreto entre clases definidas, decodificadas mediante reconocimiento de patrones, a un mecanismo de estimaci´on continua utilizando funciones de mapeo. El sistema se compone de dos partes, primero una secci´on de hardware que realiza la adquisici ´on de datos y segundo, una secci´on software que realiza la estimaci´on de posici´on. La parte de hardware permite de forma simult´anea registrar se˜nales de electromiograf´ıa (EMG) y de referencia del posicionamiento de los dedos de la mano. Las se˜nales son adquiridas mediante un electromi´ografo de 8 canales y un guante con sensores de flexi´on respectivamente. La parte de software debe digitalizar y guardar los datos a modo de utilizarlos en an´alisis posteriores. Utilizando MATLAB se procesaron las se˜nales y se dise˜n´o e implement´o un modelo de redes neuronales artificiales para estimar, desde las se˜nales de EMG, las posiciones de cada dedo de forma independiente. Las se˜nales estimadas se validaron mediante an´alisis de correlaci´on, con respecto a las se˜nales de referencia del guante. Los resultados avalan que este m´etodo logra de buena forma generar una relaci´on entre la actividad muscular y la posici´on de cada dedo de forma independiente, lo que otorga mayor libertad de movimientos y no requiere estados discretos que limitan al sistemaItem Algoritmo de identificación de las posiciones para la poda de las parras mediante técnicas de procesamiento de imágenes usando sensor kinect(Universidad de Concepción., 2014) Faúndez Báez, Iván Andrés; Sbárbaro Hofer, DanielEn la presente Memoria de Título se desarrolla un nuevo sistema de visión artificial capaz de identificar los puntos óptimos de poda para las parras de uva. Para llevar a cabo este concepto se trabajó con el dispositivo Microsoft Kinect, aprovechando así sus potenciales características que nos entregan valiosa información tridimensional de la escena enfocada. Para la calibración del dispositivo se utilizó el toolbox para Matlab desarrollado por Daniel Herrera[16] junto con la interfaz gráfica desarrollada en la Memoria de Título de C. Hernandez [7] con la cual se obtiene la data en unidades de ingeniería. Los datos son procesados en un computador portátil con el sistema operativo Linux Debían Squeeze 6.0.5. Además se instaló el software Matlab R2012a para la programación del algoritmo y creación de la interfaz de usuario. El set up experimental se constituyó con el sensor montado sobre un trípode frente a una parra real fijada en un pedestal y un telón blanco fue fijado en una de las paredes del Laboratorio de Control del DIE-UDEC. El algoritmo se encuentra basado primeramente en la binarización de la imagen, logrando así mayor eficiencia de cálculo. Luego en el análisis de imágenes se crearon diversos métodos para localizar las principales secciones de la planta como lo son el cordón, las ramas y los nodos. Además se llevó a cabo la reconstrucción en tres dimensiones de la parra, aprovechando de esta forma las imágenes de disparidad entregadas por el sensor Kinect. Finalmente se presenta una interfaz de usuario, donde se asignaron las diversas funciones del algoritmo a cada uno de los botones en este HMI. Los resultados obtenidos permiten concluir que a través de la visión por computador y eligiendo buenas técnicas de análisis de imagen se logra la creación de un algoritmo capaz de tomar buenas decisiones en la poda de la vid, esto siempre y cuando se sigan de buena manera las consideraciones del algoritmo, como por ejemplo elegir un umbral correcto para la binarización de la imagen, disponer de un telón para la segmentación de esta y tomar los resguardos indicados para localizar correctamente cada sección de la parra. Además, la reconstrucción 3D se llevó a cabo con éxito mediante las imágenes de disparidad proporcionadas por el dispositivo Microsoft Kinect, usando así uno de los avances tecnológicos mas actuales que ha salido al mercado de las videoconsolas, pero empleado en esta ocasión para el desarrollo del algoritmo que se describe en este informe.Item Algoritmo de ranking para complejos de proteínas basado en características fisioquímicas.(Universidad de Concepción., 2018) Valenzuela Figueroa, Felipe E.; Hernández Rivas, CeciliaIdentificar y describir la interacción entre proteínas es un problema ampliamente estudiado. Si un grupo de proteínas trabaja en conjunto es llamado complejo de proteínas (PC), y regularmente está asociado a una función específica. Existen herramientas computacionales que predicen complejos de proteína desde muchos enfoques. El resultado de estos predictores de complejos puede ser validado utilizando los Gold Standard Dataset (GSD), que son catálogos de referencia que incluyen información de proteínas experimentalmente aisladas, estudiadas y documentadas. De esta validación los resultados del predictor se clasifican como verdaderos positivos (VP) cuando están descritos en los GSD ó falsos positivos (FP) cuando no lo están. Un resultado del predictor clasificado como FP puede interpretarse como un complejo no descubierto o con poca documentación experimental, por ese motivo, los FP son un grupo interesante de estudio. El problema, es muy costosa la validación experimental de un complejo, por eso evaluar experimentalmente los FP debe planificarse y no hacerse aleatoriamente. Este trabajo propone un algoritmo de ranking para resultados FP basado en técnicas como el alineamiento estructural múltiple de proteínas (MPStrA) y el cálculo de índices fisicoquímicos de las proteínas. La función de orden del ranking busca dar el primer lugar de la lista al resultado FP que tenga más probabilidad de ser complejo, luego al segundo lugar más probabilidad que el tercero y así sucesivamente. Los resultados del algoritmo fueron exitosos al identificar resultados FP que fueron documentados como complejos posterior al año de la referencia de proteínas usada.Item Algoritmo de segmentación automática de las fibras cerebrales cortas de la región fronto-parietal y la ínsula(Universidad de Concepción., 2015) Guevara Olivares, Miguel Enrique; Guevara Álvez, Pamela BeatrizLa clasificación de fibras de materia blanca cerebral es fundamental para entender como está conectado el cerebro. Este es uno de los órganos más complejos y, por lo tanto, más díficil de estudiar. En especial, el estudio de las fibras de asociación cortas es un área reciente dentro de la investigación de la conectividad cerebral, por lo que éstas han sido escasamente descritas. Este trabajo busca desarrollar un algoritmo para estudiar la conectividad del cerebro entre distintos pares de regiones del hemisferio izquierdo del cerebro. Este tiene que ser capaz de segmentar de manera automática las fibras de asociación cortas del cerebro, a partir de datos de tractografía reclusterizados y utilizando parcelaciones de la superficie cortical. De manera general el trabajo constó de procesamientos manuales y automáticos. Los manuales involucraron el análisis de los resultados generados automáticamente, buscando un refinamiento de estos. Un poco más específicamente, el trabajo incluyó primero la generación de un modelo de las fibras cortas de asociación. Para esto se utilizaron los datos de tractografía de 20 sujetos de una base de datos de imágenes de difusión de alta resolución angular. Estos datos fueron segmentados y clusterizados para la generación del modelo. Segundo, este modelo fue utilizado para generar un atlas y a partir de éste, segmentar de manera automática 20 nuevos sujetos de la base de datos. Además, se realizaron cálculos de estadísticas con respecto a la cantidad de sujetos en los cuales estaban presentes los fascículos de fibras, la cantidad de fibras promedio y el largo que éstas presentan, etc. En el modelo se obtuvieron 45 fascículos de fibras. Y en base a la reproductibilidad (cantidad de sujetos en los cuales se encuentra presente un fascículo), la desviación estándar relativa de la cantidad de fibras y una inspección manual, se calificaron 15 de estos como los más estables. En cuanto a los resultados de la aplicación del atlas, se obtuvieron 28 fascículos para los cuales la reproductibilidad es de 20 y de estos, 14 corresponden a los que habían sido calificados como los más estables. Entre estos resultados destacaron las conexiones de la ínsula con circunvoluciones adyacentes, por ser poco descritas en la literatura. Estas demostraron tener una alta reproductibilidad de 19/20 y 20/20 junto con una baja desviación estándar relativa del número de fibras que las componen. Tambíen destacan, por ejemplo, las conexiones de la región superior frontal con el área de broca ya que estas si han sido descritas con mayor detalle en la literatura, y en el trabajo desarrollado se obtuvieron resultados con II reproductibilidad 20/20. El trabajo realizado permite facilitar el estudio de conexiones específicas, lo que podría ayudar en el diagnóstico de patologías. La ventaja que tiene el desarrollo de un método de segmentación automático, es que puede ser aplicado fácilmente a nuevos sujetos.Item Un algoritmo para resolver el problema del vendedor viajero con ventanas de tiempo para servicios postales.(Universidad de Concepción., 2022) Garcés Guzmán, José Tomás; Contreras Bolton, Carlos EmilioEsta memoria de título tiene como objetivo estudiar el problema del vendedor viajero con ventanas de tiempo aplicado al caso de los servicios postales, y elaborar una metaheurística para resolver el problema. Este problema es una variante del problema clásico del vendedor viajero que consiste en minimizar el costo de una ruta hamiltoniana con una restricción adicional, que consiste en la existencia de ventanas de tiempo para cada uno de los destinos en la ruta, generándose un aumento en la dificultad en la resolución. Esta dificultad se debe a que al llegar a un destino de forma prematura, se genera un aumento en el costo de la ruta y además, el arribo posterior al cierre de la ventana de tiempo produce una ruta no factible. En los servicios postales por lo general existen dos tipos de entregas, la paquetería y las cartas, para ambos casos la industria busca optimizar las rutas de entrega para reducir los costos operativos y de mano de obra. Además, existen muchos casos en los que el cliente tiene un tiempo acotado para recibir su entrega. Para resolver este problema se propone un algoritmo basado en una búsqueda local iterada. Este algoritmo trabaja con penalizaciones, perturbaciones y búsquedas locales. Los resultados de la metaheurística muestran buenos rendimientos hasta las instancias de 60 nodos.Item Algoritmos paralelos para sketches de cardinalidad y cuentas.(Universidad de Concepción, 2024) Salini Irribarra, Estefano Alessandro; Hernández Rivas, Cecilia; Figueroa Toro, MiguelEl trabajo exploró el uso de algoritmos de streaming en el contexto de tráficos de red, estimándose la entropía de esta ya que es una medida que sirve para detectar ataques de red. Se implementaron algoritmos de streaming con sketches para la estimación de frecuencias y entropía de trazas de red, con el propósito de mejorar el tiempo de ejecución, el uso de memoria, y/o la precisión en la estimación. Se utilizan sketches ya que los streams de datos son muy grandes, y no es factible guardar en memoria la frecuencia de cada elemento del stream. La solución actual utiliza el sketch CountMin-CU junto a colas de prioridad de tamaño estático (que descartan los elementos menos frecuentes cuando la estructura esta llena y se inserta un nuevo elemento), para la estimación de frecuencias, junto al sketch HyperLogLog, para la estimación de la cardinalidad, para así en conjunto estimar la entropía. Se probó utilizar una modificación que extiende el algoritmo HyperLogLog, permitiendo calcular el histograma de frecuencias de una muestra del stream de datos, para estimar la entropía total y la contribución a la entropía de los elementos descartados por las colas de prioridad asociadas al sketch CountMin-CU. Se propuso también utilizar múltiples sketches CountMin-CU o TowerSketch-CU en conjunto con el sketch HyperLogLog para estimar la entropía. Nuestra implementación del sketch HyperLogLog fue modificada para reducir el uso de memoria en un 33 %. Se encontró que el algoritmo que extiende el sketch HyperLogLog guarda una muestra relativamente representativa del stream de datos, pero que la estimación de la entropía mediante el uso de esta muestra da malos resultados. Se encontró que no hay diferencias en la estimación de la entropía mediante el uso de uno o múltiples sketches CountMin-CU o TowerSketch-CU. Sin embargo, el uso de múltiples sketches CountMin-CU o TowerSketch-CU permite la lectura paralela de las trazas de red mediante OpenMP. Se probó también el algoritmo HyperLogLogLog, una modificación al algoritmo HyperLogLog que reduce el uso de memoria. Se encontró que no reduce el uso de memoria más que nuestra implementación del sketch Hyper-LogLog. Nuestros resultados indican que implementar el algoritmo utilizando múltiples sketches en una arquitectura con múltiples pipelines (equivalentes a hebras de CPU) reduciría el tiempo de ejecución.Item Almacenamiento de hidrógeno en carbón activado obtenido de carbón mineral. Efecto de la adición de Ni y Cu como promotores metálicos.(Universidad de Concepción., 2023) Romero Cifuentes, Gabriel Franco; García C., Ximena; Ulloa T., ClaudiaEl hidrógeno emerge como una opción altamente prometedora ante los apremiantes problemas climáticos. Sin embargo, surge una complicación central relacionada con su almacenamiento, ya que las formas convencionales presentan diversas limitaciones. Recientemente, la investigación científica se ha focalizado en el almacenamiento mediante materiales sólidos, específicamente en el carbón activado. Además, se sugiere que la introducción de metales podría ser una estrategia beneficiosa para mejorar este proceso de almacenamiento. En este contexto, se llevó a cabo un estudio para investigar cómo la adición de Ni y Cu en un carbón activado derivado de carbón mineral activado químicamente con NaOH, influye en el almacenamiento de hidrógeno. Los carbones activados fueron dopados con diferentes niveles de carga de metal: 0,5%, 1,0%, 1,5%, 2,5% y 5,0% en masa. Para caracterizar los carbones preparados, se realizaron pruebas de adsorción de nitrógeno a 77 K, con el fin de determinar parámetros cruciales como el área superficial BET y el volumen de microporos. Así mismo, se efectuaron pruebas de adsorción de hidrógeno a 77 K y 1 bar. Además, se aplicaron otros análisis con el propósito de obtener información adicional. Estos incluyen análisis elemental e inmediato, TEM y un análisis teórico aplicando el modelo de adsorción de Dubinin-Astakhov [56]. Los resultados demostraron que los carbones dopados, tanto con Ni y Cu presentaron una mayor porosidad en comparación al carbón sin dopar, lo cual se traduce en una mayor área BET. La forma de las isotermas de adsorción de nitrógeno de las muestras dopadas no presentó ninguna variación respecto de los carbones base, salvo en el caso del 5 Ni-CA, las isotermas fueron de tipo I y tipo IV según los criterios de la IUPAC. Se comprobó además una relación lineal entre el área BET y el volumen de microporos. El análisis TEM proporcionó un rango de tamaño de partícula que varió entre 14-7 nm, destacando que la muestra 2,5 Cu-CA exhibió este último valor. Con respecto a la adsorción de hidrógeno, se plantea la posibilidad de que la introducción de metal tenga un impacto restringido a condiciones de 77 K y 1 bar, lo cual podría estar influenciado por taponamiento de los poros. Esto se evidencia en el hecho de que la muestra de mayor desempeño fue 1,5-Ni-CA, alcanzando un valor del 2,51 % en peso de H2, lo que representa un aumento de solo un 1,6 % en comparación con la muestra sin dopar. Finalmente se logró proyectar los datos experimentales del carbón activado a condiciones de elevadas presiones y diversas temperaturas. Como resultado, se obtuvo un valor de 8,74% en peso a 100 bar, mientras que se registró un valor de 0,69% en peso a 298 K y 100 bar.Item Alternativas de extracción de litio para salmueras de SQM Salar(Universidad de Concepción., 2018) Gutiérrez Parra, Gabriel Enrique; Parada Luna, FernandoEn este estudio se presentan alternativas para el procesamiento de salmueras de litio extraídas desde el salar de Atacama por SQM. El proceso actual efectuado por la compañía presenta oportunidades de mejoras en torno al rendimiento de litio, recuperación de agua y disminución de volúmenes de precipitación de impurezas. A partir de la investigación realizada se seleccionaron cinco alternativas para su análisis. Se consideraron tres alternativas de extracción por solventes, dos alternativas de adsorción y una última de electrólisis. Las alternativas de extracción por solventes se plantean para distintas composiciones de salmuera y podría aplicarse en distintas etapas del proceso actual de SQM. La primera alternativa consta de extracción de litio desde una salmuera con alto contenido de sodio utilizando como extractantes HBTA y TOPO, las siguientes dos alternativas se estudian a partir de una salmuera con alto contenido de magnesio, en una se utiliza TBP y cloruro férrico mientras que en la otra se utiliza TBP, perclorato de sodio y un líquido iónico (IL). Las siguientes dos alternativas se refieren al estudio de dos tipos de adsorbentes de litio empleados con salmueras de composiciones similares a las del salar de Atacama, lo que permitiría preliminarmente disminuir la tasa de evaporación solar, aumentar el rendimiento de litio y disminuir el volumen de precipitados distintos del carbonato de litio. El primer adsorbente corresponde a alúmina hidratada mientras que el segundo reactivo es un dióxido de titanio hidratado. Por último, se presenta una alternativa de obtención de hidróxido de litio a través de una etapa de electrólisis de salmuera purificada que evita depender de la producción de carbonato de litio y todas las etapas asociadas a ello. A partir de las alternativas planteadas se realiza un análisis comparativo de los distintos métodos de extracción de litio y se propone realizar las pruebas que presentan resultados más promisorios en referencia a las necesidades de SQM. Las alternativas seleccionadas corresponden al método de adsorción de litio utilizando alúmina hidratada a partir de una salmuera extraída directamente desde el salar de Atacama o en salmueras de procesos posteriores, y se selecciona además, la alternativa de extracción por solventes utilizando cloruro férrico y TBP debido al alto poder de selectividad de litio por sobre magnesio. Se realiza la proposición de las pruebas experimentales para llevarlas a cabo en instalaciones de SQM y evaluar sus resultados.