Tesis Pregrado
Permanent URI for this collection
Browse
Browsing Tesis Pregrado by Title
Now showing 1 - 20 of 829
Results Per Page
Sort Options
Item Aceleración de Metabat mediante la integración de compresores GPU Nvidia.(Universidad de Concepción, 2024) Caro Quijada, Hernán Vicente; Hernández, CeciliaUn problema del área de la Metagenómica es la identificación de los diversos genomas encontrados en muestras obtenidas del ambiente, esto se debe a que las muestras contienen una gran cantidad de material genético que puede pertenecer a diversos microorganismos. MetaBAT es una herramienta desarrollada en C++ utilizada para resolver dicho problema, ya que recibe como entrada las muestras procesadas en forma de contigs, para posteriormente entregar como resultado clusters de contigs, donde cada cluster constituye las secuencias genómicas de un genoma. El aporte de esta herramienta es de utilidad en el contexto ecológico y en particular, en el estudio de microorganismos del ser humano, el trabajo realizado por los investigadores de esta área puede resultar muy beneficioso para lograr el diagnóstico, tratamiento y control de enfermedades que pueden provocar dichos microorganismos. Cómo se puede presumir los datasets utilizados por MetaBAT son de gran magnitud, es por ello que en esta memoria de título se llevó a cabo el análisis e integración de compresores de datos acelerados por GPU NVIDIA, con el propósito de disminuir el tiempo de compresión y descompresión de estos. Además, se abordó la fase de clustering en MetaBAT con un algoritmo igualmente acelerado por GPU NVIDIA, para disminuir el tiempo de procesamiento del clustering a la vez que se conserva una calidad del resultado similar a la original.Item Acelerador hardware para estimación de cuantiles en tráfico de redes.(Universidad de Concepción, 2024) Gallardo Pavesi, Carolina Sofía; Figueroa T., Miguel; Hernández R., CeciliaLas propiedades estadísticas del tráfico, tales como los cuantiles, entre los cuales se encuentran la mediana y el percentil 99, y la función de distribución acumulativa, nos ayudan a entender la distribución del tráfico y detectar anomalías a corto y largo plazo. Sin embargo, calcular de manera exacta el valor de estas propiedades es costoso en términos de espacio y tiempo. Particularmente, en el caso de los percentiles distintos de 0 y 100, es imposible encontrar una solución exacta en una pasada sin almacenar todos los datos. Utilizar un acelerador hardware basado en arreglos de lógica programable (FPGA, del inglés Field Programmable Gate Array) nos permite enfrentar la necesidad de procesar un stream de paquetes a alta velocidad y producir resultados con baja latencia. Sin embargo, la memoria interna disponible en estos dispositivos es limitada, por lo que almacenar todos los elementos no es una opción viable. Para responder a este problema, se han propuesto algoritmos basados en sketches: estructuras probabilísticas compactas que utilizan un espacio de memoria sublineal para estimar una propiedad con una cota de error predeterminada. Este trabajo presenta la arquitectura de un acelerador hardware para la estimación de cuantiles usando un algoritmo basado en sketches. La arquitectura propuesta se basa en la estructura general del sketch KLL presentado por Karnin et al. [1]. Implementamos la arquitectura en una tarjeta de desarrollo Xilinx Alveo U55C, la cual contiene un FPGA Virtex™ XCU55 UltraScale+, obteniendo un tiempo de ejecución total por lo menos 35 veces menor que el tiempo de ejecución total de la implementación en software del algoritmo modificado, y una aceleración mínima de 37 veces en cuanto al tiempo de inserción de elementos al sketch. El acelerador puede operar a una frecuencia de reloj de máxima 325.2 MHz, lo que equivale a una tasa mínima de 166 Gbps (gigabits por segundo). Mostramos empíricamente que las estimaciones mantienen una buena precisión, respetando las cotas de error cuando el número de paquetes de la traza es lo suficientemente parecido al número de elementos para el que dimensionamos el sketch.Item Actualización de la instrumentación de la planta de vapor del laboratorio de termofluidos.(Universidad de Concepción, 2024) Jara Contreras, Martín Alonso; Farías Fuentes, ÓscarLa Planta de Vapor del Laboratorio de Termofluidos de la Universidad ha estado en operación por más de 50 años, siendo fundamental para la formación profesional de los estudiantes, ya que cuenta con los componentes principales de una central termoeléctrica. Sin embargo, no ha experimentado cambios significativos en los instrumentos de medición, por lo que se requiere modernizar dichos equipos e implementar un sistema local que registre los datos de manera continua. El propósito del presente trabajo consiste proponer mejoras en la instrumentación de la Planta de Vapor para la enseñanza práctica de las asignaturas relacionadas con el área de Termofluidos. Conforme a esto, se lleva a cabo un diagnóstico de la central basado en mediciones históricas y en los balances de masa y energía del ciclo, los cuales fueron resueltos mediante un programa EES. Este análisis resalta las variables críticas y los equipos con errores significativos, identificando que el circuito de generación presenta los mayores márgenes de error. La implementación incluye la instalación de 10 transmisores de presión, 13 transmisores de temperatura, 4 flujómetros, 1 analizador de corriente y un sistema de monitoreo de variables con pantalla táctil, entre otros. Posteriormente, se analiza la percepción de los estudiantes mediante una encuesta que muestra la visualización de las variables del sistema local, obteniendo resultados positivos en cuanto a la claridad y facilidad de interpretación de datos. En términos de mejora de precisión, se logra reducir el error del rendimiento del ciclo a un 10% de su valor original, y se alcanza una disminución del 95% en el error del rendimiento de la turbina. Finalmente, se diseñan protocolos de ensayo para las asignaturas del área de Termofluidos, esquematizando las experiencias de laboratorio de acuerdo con la taxonomía de Bloom y vinculando los resultados de aprendizaje con los indicadores clave de desempeño establecidos para la carrera de Ingeniería Civil Mecánica.Item Actualización del análisis empírico del impacto de las licitaciones de derechos monopolíticos sobre afiliados nuevos en el sistema de pensiones chileno considerando el periodo 2010-2023.(Universidad de Concepción, 2024) Almendra Gajardo, Mauricio Ignacio; Parada Contzen, MarcelaEn esta memoria de título se extiende el estudio de Harrison, Parada y Villena (2023) centrado en el mecanismo de licitaciones de derechos monopólicos sobre nuevos afiliados, introducido en la Reforma Previsional de 2008 en el sistema de pensiones chileno. El objetivo es analizar el impacto de dichas licitaciones en el mercado de las administradoras de fondos de pensiones, extendiendo el análisis desde 2016 hasta 2023. Luego, se evalúa el impacto de las licitaciones en el mercado. Para el análisis, se recopilan datos del sitio web de la Superintendencia de Pensiones y el Banco Central de Chile. Con la información reunida, se construye una base de datos de panel y se aplican regresiones lineales y logarítmicas. Se utilizan mínimos cuadrados con efectos fijos de tiempo utilizando el software estadístico STATA. Para abordar el impacto de las licitaciones en el mercado, se estiman cuatro modelos empíricos que consideran variables de interés como: comisiones, concentración de mercado, márgenes de ganancia, rentabilidad y premios por riesgo. Los resultados obtenidos en las estimaciones se contrastan con las conclusiones de Harrison, Parada y Villena (2023). Observamos un incremento en la elasticidad-precio de la demanda luego de la implementación de licitaciones. Sin embargo, en ambos estudios se mantiene la conclusión de que la demanda sigue siendo inelástica al precio a pesar del incremento de elasticidad post-licitaciones. Asimismo, para ambos estudios, la implementación de licitaciones es significativa en explicar una baja en las comisiones sólo para las firmas ganadoras. Al considerar sólo las firmas no ganadoras de licitaciones, encontramos que el cambio en el cobro del Seguro de Invalidez y Sobrevivencia (SIS) sigue siendo la única explicación en la variación de comisiones luego de implementadas las licitaciones. También encontramos que las licitaciones tienen un impacto estadísticamente significativo y negativo en los márgenes de ganancia, demostrando que su implementación ha incrementado la competencia en la industria para ambos estudios. Por último, encontramos que la implementación de licitaciones no tiene un impacto en las rentabilidades de los fondos de pensiones, lo que difiere con las conclusiones de Harrison, Parada y Villena (2023).Item Actualización y validación del modelo de elementos finitos del radiotelescopio Vertex DRD-36 del observatorio ALMA para su análisis estructural bajo condiciones críticas de operación.(Universidad de Concepción, 2024) Moraga Valenzuela, Jaime Francisco; Canales Cárdenas, CristianItem Adsorción de metales pesados en agua usando carbón activado modificado mediante tratamiento ácido(Universidad de Concepción, 2024) Torres Fernández, Catalina Sofía; García, Ximena; Ulloa, Claudia; Valenzuela, FelipeLa contaminación de agua con metales pesados representa un gran problema al medio ambiente y a los seres humanos debido a la toxicidad de estas especies. En la zona norte de Chile se presentan altas concentraciones de cobre, cadmio y plomo en ríos que abastecen agua potable. Dentro de las técnicas de remoción de estas especies en agua, la adsorción mediante carbón activado es una de más las efectivas. La adsorción de metales pesados en carbón activado ocurre principalmente en grupos funcionales oxigenados. La introducción de estos grupos en la superficie del carbón activado se realiza mediante tratamientos ácidos. El objetivo general de este trabajo es evaluar el efecto de la modificación superficial con ácido nítrico de un carbón activado en la adsorción de cobre, cadmio y plomo en agua. Se ensayaron tres métodos distintos de acidificación de la superficie mediante los siguientes equipos: placa calefactora, baño María y rotavapor. Se modificó un carbón activado obtenido de neumáticos fuera de uso, con ácido nítrico 5M por 3 horas a 60°C. Se seleccionó como procedimiento óptimo el uso del rotavapor ya que permite mantener la solución de ácido nítrico y carbón activado en rotación constante y producir una mezcla homogénea. El material original (DMAC) y el modificado (DMAC-HNO3), fueron caracterizados mediante adsorción-desorción de N2 a 77K, punto de carga cero, espectroscopía infrarroja por transformada de Fourier (FTIR) y mediante análisis termogravimétrico y espectroscopia de masa (TGA-MS). Para comparar el porcentaje de remoción de ambos adsorbentes se realizaron test de adsorción en solución monocomponente (solo un metal en solución). El DMAC-HNO3 se sometió a ensayos de equilibrio y cinéticos en solución mono y multicomponente. Los datos experimentales fueron ajustados a modelos de isotermas (Langmuir, Freundlich, Temkin y Dubinin-Radushkevich) y a modelos cinéticos (pseudo-primer orden, pseudo-segundo orden, Elovich y difusión intrapartícula). El DMAC-HNO3 obtuvo un área superficial de 988 m2 g-1, siendo caracterizado como mesoporoso. Se comprobó el aumento de grupos carbonilos y ácidos carboxilos en la superficie del adsorbente luego del tratamiento con ácido nítrico. Por otro lado, se demostró un incremento del porcentaje de remoción de los metales en solución monocomponente empleando el DMAC-HNO3 en comparación a DMAC; Pb(II) aumentó de 94,19% a 99,03%, Cu(II) de 27,90 ± 1,10% a 85,85 ± 0,44% y Cd(II) 5,95 ± 0,03% a 49,97± 3,14%. La isoterma de adsorción en solución monocomponente de los tres iones se ajustó al modelo de Freundlich. En solución multicomponente, el modelo de Freundlich se ajustó satisfactoriamente a los datos experimentales de Cu(II), mientras que, los datos experimentales de Cd(II) y Pb(II) no se ajustaron a ningún modelo. La cinética del Cu(II) en solución monocomponente se ajustó al modelo de pseudo-segundo orden, mientras que Cd(II) y Pb(II) fueron mejor representados por el modelo de Elovich. La cinética en solución multicomponente de los tres iones fue mejor representada por el modelo de Elovich. Esto indica que el mecanismo limitante de la velocidad es la quimisorción de cada metal sobre la superficie del carbón activado. Por otra parte, se obtuvo una disminución de las capacidades III de adsorción de los tres metales en solución multicomponente. El estudio de la selectividad en solución multicomponente demostró que el material DMAC-HNO3 es selectivo hacia Cu(II), obteniendo el siguiente orden de remoción: Cu(II) > Pb(II) > Cd(II). A partir de estos resultados se comprueba la efectividad del tratamiento con ácido nítrico en la adsorción de metales pesados, no obstante, se sugiere profundizar en el proceso de adsorción mediante el estudio de variaciones de pH y las condiciones de modificación con ácido nítrico, que permita obtener capacidades de adsorción mayores en solución multicomponente.Item Adsorción de tolueno en carbón activado. Estudio teórico-experimental preliminar.(Universidad de Concepción, 2024) Vargas Araneda, Ximena Angélica; García, Ximena; Ulloa, Claudia; Zaror, ClaudioLa emisión de compuestos orgánicos volátiles (COVs) por parte de las industrias constituye una significativa fuente de contaminación ambiental. Esta problemática incide directamente en la salud y comodidad de las comunidades circundantes, dando lugar a diversas afecciones atribuidas a concentraciones superiores a los umbrales permitidos de COVs en el entorno. En respuesta a este desafío, la aplicación de la adsorción en carbón activado (CA) ha emergido como una solución destacada debido a su eficacia, bajo costo y capacidad de reutilización. Por ello, se realizó un estudio teórico-práctico que abarcó desde un análisis bibliográfico de investigaciones sobre adsorción de COVs, hasta la definición, diseño y aplicación de un procedimiento experimental, a nivel de laboratorio, para desarrollar experimentos de adsorción de manera replicable. La misma consta de una secuencia de pasos que incluyen: (i) acondicionamiento del CA, (ii) preparación de muestras, (iii) medición de datos y (iv) construcción de la isoterma de adsorción de Tolueno (TOL), seleccionado como compuesto modelo, en CA. Se usaron dos técnicas de análisis, a saber, termogravimetría (TG) y cromatografía de gases (CG). Se confirmó la reproducibilidad del procedimiento experimental seleccionado a través de la realización de 3 pruebas idénticas, las que arrojaron un error cuadrático medio (ECM) de 0,83 (%). Luego, se estudió el comportamiento de la adsorción de TOL en CA a distintas concentraciones, obteniendo la isoterma de adsorción a 22°C, donde la máxima capacidad de adsorción experimental fue de 263 (𝑚𝑔/𝑔), aunque se observó un promedio en 255 (𝑚𝑔/𝑔) como máximo para diferentes concentraciones. Además, se propuso que, por cada microlitro de tolueno, debe haber al menos 7,5 (𝑚𝑔) de CA para asegurar una adsorción sobre el 90%. Finalmente, se ajustaron los datos experimentales a los modelos de Langmuir (LM), Freundlich (FR) y Dubinin-Radushkevich (D-R), obteniendo que el modelo de isoterma D-R fue el que mejor predijo el comportamiento de la adsorción de TOL sobre CA. Se recomienda repetir las pruebas a menor concentración de tolueno, para otra sustancia odorífera, como acetona; utilizar el método de columna dinámica y aplicar tratamientos de mejora al CA como impregnación de Cu.Item Algoritmo automático para la detección de síndrome de QT Largo (SQTL).(Universidad de Concepción, 2024) Fernández Lagos, Paulina Ximena; Pino Quiroga, EstebanEl Síndrome de QT Largo (SQTL) o Long QT Syndrome en inglés, es una afección cardíaca, la cual se caracteriza por una prolongación del intervalo QT. La mayoría de las veces no es visible a simple vista en el ECG, por lo que para su detección se debe segmentar los intervalos QT del ECG. Los métodos automatizados ofrecen ventajas comparados con la detección manual en términos de repetibilidad absoluta de las mediciones, inmunidad de errores relacionados con la fatiga del observador, lapsus de atención y transcripción. Este trabajo busca obtener las mediciones automatizadas de los intervalos QT, para detección de SQTL en la base de datos PTB Diagnostic ECG Database de Physionet. La base de datos consiste en mediciones de registros ECG de pacientes con distintas anomalías de la señal. La motivación es contribuir con desarrollar algoritmos avanzados de diagnóstico para el SQTL, logrando una detección certera del punto Q y el final de la onda T en toda la señal, con el fin de poder obtener resultados válidos mediante un algoritmo automático. Se desarrolló un nuevo algoritmo en Matlab llamado “Kenay QT” en el que se calcula de forma automática la totalidad de los puntos Q y onda T en la señal completa y se obtienen los intervalos QT válidos a lo largo de toda la señal de cada uno de los registros procesados. “Kenay QT” se basa en la búsqueda de los puntos fiduciales en la señal ECG mediante “ Pan and Tompkins”. Se evaluó en los 549 registros de la base de datos el algoritmo “Kenay QT”, obteniendo una visualización gráfica de todos los puntos Q, onda T, y complejo QRS de los registros. Los resultados del intervalo QT son entregados en milisegundos. Al comparar el rendimiento obtenido con los datos publicados utilizando la misma base de datos, se obtuvo una puntuación final (la diferencia RMS entre los intervalos QT de referencia y los intervalos QT correspondientes) de 16,05 ms, mejor que la puntuación obtenida mediante un método automatizado de código abierto de Yuriy Chesnokov quien obtuvo una puntuación final de 17,33 ms. El algoritmo desarrollado demuestra tener mejor puntuación y rendimiento en la detección de intervalos QT, facilitando la detección del SQTL, cumpliendo con los objetivos planteados en esta memoria.Item Algoritmo de aprendizaje automático para el estudio de la asociación entre enfermedad cardiovascular y depresión.(Universidad de Concepción., 2023) Navarro Araneda, Rodrigo Ignacio; Figueroa I., RosaDesde hace 20 años las enfermedades cardiovasculares son la principal causa de muerte a nivel global y en Chile son las responsables de un 25.6% de defunciones. Por su parte, la depresión es la principal causa de baja laboral, afectado a más de 450 millones de personas a nivel global, y en Chile se estima que un 15.8% de la población la padece. La base de datos CHS posee datos de 20 años, más de 300 variables y un aproximado de 5000 pacientes adultos mayores con enfermedades cardiovasculares, siendo al año 2000 el estudio longitudinal más extenso realizado nunca. Se utilizaron los algoritmos de aprendizaje automático Random Forest y Red Neuronal Artificial para realizar un estudio de las variables que predicen la fatalidad por enfermedades cardiovasculares y aquellas que predicen la depresión. El ensamble de ambos algoritmos permitió encontrar variables predictoras de depresión cuyo origen es cardiovascular, sin encontrar a la depresión como un predictor directo de las enfermedades cardiovasculares.Item Algoritmo de conjugación bacteriana con enfrentamiento(Universidad de Concepción., 2016) Torres Méndez, Claudio Antonio; Pinninghoff Junemann, María Angélica; supervisora de gradoLas bacterias han existido en la tierra desde hace aproximadamente 3500 millones de años, sobrevivieron las cinco extinciones masivas de animales y logran vivir en las condiciones más extremas del planeta. Todo esto se debe a que han logrado adaptarse al ambiente. Las buenas características que poseen las bacterias lograron que surgiera el Algoritmo de conjugación bacteriana, una nueva Metaheurística basada en la interacción de bacterias. El objetivo de esta memoria es unir los siguientes modelos: Algoritmo de conjugación Bacteriana (ACB) y Algoritmo Metaheurístico Basado en Evolución horizontal de microorganismos. El resultado es el algoritmo de conjugación bacteriana con enfrentamiento (ACBCE), cuya efectividad fue probada en CVRP utilizando las instancias de Augerat. Los resultados que obtuvo el ACBCE se compararon con los que obtuvieron los modelos de Algoritmos genéticos (AG), Algoritmo de Colonia Artificial de Abejas (ABC) y el Algoritmo de Conjugación Bacteriana con Control de la Población (ACBCP). Los resultados mostraron que los valores obtenidos por el ACBCE fueron cercanos a AG y ABC y superior en todas las instancias al ACBCP.Item Algoritmo de estimación de movimientos de los dedos de la mano a través de un arreglo de sensores de electromiografía superficial(Universidad de Concepción., 2014) Germany Morrison, Enrique Ignacio; Pino Quiroga, Esteban Javier; profesor guíaLa prost´etica es la disciplina encargada de generar dispositivos para reemplazar partes del cuerpo que se han perdido por accidentes traum´aticos o por problemas cong´enitos. Desde siglos se han ido desarrollando diversos prototipos de dispositivos y con el paso del tiempo y la integraci ´on tecnol´ogica, han aumentado sus grados de destreza y capacidad para asimilar movimientos m´as completos y naturales. El control mioel´ectrico ha permanecido como el principal m´etodo de control a utilizar por diversos desarrolladores a lo largo del mundo, sin embargo, no es suficiente, ya que el funcionamiento muscular es complejo, por lo que herramientas avanzadas son utilizadas para intentar decodificar de buena forma la intenci´on del usuario de la pr´otesis. En este trabajo se abarca la aproximaci´on de control mioel´ectrico, adoptando un cambio de paradigma desde el control discreto entre clases definidas, decodificadas mediante reconocimiento de patrones, a un mecanismo de estimaci´on continua utilizando funciones de mapeo. El sistema se compone de dos partes, primero una secci´on de hardware que realiza la adquisici ´on de datos y segundo, una secci´on software que realiza la estimaci´on de posici´on. La parte de hardware permite de forma simult´anea registrar se˜nales de electromiograf´ıa (EMG) y de referencia del posicionamiento de los dedos de la mano. Las se˜nales son adquiridas mediante un electromi´ografo de 8 canales y un guante con sensores de flexi´on respectivamente. La parte de software debe digitalizar y guardar los datos a modo de utilizarlos en an´alisis posteriores. Utilizando MATLAB se procesaron las se˜nales y se dise˜n´o e implement´o un modelo de redes neuronales artificiales para estimar, desde las se˜nales de EMG, las posiciones de cada dedo de forma independiente. Las se˜nales estimadas se validaron mediante an´alisis de correlaci´on, con respecto a las se˜nales de referencia del guante. Los resultados avalan que este m´etodo logra de buena forma generar una relaci´on entre la actividad muscular y la posici´on de cada dedo de forma independiente, lo que otorga mayor libertad de movimientos y no requiere estados discretos que limitan al sistemaItem Algoritmo de identificación de las posiciones para la poda de las parras mediante técnicas de procesamiento de imágenes usando sensor kinect(Universidad de Concepción., 2014) Faúndez Báez, Iván Andrés; Sbárbaro Hofer, Daniel; profesor patrocinanteEn la presente Memoria de Título se desarrolla un nuevo sistema de visión artificial capaz de identificar los puntos óptimos de poda para las parras de uva. Para llevar a cabo este concepto se trabajó con el dispositivo Microsoft Kinect, aprovechando así sus potenciales características que nos entregan valiosa información tridimensional de la escena enfocada. Para la calibración del dispositivo se utilizó el toolbox para Matlab desarrollado por Daniel Herrera[16] junto con la interfaz gráfica desarrollada en la Memoria de Título de C. Hernandez [7] con la cual se obtiene la data en unidades de ingeniería. Los datos son procesados en un computador portátil con el sistema operativo Linux Debían Squeeze 6.0.5. Además se instaló el software Matlab R2012a para la programación del algoritmo y creación de la interfaz de usuario. El set up experimental se constituyó con el sensor montado sobre un trípode frente a una parra real fijada en un pedestal y un telón blanco fue fijado en una de las paredes del Laboratorio de Control del DIE-UDEC. El algoritmo se encuentra basado primeramente en la binarización de la imagen, logrando así mayor eficiencia de cálculo. Luego en el análisis de imágenes se crearon diversos métodos para localizar las principales secciones de la planta como lo son el cordón, las ramas y los nodos. Además se llevó a cabo la reconstrucción en tres dimensiones de la parra, aprovechando de esta forma las imágenes de disparidad entregadas por el sensor Kinect. Finalmente se presenta una interfaz de usuario, donde se asignaron las diversas funciones del algoritmo a cada uno de los botones en este HMI. Los resultados obtenidos permiten concluir que a través de la visión por computador y eligiendo buenas técnicas de análisis de imagen se logra la creación de un algoritmo capaz de tomar buenas decisiones en la poda de la vid, esto siempre y cuando se sigan de buena manera las consideraciones del algoritmo, como por ejemplo elegir un umbral correcto para la binarización de la imagen, disponer de un telón para la segmentación de esta y tomar los resguardos indicados para localizar correctamente cada sección de la parra. Además, la reconstrucción 3D se llevó a cabo con éxito mediante las imágenes de disparidad proporcionadas por el dispositivo Microsoft Kinect, usando así uno de los avances tecnológicos mas actuales que ha salido al mercado de las videoconsolas, pero empleado en esta ocasión para el desarrollo del algoritmo que se describe en este informe.Item Algoritmo de ranking para complejos de proteínas basado en características fisioquímicas.(Universidad de Concepción., 2018) Valenzuela Figueroa, Felipe E.; Hernández Rivas, Cecilia; supervisora de gradoIdentificar y describir la interacción entre proteínas es un problema ampliamente estudiado. Si un grupo de proteínas trabaja en conjunto es llamado complejo de proteínas (PC), y regularmente está asociado a una función específica. Existen herramientas computacionales que predicen complejos de proteína desde muchos enfoques. El resultado de estos predictores de complejos puede ser validado utilizando los Gold Standard Dataset (GSD), que son catálogos de referencia que incluyen información de proteínas experimentalmente aisladas, estudiadas y documentadas. De esta validación los resultados del predictor se clasifican como verdaderos positivos (VP) cuando están descritos en los GSD ó falsos positivos (FP) cuando no lo están. Un resultado del predictor clasificado como FP puede interpretarse como un complejo no descubierto o con poca documentación experimental, por ese motivo, los FP son un grupo interesante de estudio. El problema, es muy costosa la validación experimental de un complejo, por eso evaluar experimentalmente los FP debe planificarse y no hacerse aleatoriamente. Este trabajo propone un algoritmo de ranking para resultados FP basado en técnicas como el alineamiento estructural múltiple de proteínas (MPStrA) y el cálculo de índices fisicoquímicos de las proteínas. La función de orden del ranking busca dar el primer lugar de la lista al resultado FP que tenga más probabilidad de ser complejo, luego al segundo lugar más probabilidad que el tercero y así sucesivamente. Los resultados del algoritmo fueron exitosos al identificar resultados FP que fueron documentados como complejos posterior al año de la referencia de proteínas usada.Item Algoritmo de segmentación automática de las fibras cerebrales cortas de la región fronto-parietal y la ínsula(Universidad de Concepción., 2015) Guevara Olivares, Miguel Enrique; Guevara Álvez, Pamela Beatriz; profesora patrocinanteLa clasificaci´on de fibras de materia blanca cerebral es fundamental para entender como est´a conectado el cerebro. Este es uno de los ´organos m´as complejos y, por lo tanto, m´as dif´ıcil de estudiar. En especial, el estudio de las fibras de asociaci´on cortas es un ´area reciente dentro de la investigaci´on de la conectividad cerebral, por lo que ´estas han sido escasamente descritas. Este trabajo busca desarrollar un algoritmo para estudiar la conectividad del cerebro entre distintos pares de regiones del hemisferio izquierdo del cerebro. Este tiene que ser capaz de segmentar de manera autom´atica las fibras de asociaci´on cortas del cerebro, a partir de datos de tractograf´ıa preclusterizados y utilizando parcelaciones de la superficie cortical. De manera general el trabajo const´o de procesamientos manuales y autom´aticos. Los manuales involucraron el an´alisis de los resultados generados autom´aticamente, buscando un refinamiento de estos. Un poco m´as espec´ıficamente, el trabajo incluy´o primero la generaci´on de un modelo de las fibras cortas de asociaci´on. Para esto se utilizaron los datos de tractograf´ıa de 20 sujetos de una base de datos de im´agenes de difusi´on de alta resoluci´on angular. Estos datos fueron segmentados y clusterizados para la generaci´on del modelo. Segundo, este modelo fue utilizado para generar un atlas y a partir de ´este, segmentar de manera autom´atica 20 nuevos sujetos de la base de datos. Adem´as, se realizaron c´alculos de estad´ısticas con respecto a la cantidad de sujetos en los cuales estaban presentes los fasc´ıculos de fibras, la cantidad de fibras promedio y el largo que ´estas presentan, etc. En el modelo se obtuvieron 45 fasc´ıculos de fibras. Y en base a la reproductibilidad (cantidad de sujetos en los cuales se encuentra presente un fasc´ıculo), la desviaci´on est´andar relativa de la cantidad de fibras y una inspecci´on manual, se calificaron 15 de estos como los m´as estables. En cuanto a los resultados de la aplicaci´on del atlas, se obtuvieron 28 fasc´ıculos para los cuales la reproductibilidad es de 20 y de estos, 14 corresponden a los que hab´ıan sido calificados como los m´as estables. Entre estos resultados destacaron las conexiones de la ´ınsula con circunvoluciones adyacentes, por ser poco descritas en la literatura. Estas demostraron tener una alta reproductibilidad de 19/20 y 20/20 junto con una baja desviaci´on est´andar relativa del n´umero de fibras que las componen. Tambi´en destacan, por ejemplo, las conexiones de la regi´on superior frontal con el ´area de broca ya que estas si han sido descritas con mayor detalle en la literatura, y en el trabajo desarrollado se obtuvieron resultados con II reproductibilidad 20/20. El trabajo realizado permite facilitar el estudio de conexiones espec´ıficas, lo que podr´ıa ayudar en el diagn´ostico de patolog´ıas. La ventaja que tiene el desarrollo de un m´etodo de segmentaci´on autom´atico, es que puede ser aplicado f´acilmente a nuevos sujetos.Item Un algoritmo para resolver el problema del vendedor viajero con ventanas de tiempo para servicios postales.(Universidad de Concepción., 2022) Garcés Guzmán, José Tomás; Contreras Bolton, Carlos Emilio; profesor guíaEsta memoria de título tiene como objetivo estudiar el problema del vendedor viajero con ventanas de tiempo aplicado al caso de los servicios postales, y elaborar una metaheurística para resolver el problema. Este problema es una variante del problema clásico del vendedor viajero que consiste en minimizar el costo de una ruta hamiltoniana con una restricción adicional, que consiste en la existencia de ventanas de tiempo para cada uno de los destinos en la ruta, generándose un aumento en la dificultad en la resolución. Esta dificultad se debe a que al llegar a un destino de forma prematura, se genera un aumento en el costo de la ruta y además, el arribo posterior al cierre de la ventana de tiempo produce una ruta no factible. En los servicios postales por lo general existen dos tipos de entregas, la paquetería y las cartas, para ambos casos la industria busca optimizar las rutas de entrega para reducir los costos operativos y de mano de obra. Además, existen muchos casos en los que el cliente tiene un tiempo acotado para recibir su entrega. Para resolver este problema se propone un algoritmo basado en una búsqueda local iterada. Este algoritmo trabaja con penalizaciones, perturbaciones y búsquedas locales. Los resultados de la metaheurística muestran buenos rendimientos hasta las instancias de 60 nodos.Item Algoritmos paralelos para sketches de cardinalidad y cuentas.(Universidad de Concepción, 2024) Salini Irribarra, Estefano Alessandro; Hernández Rivas, Cecilia; Figueroa Toro, MiguelEl trabajo exploró el uso de algoritmos de streaming en el contexto de tráficos de red, estimándose la entropía de esta ya que es una medida que sirve para detectar ataques de red. Se implementaron algoritmos de streaming con sketches para la estimación de frecuencias y entropía de trazas de red, con el propósito de mejorar el tiempo de ejecución, el uso de memoria, y/o la precisión en la estimación. Se utilizan sketches ya que los streams de datos son muy grandes, y no es factible guardar en memoria la frecuencia de cada elemento del stream. La solución actual utiliza el sketch CountMin-CU junto a colas de prioridad de tamaño estático (que descartan los elementos menos frecuentes cuando la estructura esta llena y se inserta un nuevo elemento), para la estimación de frecuencias, junto al sketch HyperLogLog, para la estimación de la cardinalidad, para así en conjunto estimar la entropía. Se probó utilizar una modificación que extiende el algoritmo HyperLogLog, permitiendo calcular el histograma de frecuencias de una muestra del stream de datos, para estimar la entropía total y la contribución a la entropía de los elementos descartados por las colas de prioridad asociadas al sketch CountMin-CU. Se propuso también utilizar múltiples sketches CountMin-CU o TowerSketch-CU en conjunto con el sketch HyperLogLog para estimar la entropía. Nuestra implementación del sketch HyperLogLog fue modificada para reducir el uso de memoria en un 33 %. Se encontró que el algoritmo que extiende el sketch HyperLogLog guarda una muestra relativamente representativa del stream de datos, pero que la estimación de la entropía mediante el uso de esta muestra da malos resultados. Se encontró que no hay diferencias en la estimación de la entropía mediante el uso de uno o múltiples sketches CountMin-CU o TowerSketch-CU. Sin embargo, el uso de múltiples sketches CountMin-CU o TowerSketch-CU permite la lectura paralela de las trazas de red mediante OpenMP. Se probó también el algoritmo HyperLogLogLog, una modificación al algoritmo HyperLogLog que reduce el uso de memoria. Se encontró que no reduce el uso de memoria más que nuestra implementación del sketch Hyper-LogLog. Nuestros resultados indican que implementar el algoritmo utilizando múltiples sketches en una arquitectura con múltiples pipelines (equivalentes a hebras de CPU) reduciría el tiempo de ejecución.Item Almacenamiento de hidrógeno en carbón activado obtenido de carbón mineral. Efecto de la adición de Ni y Cu como promotores metálicos.(Universidad de Concepción., 2023) Romero Cifuentes, Gabriel Franco; García C., Ximena; Ulloa T., ClaudiaEl hidrógeno emerge como una opción altamente prometedora ante los apremiantes problemas climáticos. Sin embargo, surge una complicación central relacionada con su almacenamiento, ya que las formas convencionales presentan diversas limitaciones. Recientemente, la investigación científica se ha focalizado en el almacenamiento mediante materiales sólidos, específicamente en el carbón activado. Además, se sugiere que la introducción de metales podría ser una estrategia beneficiosa para mejorar este proceso de almacenamiento. En este contexto, se llevó a cabo un estudio para investigar cómo la adición de Ni y Cu en un carbón activado derivado de carbón mineral activado químicamente con NaOH, influye en el almacenamiento de hidrógeno. Los carbones activados fueron dopados con diferentes niveles de carga de metal: 0,5%, 1,0%, 1,5%, 2,5% y 5,0% en masa. Para caracterizar los carbones preparados, se realizaron pruebas de adsorción de nitrógeno a 77 K, con el fin de determinar parámetros cruciales como el área superficial BET y el volumen de microporos. Así mismo, se efectuaron pruebas de adsorción de hidrógeno a 77 K y 1 bar. Además, se aplicaron otros análisis con el propósito de obtener información adicional. Estos incluyen análisis elemental e inmediato, TEM y un análisis teórico aplicando el modelo de adsorción de Dubinin-Astakhov [56]. Los resultados demostraron que los carbones dopados, tanto con Ni y Cu presentaron una mayor porosidad en comparación al carbón sin dopar, lo cual se traduce en una mayor área BET. La forma de las isotermas de adsorción de nitrógeno de las muestras dopadas no presentó ninguna variación respecto de los carbones base, salvo en el caso del 5 Ni-CA, las isotermas fueron de tipo I y tipo IV según los criterios de la IUPAC. Se comprobó además una relación lineal entre el área BET y el volumen de microporos. El análisis TEM proporcionó un rango de tamaño de partícula que varió entre 14-7 nm, destacando que la muestra 2,5 Cu-CA exhibió este último valor. Con respecto a la adsorción de hidrógeno, se plantea la posibilidad de que la introducción de metal tenga un impacto restringido a condiciones de 77 K y 1 bar, lo cual podría estar influenciado por taponamiento de los poros. Esto se evidencia en el hecho de que la muestra de mayor desempeño fue 1,5-Ni-CA, alcanzando un valor del 2,51 % en peso de H2, lo que representa un aumento de solo un 1,6 % en comparación con la muestra sin dopar. Finalmente se logró proyectar los datos experimentales del carbón activado a condiciones de elevadas presiones y diversas temperaturas. Como resultado, se obtuvo un valor de 8,74% en peso a 100 bar, mientras que se registró un valor de 0,69% en peso a 298 K y 100 bar.Item Alternativas de extracción de litio para salmueras de SQM Salar(Universidad de Concepción., 2018) Gutiérrez Parra, Gabriel Enrique; Parada Luna, Fernando; supervisor de gradoEn este estudio se presentan alternativas para el procesamiento de salmueras de litio extraídas desde el salar de Atacama por SQM. El proceso actual efectuado por la compañía presenta oportunidades de mejoras en torno al rendimiento de litio, recuperación de agua y disminución de volúmenes de precipitación de impurezas. A partir de la investigación realizada se seleccionaron cinco alternativas para su análisis. Se consideraron tres alternativas de extracción por solventes, dos alternativas de adsorción y una última de electrólisis. Las alternativas de extracción por solventes se plantean para distintas composiciones de salmuera y podría aplicarse en distintas etapas del proceso actual de SQM. La primera alternativa consta de extracción de litio desde una salmuera con alto contenido de sodio utilizando como extractantes HBTA y TOPO, las siguientes dos alternativas se estudian a partir de una salmuera con alto contenido de magnesio, en una se utiliza TBP y cloruro férrico mientras que en la otra se utiliza TBP, perclorato de sodio y un líquido iónico (IL). Las siguientes dos alternativas se refieren al estudio de dos tipos de adsorbentes de litio empleados con salmueras de composiciones similares a las del salar de Atacama, lo que permitiría preliminarmente disminuir la tasa de evaporación solar, aumentar el rendimiento de litio y disminuir el volumen de precipitados distintos del carbonato de litio. El primer adsorbente corresponde a alúmina hidratada mientras que el segundo reactivo es un dióxido de titanio hidratado. Por último, se presenta una alternativa de obtención de hidróxido de litio a través de una etapa de electrólisis de salmuera purificada que evita depender de la producción de carbonato de litio y todas las etapas asociadas a ello. A partir de las alternativas planteadas se realiza un análisis comparativo de los distintos métodos de extracción de litio y se propone realizar las pruebas que presentan resultados más promisorios en referencia a las necesidades de SQM. Las alternativas seleccionadas corresponden al método de adsorción de litio utilizando alúmina hidratada a partir de una salmuera extraída directamente desde el salar de Atacama o en salmueras de procesos posteriores, y se selecciona además, la alternativa de extracción por solventes utilizando cloruro férrico y TBP debido al alto poder de selectividad de litio por sobre magnesio. Se realiza la proposición de las pruebas experimentales para llevarlas a cabo en instalaciones de SQM y evaluar sus resultados.Item Análisis comparativo del potencial de extracción de reservas submarinas en Chile.(Universidad de Concepción., 2021) Muñoz Rodriguez, Eliecer Antonio; Hekmat, Asieh; supervisor de gradoChile es reconocido por ser un país cuyo sostén económico, crecimiento y desarrollo se ve directamente potenciado por la minería, actividad que puede verse afectada por ciertas circunstancias que deben ser superadas para que continúe siendo el motor en el desarrollo nacional. En cuanto a estas limitaciones, las principales son: el agotamiento de recursos, la explotación de minerales de baja ley en la actualidad y el incremento en el uso de agua para procesos. Es por ello que se considera como una alternativa viable la búsqueda de nuevas Fuentes minerales mediante la minería de lecho marino o submarina, la cual contiene nuevos yacimientos de buena ley para extracción. Se busca considerar a la minería submarina de sulfuros polimetálicos, nódulos de manganeso y costras cobaltíferas como una solución a las 3 limitantes planteadas, considerando estos yacimientos como relativamente inexplorados, de alta ley y diversidad mineral, además de que el uso de recursos hídricos es menor para su procesamiento. El presente estudio se llevó a cabo bajo una revisión bibliográfica de investigaciones afines al tema, con el fin de conocer, analizar y promover el uso de la minería submarina en Chile. Los resultados extraídos de los distintos estudios presentan una vista desde lo global a lo específico, permiten conocer métodos de exploración y explotación, como también realizar un análisis comparativo con respecto a otro tipo de faenas mineras, además ejemplifica cómo es el estudio y aplicación de la minería de fondos marinos a nivel internacional y así poder mensurar el grado de impacto ambiental para lograr vislumbrar su uso nacional. La necesidad de reforzar los estudios en favor de la minería submarina se hace imprescindible para la implementación del método, ya que a pesar de que el nivel tecnológico para su desarrollo ha sido alcanzado, no se ha logrado definir el nivel de impacto ambiental de forma concreta, por lo cual, es imprescindible aumentar el número de investigaciones, puesto que, si bien están encaminadas en la búsqueda de técnicas de remediación, aún no han logrado ser implementadas. La implementación de una mina de Nódulos de Manganeso o Sulfuros Polimetálicos tiene potencial en Chile, debido a la existencia de este tipo de yacimientos en la ZEE, el alcance y las posibilidades tecnológicas del país y también el potencial humano para estas faenas. En consideración que la influencia de la minería en la economía del país corresponde al 10% se hace necesario la búsqueda de innovación tecnológica y nuevas Fuentes minerales, la minería submarina se convierte en una buena alternativa para subsanar la escasez hídrica dado su bajo consumo de agua y baja generación de desechos, aportando al control de contaminación. En definitiva, una faena submarina es posible tras mayor investigación logística y es un espacio que requiere profundizar los estudio, tanto en exploración como potencial impacto ambiental y para ello, la moratoria se hace necesaria.Item Análisis Comparativo de las Pérdidas Térmicas en un Sistema Fotovoltaico Fuente de Corriente y de Voltaje Acoplado a la Red Eléctrica mediante Simulación en PLECS.(Universidad de Concepción, 2024) Toledo Aranda, Felipe Ignacio Yall; Espinoza C., JoséLas plantas fotovoltaicas se encuentran en un continuo auge alrededor del mundo producto de la gran disponibilidad del recurso solar, permitiendo así reducir las emisiones de carbono y con ello, transitar a una matriz energética sustentable. Estas plantas se componen de diversos arreglos de módulos fotovoltaicos conectados en serie y paralelo, permitiendo así maximizar la energía solar que se transforma en energía eléctrica. Sin embargo, las centrales solares producen corriente continua, la cual debe ser adecuada por un convertidor DC/AC para realizar la interfaz con la red eléctrica, que se encuentra en alterna. El convertidor de electrónica de potencia influye globamente en la eficiencia del sistema, ya que se encuentra a cargo del acondicionamiento de potencia de una gran cantidad de módulos fotovoltaicos, es por ello que es de vital importancia el estudio de las pérdidas asociadas a este equipo. En este trabajo se realiza un análisis comparativo de la eficiencia y las pérdidas térmicas según la técnica de modulación empleada entre un sistema fotovoltaico acoplado a la red eléctrica mediante un inversor fuente de tensión y un inversor fuente de corriente en PLECS. La comparación se efectúa utilizando dos switches diferentes: 5SNA1600N170100 de la empresa ABB y DIM1600FSM17-A000 de DYNEX, mientras que el arreglo fotovoltaico se compone de múltiples módulos TOPHiKu6-620 pertenecientes a CanadianSolar configurados de tal manera de generar una potencia instalada aproximada de 500 [kW]. En el primer escenario, se simulan las técnicas de modulación SPWM, THIPWM, SHEPWM y SVPWM para que los convertidores fuente de corriente y tensión operen utilizando la potencia máxima instalada del arreglo fotovoltaico del VSI e inyectando la potencia a la red eléctrica con un factor de potencia unitario, mientras que en el segundo escenario se considera un 95% de la potencia instalada del VSI. En ambos casos, se miden la pérdidas de conmutación, las pérdidas de conducción, la temperatura y la eficiencia del convertidor. Los resultados indican que en el escenario uno, la eficiencia varía entre ambas topologías para las diferentes técnicas de modulación entre 1.41%−1.46% para el dispositivo conmutador de ABB, mientras que para el switch de DYNEX se acrecenta la diferencia con 2.38%−3.14. En el caso del escenario dos, incrementa ligeramente el cambio, llegando a 1.63%−1.66% y 2.78%−3.61% para cada dispositivo semiconductor respectivamente. En relación con las técnicas de modulación, ambas topologías presentan el mismo orden de eficiencia, siendo de mayor a menor: SHEPWM, SVPWM y SPWM.