Evaluación del uso de fine-tuning en modelos de lenguaje grande como herramienta de aprendizaje ajustada a las áreas de física y matemáticas en la educación.

dc.contributor.advisorNavarrete Lizama, Carlos Camiloes
dc.contributor.advisorMaldonado Trapp, Alejandra Marcelaes
dc.contributor.authorMelita Cruces, Luis Andréses
dc.date.accessioned2024-11-27T19:44:03Z
dc.date.available2024-11-27T19:44:03Z
dc.date.issued2024
dc.descriptionTesis presentada para optar al título de Ingeniero Civil Industriales
dc.description.abstractEl presente trabajo titulado “EVALUACIÓN DEL USO DE FINE-TUNING EN MODELOS DE LENGUAJE GRANDE COMO HERRAMIENTA DE APRENDIZAJE AJUSTADA A LAS ÁREAS DE FÍSICA Y MATEMÁTICAS EN LA EDUCACIÓN”, tiene como objetivo principal desarrollar estrategias de fine-tuning para modelos de lenguaje grande pre-entrenados, con el propósito de optimizar su desempeño en la resolución de problemas matemáticos y físicos en contextos educativos. Se utilizó una metodología mixta que incluye la cuantización de modelos, preparación del entorno de desarrollo por limitaciones software, selección de modelos pre-entrenados, recopilación y preparación de datos, elección de técnicas de fine-tuning, y evaluación del rendimiento de los modelos entrenados. Se llevaron a cabo experimentos utilizando la técnica fine-tuning más adecuada para las herramientas disponibles, y para la tarea definida de mejorar el rendimiento de los LLMs en tareas específicas de matemáticas y física. Se concluyó que el fine-tuning de LLMs es una técnica eficaz para adaptar modelos pre-entrenados a tareas educativas específicas, mejorando su rendimiento y utilidad en la enseñanza de matemáticas y física. Los resultados sugieren que el uso de LLMs ajustados puede ser una herramienta valiosa para el desarrollo educativo, proporcionando no solo respuestas precisas, sino también un medio para que los estudiantes comprendan mejor los conceptos y mejoren sus habilidades de resolución de problemas.es
dc.description.abstractThe present work, titled “EVALUACIÓN DEL USO DE FINE-TUNING EN MODELOS DE LEN- GUAJE GRANDE COMO HERRAMIENTA DE APRENDIZAJE AJUSTADA A LAS ÁREAS DE FÍSICA Y MATEMÁTICAS EN LA EDUCACIÓN”, has the main objective of developing fine-tuning strategies for pre-trained large language models in order to optimize their performance in solving mathematical and physical problems within educational contexts. A mixed methodology was used, including model quantization, setting up the development envi- ronment due to software limitations, selection of pre-trained models, data collection and preparation, choice of fine-tuning techniques, and evaluation of the trained models’ performance. Experiments were conducted using the most suitable fine-tuning technique for the available tools and for the defined task of improving LLM performance on specific mathematics and physics tasks. It was concluded that the fine-tuning of LLMs is an effective technique to adapt pre-trained models to specific educational tasks, improving their performance and usefulness in the teaching of mathematics and physics. The results suggest that fine-tuned LLMs can be a valuable tool for educational development, providing not only accurate answers but also a means for students to better understand concepts and improve their problem-solving skills.en
dc.description.campusConcepciónes
dc.description.departamentoDepartamento de Ingeniería Industriales
dc.description.facultadFacultad de Ingenieríaes
dc.identifier.urihttps://repositorio.udec.cl/handle/11594/11013
dc.language.isoeses
dc.publisherUniversidad de Concepciónes
dc.rightsCC BY-NC-ND 4.0 DEED Attribution-NonCommercial-NoDerivs 4.0 Internationalen
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectAprendizajees
dc.subjectMatemáticases
dc.subjectRedes neurales (ciencia de la computación)es
dc.titleEvaluación del uso de fine-tuning en modelos de lenguaje grande como herramienta de aprendizaje ajustada a las áreas de física y matemáticas en la educación.es
dc.typeThesisen

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Melita_c_l_2024_INIC.pdf
Size:
756.13 KB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description:

Collections