Optimización de la selección de Grandes Modelos de Lenguaje para la generación de Feedback Personalizado en la asignatura de Álgebra I, de la Universidad de Concepción.
Loading...
Date
2025
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Universidad de Concepción
Abstract
En esta tesis se aborda el desafío de seleccionar Grandes Modelos de Lenguaje (LLMs) para la educación, buscando un balance óptimo entre calidad pedagógica y sostenibilidad económica. Se presenta un modelo matemático de optimización para guiar la configuración de LLMs en la generación de Feedback Personalizado para cursos de matemática universitaria. Se realizó un experimento aleatorio con un diseño factorial estratificado en bloques, evaluando cuatro factores clave:
- Modelo para el Análisis Técnico.
- Temperatura para el Análisis Técnico.
- Modelo para el Feedback Personalizado.
- Temperatura para el Feedback Personalizado.
A partir de 9 evaluaciones de respuestas reales de la asignatura de Álgebra I del primer semestre del año 2024, considerando 81 configuraciones derivadas del diseño factorial estratificado en bloques, se comparó el rendimiento de tres familias de modelos líderes: Gpt-4o-2024-08-06, LLaMA-3.3-70b-versatile y Gemini-2.0-flash-001. Los resultados del análisis de varianza y un índice de rendimiento compuesto demuestran que Gemini-2.0-flash-001 ofrece el mejor equilibrio entre riqueza pedagógica y eficiencia económica. Este marco cuantitativo proporciona una guía objetiva, rigurosa y replicable para la adopción informada y sostenible de LLMs en la enseñanza de las matemáticas.
Description
Tesis presentada para optar al título de Ingeniero/a Civil Matemático/a.
Keywords
Large language models, Inteligencia artificial, Álgebra, Educación superior