Sistema basado en Machine Learning destinado a recomendaciones de riego.

dc.contributor.advisorGodoy del Campo, Julio Erasmoes
dc.contributor.authorHuber, Tiago Williames
dc.date.accessioned2024-11-23T15:42:14Z
dc.date.available2024-11-23T15:42:14Z
dc.date.issued2024
dc.descriptionTesis presentada para optar al título de Ingeniero Civil Informáticoes
dc.description.abstractHistóricamente, muchas cuencas fluviales no han tenido suficiente agua para satisfacer todas las demandas en el campo agricultor, ni siquiera suficiente para que sus ríos lleguen al mar. A escala global, el sector agrícola consume el mayor volumen de agua, siendo el riego de cultivos la actividad que demanda la porción más significativa de este recurso. En busca de soluciones innovadoras para aliviar la demanda creciente de agua de riego en la agricultura, Deep Reinforcement Learning (DRL), con sus recientes éxitos en entornos de toma de decisiones complejos, se presenta como un método favorable para optimizar estrategias de riego. DRL promete un mejor desempeño en comparación a heurísticas de umbral de humedad o riego sistemático. Junto a esto, un exceso de riego eleva la humedad de las plantas, lo cual, combinado con altas temperaturas, es el punto de inicio para el desarrollo de enfermedades como Oidio y Botrytis. Para evaluar el rendimiento de esta herramienta, se implementaron los agentes DRL en el simulador AquaCrop-OSPy, que simula la respuesta de los cultivos al estrés hídrico. Dentro del espacio de observación, forman parte la predicción de precipitación y evapotranspiración (ET), que ayudan al método DRL a tomar una decisión para evitar el exceso de riego, así, no solo evitando riego innecesario, sino también evitando niveles de humedad que favorecen estas enfermedades. El modelo es entrenado en 2 ambientes; producción de maíz en Nebraska y producción de uva en la región del Maule. Cada ambiente es entrenado con 3 algoritmos DRL distintos; Proximal Policy Optimization (PPO), Deep Deterministic Policy Gradient (DDPG) y Deep Q Network (DQN) por ~3 millones de pasos. El rendimiento del agente DRL se midió en comparación a 2 métodos de riego tradicionales, riego sistemático y riego basado en umbral. En ambos casos, usando ciertas estrategias y limitantes, PPO logró superar a ambos métodos de riego tradicionales tras ser entrenado 800k pasos. Las ganancias de PPO, en comparación a los métodos tradicionales, fueron aún más notorios en ambientes controlados donde no hubo precipitaciones y fueron limitantes la cantidad de recursos hídricos.es
dc.description.campusConcepciónes
dc.description.departamentoDepartamento de Ingeniería Informática y Ciencias de la Computaciónes
dc.description.facultadFacultad de Ingenieríaes
dc.identifier.urihttps://repositorio.udec.cl/handle/11594/10056
dc.language.isoeses
dc.publisherUniversidad de Concepciónes
dc.rightsCC BY-NC-ND 4.0 DEED Attribution-NonCommercial-NoDerivs 4.0 Internationalen
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/en
dc.subjectAprendizaje de máquinaes
dc.subject⁠Riegoes
dc.subjectRiego Métodos de simulaciónes
dc.titleSistema basado en Machine Learning destinado a recomendaciones de riego.es
dc.typeThesisen

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Huber_t_2024_INGINF.pdf
Size:
3.51 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description:

Collections