Sistema basado en Machine Learning destinado a recomendaciones de riego.
Loading...
Date
2024
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Universidad de Concepción
Abstract
Históricamente, muchas cuencas fluviales no han tenido suficiente agua para satisfacer todas las demandas en el campo agricultor, ni siquiera suficiente para que sus ríos lleguen al mar. A escala global, el sector agrícola consume el mayor volumen de agua, siendo el riego de cultivos la actividad que demanda la porción más significativa de este recurso. En busca de soluciones innovadoras para aliviar la demanda creciente de agua de riego en la agricultura, Deep Reinforcement Learning (DRL), con sus recientes éxitos en entornos de toma de decisiones complejos, se presenta como un método favorable para optimizar estrategias de riego. DRL promete un mejor desempeño en comparación a heurísticas de umbral de humedad o riego sistemático. Junto a esto, un exceso de riego eleva la humedad de las plantas, lo cual, combinado con altas temperaturas, es el punto de inicio para el desarrollo de enfermedades como Oidio y Botrytis. Para evaluar el rendimiento de esta herramienta, se implementaron los agentes DRL en el simulador AquaCrop-OSPy, que simula la respuesta de los cultivos al estrés hídrico. Dentro del espacio de observación, forman parte la predicción de precipitación y evapotranspiración (ET), que ayudan al método DRL a tomar una decisión para evitar el exceso de riego, así, no solo evitando riego innecesario, sino también evitando niveles de humedad que favorecen estas enfermedades. El modelo es entrenado en 2 ambientes; producción de maíz en Nebraska y producción de uva en la región del Maule. Cada ambiente es entrenado con 3 algoritmos DRL distintos; Proximal Policy Optimization (PPO), Deep Deterministic Policy Gradient (DDPG) y Deep Q Network (DQN) por ~3 millones de pasos.
El rendimiento del agente DRL se midió en comparación a 2 métodos de riego tradicionales, riego sistemático y riego basado en umbral. En ambos casos, usando ciertas estrategias y limitantes, PPO logró superar a ambos métodos de riego tradicionales tras ser entrenado 800k pasos. Las ganancias de PPO, en comparación a los métodos tradicionales, fueron aún más notorios en ambientes controlados donde no hubo precipitaciones y fueron limitantes la cantidad de recursos hídricos.
Description
Tesis presentada para optar al título de Ingeniero Civil Informático
Keywords
Aprendizaje de máquina, Riego, Riego Métodos de simulación