Sistema basado en Machine Learning destinado a recomendaciones de riego.

Loading...
Thumbnail Image

Date

2024

Journal Title

Journal ISSN

Volume Title

Publisher

Universidad de Concepción

Abstract

Históricamente, muchas cuencas fluviales no han tenido suficiente agua para satisfacer todas las demandas en el campo agricultor, ni siquiera suficiente para que sus ríos lleguen al mar. A escala global, el sector agrícola consume el mayor volumen de agua, siendo el riego de cultivos la actividad que demanda la porción más significativa de este recurso. En busca de soluciones innovadoras para aliviar la demanda creciente de agua de riego en la agricultura, Deep Reinforcement Learning (DRL), con sus recientes éxitos en entornos de toma de decisiones complejos, se presenta como un método favorable para optimizar estrategias de riego. DRL promete un mejor desempeño en comparación a heurísticas de umbral de humedad o riego sistemático. Junto a esto, un exceso de riego eleva la humedad de las plantas, lo cual, combinado con altas temperaturas, es el punto de inicio para el desarrollo de enfermedades como Oidio y Botrytis. Para evaluar el rendimiento de esta herramienta, se implementaron los agentes DRL en el simulador AquaCrop-OSPy, que simula la respuesta de los cultivos al estrés hídrico. Dentro del espacio de observación, forman parte la predicción de precipitación y evapotranspiración (ET), que ayudan al método DRL a tomar una decisión para evitar el exceso de riego, así, no solo evitando riego innecesario, sino también evitando niveles de humedad que favorecen estas enfermedades. El modelo es entrenado en 2 ambientes; producción de maíz en Nebraska y producción de uva en la región del Maule. Cada ambiente es entrenado con 3 algoritmos DRL distintos; Proximal Policy Optimization (PPO), Deep Deterministic Policy Gradient (DDPG) y Deep Q Network (DQN) por ~3 millones de pasos. El rendimiento del agente DRL se midió en comparación a 2 métodos de riego tradicionales, riego sistemático y riego basado en umbral. En ambos casos, usando ciertas estrategias y limitantes, PPO logró superar a ambos métodos de riego tradicionales tras ser entrenado 800k pasos. Las ganancias de PPO, en comparación a los métodos tradicionales, fueron aún más notorios en ambientes controlados donde no hubo precipitaciones y fueron limitantes la cantidad de recursos hídricos.

Description

Tesis presentada para optar al título de Ingeniero Civil Informático

Keywords

Aprendizaje de máquina, ⁠Riego, Riego Métodos de simulación

Citation

URI

Collections