Repository logo
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register. Have you forgotten your password?
Repository logo
  • Communities & Collections
  • All of DSpace
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register. Have you forgotten your password?
  1. Home
  2. Browse by Author

Browsing by Author "Huber, Tiago William"

Now showing 1 - 1 of 1
Results Per Page
Sort Options
  • Loading...
    Thumbnail Image
    Item
    Sistema basado en Machine Learning destinado a recomendaciones de riego.
    (Universidad de Concepción, 2024) Huber, Tiago William; Godoy del Campo, Julio Erasmo
    Históricamente, muchas cuencas fluviales no han tenido suficiente agua para satisfacer todas las demandas en el campo agricultor, ni siquiera suficiente para que sus ríos lleguen al mar. A escala global, el sector agrícola consume el mayor volumen de agua, siendo el riego de cultivos la actividad que demanda la porción más significativa de este recurso. En busca de soluciones innovadoras para aliviar la demanda creciente de agua de riego en la agricultura, Deep Reinforcement Learning (DRL), con sus recientes éxitos en entornos de toma de decisiones complejos, se presenta como un método favorable para optimizar estrategias de riego. DRL promete un mejor desempeño en comparación a heurísticas de umbral de humedad o riego sistemático. Junto a esto, un exceso de riego eleva la humedad de las plantas, lo cual, combinado con altas temperaturas, es el punto de inicio para el desarrollo de enfermedades como Oidio y Botrytis. Para evaluar el rendimiento de esta herramienta, se implementaron los agentes DRL en el simulador AquaCrop-OSPy, que simula la respuesta de los cultivos al estrés hídrico. Dentro del espacio de observación, forman parte la predicción de precipitación y evapotranspiración (ET), que ayudan al método DRL a tomar una decisión para evitar el exceso de riego, así, no solo evitando riego innecesario, sino también evitando niveles de humedad que favorecen estas enfermedades. El modelo es entrenado en 2 ambientes; producción de maíz en Nebraska y producción de uva en la región del Maule. Cada ambiente es entrenado con 3 algoritmos DRL distintos; Proximal Policy Optimization (PPO), Deep Deterministic Policy Gradient (DDPG) y Deep Q Network (DQN) por ~3 millones de pasos. El rendimiento del agente DRL se midió en comparación a 2 métodos de riego tradicionales, riego sistemático y riego basado en umbral. En ambos casos, usando ciertas estrategias y limitantes, PPO logró superar a ambos métodos de riego tradicionales tras ser entrenado 800k pasos. Las ganancias de PPO, en comparación a los métodos tradicionales, fueron aún más notorios en ambientes controlados donde no hubo precipitaciones y fueron limitantes la cantidad de recursos hídricos.
Síguenos en...