L’imagerie aérienne est un élément précieux de l’agriculture de précision, fournissant aux agriculteurs des informations importantes sur la santé et le rendement des cultures. Les images sont généralement obtenues avec une caméra multispectrale coûteuse attachée à un drone. Mais une nouvelle étude de l’Université de l’Illinois et de l’Université d’État du Mississippi (MSU) montre que les images d’une caméra standard rouge-vert-bleu (RVB) combinées à l’apprentissage en profondeur de l’IA peuvent fournir des outils de prédiction des cultures équivalents pour une fraction du coût.
Les caméras multispectrales fournissent des cartes en couleurs qui représentent la végétation pour aider les agriculteurs à surveiller la santé des plantes et à repérer les zones problématiques. Les indices de végétation tels que l’indice de végétation par différence normalisée (NDVI) et l’indice de bord rouge par différence normalisée (NDRE) affichent les zones saines en vert, tandis que les zones problématiques apparaissent en rouge.
« Généralement, pour ce faire, vous auriez besoin d’une caméra proche infrarouge (NIR) qui coûte environ 5 000 $. Mais nous avons montré que nous pouvons former l’IA pour générer des images de type NDVI à l’aide d’une caméra RVB attachée à un drone à faible coût. , et cela réduit considérablement les coûts », explique Girish Chowdhary, professeur agrégé au Département de génie agricole et biologique de l’U of I et co-auteur de l’article.
Pour cette étude, l’équipe de recherche a recueilli des images aériennes de champs de maïs, de soja et de coton à différents stades de croissance avec une caméra multispectrale et RVB. Ils ont utilisé Pix2Pix, un réseau neuronal conçu pour la conversion d’images, pour traduire les images RVB en cartes de couleurs NDVI et NDRE avec des zones rouges et vertes. Après avoir d’abord formé le réseau avec un grand nombre d’images multispectrales et régulières, ils ont testé sa capacité à générer des images NDVI/NDRE à partir d’un autre ensemble d’images régulières.
« Il y a un indice de verdeur réfléchissant sur les photos qui indique l’efficacité photosynthétique. Il se reflète un peu dans le canal vert, et beaucoup dans le canal proche infrarouge. Mais nous avons créé un réseau qui peut l’extraire du canal vert en l’entraînant sur le canal NIR. Cela signifie que nous n’avons besoin que du canal vert, ainsi que d’autres informations contextuelles telles que les pixels rouges, bleus et verts », explique Chowdhary.
Pour tester la précision des images générées par l’IA, les chercheurs ont demandé à un panel de spécialistes des cultures de visualiser côte à côte des images des mêmes zones, soit générées par l’IA, soit prises avec une caméra multispectrale. Les spécialistes ont indiqué s’ils pouvaient dire quelle était la véritable image multispectrale et s’ils avaient remarqué des différences susceptibles d’affecter leur prise de décision.
Les experts n’ont trouvé aucune différence observable entre les deux ensembles d’images, et ils ont indiqué qu’ils feraient des prédictions similaires à partir des deux. L’équipe de recherche a également testé la comparaison des images par le biais de procédures statistiques, confirmant qu’il n’y avait pratiquement aucune différence mesurable entre elles.
Joby Czarnecki, professeur agrégé de recherche à la MSU et co-auteur de l’article, prévient que cela ne signifie pas que les deux ensembles d’images sont identiques.
« Bien que nous ne puissions pas dire que les images fourniraient les mêmes informations dans toutes les conditions, pour ce problème particulier, elles permettent des décisions similaires. La réflectance dans le proche infrarouge peut être très critique pour certaines décisions de l’usine. Cependant, dans ce cas particulier, il est passionnant que notre étude montre que vous pouvez remplacer une technologie coûteuse par une intelligence artificielle peu coûteuse et arriver toujours à la même décision », explique-t-elle.
La vue aérienne peut fournir des informations difficiles à obtenir depuis le sol. Par exemple, les zones endommagées par les tempêtes ou les carences en nutriments peuvent ne pas être facilement visibles au niveau des yeux, mais peuvent être facilement repérées depuis les airs. Les agriculteurs disposant des autorisations appropriées peuvent choisir de piloter leurs propres drones, ou ils peuvent contracter une entreprise privée pour le faire. Dans tous les cas, les cartes en couleur fournissent des informations importantes sur la santé des cultures nécessaires aux décisions de gestion.
Le logiciel et les procédures d’IA utilisés dans l’étude sont disponibles pour les entreprises qui souhaitent le mettre en œuvre ou étendre l’utilisation en formant le réseau sur des ensembles de données supplémentaires.
« L’IA a beaucoup de potentiel pour aider à réduire les coûts, ce qui est un moteur clé pour de nombreuses applications dans l’agriculture. Si vous pouvez rendre un drone de 600 $ plus utile, alors tout le monde peut y accéder. Et les informations aideraient les agriculteurs à améliorer leur rendement et à être meilleurs intendants de leurs terres », conclut Chowdhary.
Le Département de génie agricole et biologique fait partie du Collège des sciences de l’agriculture, de la consommation et de l’environnement et du Grainger College of Engineering de l’Université de l’Illinois.
Le papier« Prédiction NDVI/NDRE à partir d’images aériennes RVB standard utilisant l’apprentissage en profondeur », est publié dans Informatique et électronique dans l’agriculture.
Plus d’information:
Corey Davidson et al, prédiction NDVI/NDRE à partir d’images aériennes RVB standard utilisant l’apprentissage en profondeur, Informatique et électronique dans l’agriculture (2022). DOI : 10.1016/j.compag.2022.107396