Luftbilder sind ein wertvoller Bestandteil der Präzisionslandwirtschaft und liefern den Landwirten wichtige Informationen über die Gesundheit und den Ertrag der Pflanzen. Bilder werden typischerweise mit einer teuren Multispektralkamera aufgenommen, die an einer Drohne befestigt ist. Eine neue Studie der University of Illinois und der Mississippi State University (MSU) zeigt jedoch, dass Bilder von einer Standard-RGB-Kamera (Rot-Grün-Blau) in Kombination mit KI-Deep-Learning gleichwertige Erntevorhersage-Tools zu einem Bruchteil der Kosten liefern können.
Multispektralkameras liefern Farbkarten, die die Vegetation darstellen, um Landwirten dabei zu helfen, die Pflanzengesundheit zu überwachen und Problembereiche zu erkennen. Vegetationsindizes wie der Normalized Difference Vegetation Index (NDVI) und der Normalized Difference Red Edge Index (NDRE) zeigen gesunde Bereiche grün, während Problembereiche rot erscheinen.
„Normalerweise bräuchte man dazu eine Nahinfrarotkamera (NIR), die etwa 5.000 US-Dollar kostet. Aber wir haben gezeigt, dass wir KI trainieren können, NDVI-ähnliche Bilder mit einer RGB-Kamera zu erzeugen, die an einer kostengünstigen Drohne angebracht ist , und das reduziert die Kosten erheblich“, sagt Girish Chowdhary, außerordentlicher Professor am Department of Agricultural and Biological Engineering an der University of I und Co-Autor des Papiers.
Für diese Studie sammelte das Forschungsteam Luftbilder von Mais-, Sojabohnen- und Baumwollfeldern in verschiedenen Wachstumsstadien sowohl mit einer Multispektral- als auch mit einer RGB-Kamera. Sie verwendeten Pix2Pix, ein neuronales Netzwerk, das für die Bildkonvertierung entwickelt wurde, um die RGB-Bilder in NDVI- und NDRE-Farbkarten mit roten und grünen Bereichen zu übersetzen. Nachdem sie das Netzwerk zunächst mit einer großen Anzahl sowohl multispektraler als auch regulärer Bilder trainiert hatten, testeten sie seine Fähigkeit, NDVI/NDRE-Bilder aus einem anderen Satz regulärer Bilder zu generieren.
„Es gibt einen reflektierenden Grünheitsindex auf den Fotos, der die photosynthetische Effizienz anzeigt. Er reflektiert ein wenig im grünen Kanal und viel im Nahinfrarotkanal. Aber wir haben ein Netzwerk geschaffen, das es aus dem grünen Kanal extrahieren kann auf dem NIR-Kanal trainieren. Das bedeutet, dass wir nur den grünen Kanal zusammen mit anderen Kontextinformationen wie roten, blauen und grünen Pixeln benötigen“, erklärt Chowdhary.
Um die Genauigkeit der KI-generierten Bilder zu testen, baten die Forscher ein Gremium von Pflanzenspezialisten, nebeneinander Bilder derselben Bereiche zu betrachten, die entweder von KI erzeugt oder mit einer Multispektralkamera aufgenommen wurden. Die Spezialisten gaben an, ob sie erkennen konnten, welches das wahre multispektrale Bild war, und ob sie irgendwelche Unterschiede bemerkten, die ihre Entscheidungsfindung beeinflussen würden.
Die Experten fanden keine beobachtbaren Unterschiede zwischen den beiden Bildsätzen und gaben an, dass sie aus beiden ähnliche Vorhersagen treffen würden. Das Forschungsteam testete auch den Vergleich von Bildern durch statistische Verfahren und bestätigte, dass es praktisch keine messbaren Unterschiede zwischen ihnen gab.
Joby Czarnecki, außerordentlicher Forschungsprofessor an der MSU und Co-Autor des Papiers, warnt davor, dass dies nicht bedeutet, dass die beiden Bildsätze identisch sind.
„Obwohl wir nicht sagen können, dass die Bilder unter allen Bedingungen die gleichen Informationen liefern würden, ermöglichen sie für dieses spezielle Problem ähnliche Entscheidungen. Die Nahinfrarotreflexion kann für einige Anlagenentscheidungen sehr kritisch sein. In diesem speziellen Fall ist sie es jedoch spannend, dass unsere Studie zeigt, dass man eine teure Technologie durch eine kostengünstige künstliche Intelligenz ersetzen kann und trotzdem zur gleichen Entscheidung kommt“, erklärt sie.
Das Luftbild kann Informationen liefern, die vom Boden aus schwer zu gewinnen sind. Beispielsweise sind Bereiche mit Sturmschäden oder Nährstoffmangel auf Augenhöhe möglicherweise nicht gut sichtbar, können jedoch leicht aus der Luft erkannt werden. Landwirte mit den entsprechenden Genehmigungen können ihre eigenen Drohnen fliegen oder ein privates Unternehmen damit beauftragen. In jedem Fall liefern die Farbkarten wichtige Informationen zur Pflanzengesundheit, die für Managemententscheidungen benötigt werden.
Die in der Studie verwendete KI-Software und -Verfahren stehen Unternehmen zur Verfügung, die sie implementieren oder die Nutzung erweitern möchten, indem sie das Netzwerk mit zusätzlichen Datensätzen trainieren.
„In der KI steckt viel Potenzial, um Kosten zu senken, was ein wichtiger Faktor für viele Anwendungen in der Landwirtschaft ist. Wenn Sie eine 600-Dollar-Drohne nützlicher machen können, kann jeder darauf zugreifen. Und die Informationen würden den Landwirten helfen, den Ertrag zu verbessern und zu sein.“ bessere Verwalter ihres Landes“, schließt Chowdhary.
Das Department of Agricultural and Biological Engineering befindet sich im College of Agricultural, Consumer and Environmental Sciences und dem Grainger College of Engineering an der University of Illinois.
Der Papier„NDVI/NDRE-Vorhersage aus Standard-RGB-Luftbildern unter Verwendung von Deep Learning“, ist in veröffentlicht Computer und Elektronik in der Landwirtschaft.
Mehr Informationen:
Corey Davidson et al, NDVI/NDRE-Vorhersage aus Standard-RGB-Luftbildern unter Verwendung von Deep Learning, Computer und Elektronik in der Landwirtschaft (2022). DOI: 10.1016/j.compag.2022.107396