Innovative UAV- und Deep-Learning-Methode verbessert Genauigkeit bei der Maiskolbenerkennung

Ein Forschungsteam hat eine innovative Methode entwickelt, die unbemannte Luftfahrzeuge (UAVs) und Deep-Learning-Techniken nutzt, um den Zustand der Blütenrispen auf Maishybridisierungsfeldern vor und nach der manuellen Entfernung der Blütenrispen genau zu bestimmen. Dieser Ansatz verbessert die Genauigkeit der Blütenrispenerkennung erheblich und erreicht bis zu 98 %, indem spezielle Annotations- und Datenerweiterungsstrategien verwendet werden. Diese Forschung ist von großem Wert für die Verbesserung der Blütenrispenerkennung auf landwirtschaftlichen Feldern, kann möglicherweise manuelle Arbeit reduzieren und die Effizienz des Pflanzenmanagements durch fortschrittliche UAV-basierte Analysesysteme steigern.

Mais ist eine der wichtigsten Nutzpflanzen Chinas und die Überwachung des Rispenstadiums ist für die Maiszucht von entscheidender Bedeutung. Jüngste Fortschritte in der UAV-Technologie haben diese für eine detaillierte Pflanzenüberwachung wertvoll gemacht. Die großen Mengen an generierten Bilddaten stellen jedoch erhebliche Verarbeitungsprobleme dar. Aktuelle Methoden, die CNN-basierte Deep-Learning-Frameworks zur Rispenerkennung verwenden, haben Schwierigkeiten bei der Datenerfassung und -kennzeichnung, und herkömmliche Bildverarbeitungstechniken sind nur begrenzt effektiv.

A Studie veröffentlicht in Pflanzenphänomenologie am 7. Mai 2024, zielt darauf ab, diese Herausforderungen anzugehen, indem genaue Erkennungsmodelle und annotierte Datensätze für die dynamischen Wachstumsstadien von Maiskolben entwickelt werden.

Im Rahmen dieser Forschung wurde ein geeignetes Modell für praktische Anwendungen zur Quastenerkennung ausgewählt, indem verschiedene Versionen des RTMDet-Netzwerkmodells ausgewertet wurden. Zunächst wurden die für die Modellbereitstellung erforderlichen Rechenressourcen unter Berücksichtigung der Parametergrößen und Ressourcenanforderungen ermittelt. Anschließend wurden die Modelle auf ihre Objekterkennungsgenauigkeit hin bewertet, insbesondere mAP@0,5, wobei Unterschiede in der Genauigkeit zwischen den Objektkategorien berücksichtigt wurden. Auch die Inferenzgeschwindigkeit wurde bewertet, die für Echtzeitanwendungen von entscheidender Bedeutung ist.

Die RTMDet-Modelle, von der Tiny- bis zur X-Version, wurden mit dem NSL-C-Datensatz trainiert. Die durchschnittliche Erkennungsgenauigkeit unterschied sich um maximal 1,1 %, wobei die X-Version im Allgemeinen die beste Leistung erbrachte, mit Ausnahme der Tassel-L-Erkennung, bei der die L-Version hervorragende Ergebnisse lieferte. Die S-Version wurde aufgrund ihrer ausgewogenen Leistung und Ressourceneffizienz ausgewählt.

Darüber hinaus wurden die RTMDet-S-Modelle anhand der Datensätze NSL-A, NSL-B und NSL-C trainiert, um ihre Genauigkeit bei der Erkennung von Quasten in verschiedenen Wachstumsstadien zu bewerten. Tests mit dem Datensatz NSL-T zeigten, dass das RTMDet-NSL-C-Modell die beste Gesamtleistung erzielte, insbesondere bei der Erkennung von Tassel-N mit einer Genauigkeit von 99,8 % und von Tassel-S mit minimalem Fehler. Diese Methode erwies sich als effektiv bei der genauen Identifizierung von Quastenzuständen in UAV-Bildern und bietet eine robuste Lösung für die Echtzeitüberwachung und -verwaltung von Maisquasten.

Laut Chunjiang Zhao, dem leitenden Forscher der Studie, „bietet diese Studie, die auf reale Anwendungsszenarien zugeschnitten ist, neue Einblicke in die Analyse des Zustands der Blütenstände auf Maishybridisierungsfeldern mithilfe von Drohnen. Infolgedessen kann in Zukunft ein neuartiges intelligentes System auf Basis von UAV-Fernerkundungsbildern für eine schnelle, groß angelegte semantische Analyse von Maishybridisierungsfeldern entwickelt werden, das die Abhängigkeit von manuellen Felduntersuchungen verringert und Manager bei ihrer Entscheidungsfindung unterstützt.“

Zusammenfassend stellt diese Studie eine innovative Methode zur Beurteilung des Zustands von Maiskolben unter Verwendung von UAV-Bildern und Deep Learning vor. Diese Forschung ebnet den Weg für die Entwicklung intelligenter Systeme auf der Grundlage von UAV-Fernerkundungsbildern, die eine schnelle, groß angelegte Analyse von Maishybridisierungsfeldern ermöglichen und die Abhängigkeit von manuellen Untersuchungen verringern, was letztendlich zu einem effizienteren Pflanzenmanagement und einer effizienteren Entscheidungsfindung beiträgt.

Mehr Informationen:
Jianjun Du et al., Erkennung und Identifizierung von Quastenzuständen in verschiedenen Stadien der Maisquaste mithilfe von UAV-Bildern und Deep Learning, Pflanzenphänomenologie (2024). DOI: 10.34133/plantphenomics.0188

Zur Verfügung gestellt von der NanJing Agricultural University

ph-tech