Grannen-Phänotypisierung mit fortgeschrittenem Deep Learning, mögliche Anwendungen bei der Automatisierung der Sortierung von Gerstengrannen

Grannen, borstenartige Fortsätze von Graspflanzen wie Weizen und Gerste, sind für den Schutz und die Samenverbreitung von entscheidender Bedeutung, wobei Widerhaken auf ihrer Oberfläche eine entscheidende Rolle spielen. Während die genetischen Grundlagen der Stachelbildung durch genomweite Assoziation und genetische Kartierung erforscht wurden, stellt die detaillierte Analyse dieser kleinen, variablen Strukturen eine Herausforderung dar.

Bestehende Methoden wie die Rasterelektronenmikroskopie bieten eine detaillierte Visualisierung, verfügen jedoch nicht über die für Hochdurchsatzanalysen erforderliche Automatisierung. Daher ist die Entwicklung fortschrittlicher automatischer Bildverarbeitungsalgorithmen, insbesondere Deep-Learning-basierter Methoden, zur genauen Segmentierung und Analyse der komplexen Morphologie von Widerhaken wichtig für ein besseres Verständnis und den Anbau von Getreidepflanzen.

Im August 2023, Pflanzenphänomik veröffentlichte einen Forschungsartikel mit dem Titel „Awn Image Analysis and Phenotyping Using BarbNet“.

In dieser Studie entwickelten die Forscher BarbNet, ein spezielles Deep-Learning-Modell zur automatischen Erkennung und Phänotypisierung von Widerhaken in mikroskopischen Bildern von Grannen.

Das Training und die Validierung von BarbNet umfassten 348 Bilder, aufgeteilt in Trainings- und Validierungsteilmengen. Diese Bilder stellten verschiedene Grannen-Phänotypen mit unterschiedlichen Widerhakengrößen und -dichten dar. Die Leistung des Modells wurde mithilfe des binären Kreuzentropieverlusts und des Würfelkoeffizienten (DC) bewertet und zeigte eine signifikante Verbesserung über 75 Epochen mit einem Spitzenvalidierungs-DC von 0,91.

Weitere Verfeinerungen der U-Net-Architektur, darunter Modifikationen wie Batch-Normalisierung, Ausschluss von Dropout-Layern, erhöhte Kernelgröße und Anpassungen der Modelltiefe, führten zum endgültigen BarbNet-Modell.

Dieses Modell übertraf sowohl das Original als auch andere modifizierte U-Net-Modelle bei der Barb-Segmentierung und erreichte eine Genauigkeit von über 90 % bei unsichtbaren Bildern.

Anschließend führten die Forscher eine vergleichende Analyse der Ergebnisse der automatisierten Segmentierung mit manuellen (Ground Truth) Daten durch und zeigten eine hohe Übereinstimmung (86 %) zwischen BarbNet-Vorhersagen und manuellen Anmerkungen, insbesondere bei der Vorhersage der Barb-Anzahl. Darüber hinaus untersuchten die Forscher die genotypisch-phänotypische Klassifizierung und konzentrierten sich dabei auf vier wichtige Grannen-Phänotypen, die mit zwei Genen verknüpft sind, die die Dichte und Größe der Widerhaken steuern.

Mithilfe von Merkmalen, die aus BarbNet-segmentierten Bildern abgeleitet wurden, erreichten sie eine genaue Clusterung von Phänotypen, die die entsprechenden Genotypen widerspiegelten.

Die Studie kommt zu dem Schluss, dass BarbNet mit einer Genauigkeit von 90 % bei der Erkennung verschiedener Grannen-Phänotypen hocheffizient ist. Es bleibt jedoch eine Herausforderung, winzige Widerhaken zu erkennen und dicht gepackte Widerhaken zu unterscheiden. Das Team schlägt vor, den Trainingssatz zu erweitern und alternative CNN-Modelle für weitere Verbesserungen zu untersuchen.

Insgesamt stellt dieser Ansatz einen bedeutenden Fortschritt in der automatisierten Pflanzenphänotypisierung dar, insbesondere für die Erkennung kleiner Organe wie Widerhaken, und stellt ein robustes Werkzeug für Forscher auf diesem Gebiet dar.

Mehr Informationen:
Narendra Narisetti et al, Grannenbildanalyse und Phänotypisierung mit BarbNet, Pflanzenphänomik (2023). DOI: 10.34133/plantphenomics.0081

ph-tech