Les arêtes, extensions en forme de poils sur les graminées comme le blé et l’orge, sont essentielles à la protection et à la dispersion des graines, les barbes à leur surface jouant un rôle crucial. Bien que les bases génétiques de la formation des barbes aient été explorées par le biais d’associations à l’échelle du génome et de cartographie génétique, l’analyse détaillée de ces petites structures variables pose un défi.
Les méthodes existantes, telles que la microscopie électronique à balayage, fournissent une visualisation détaillée mais ne disposent pas de l’automatisation requise pour une analyse à haut débit. Par conséquent, le développement d’algorithmes avancés de traitement automatique d’images, en particulier de méthodes basées sur l’apprentissage profond, pour segmenter et analyser avec précision la morphologie complexe des barbes est important pour une meilleure compréhension et une meilleure culture des cultures céréalières.
En août 2023, Phénomique des plantes a publié un article de recherche intitulé « Awn Image Analysis and Phenotyping Using BarbNet ».
Dans cette étude, les chercheurs ont développé BarbNet, un modèle d’apprentissage profond spécialisé conçu pour la détection et le phénotypage automatisés des barbes dans des images microscopiques d’arêtes.
La formation et la validation de BarbNet ont impliqué 348 images, divisées en sous-ensembles de formation et de validation. Ces images représentaient divers phénotypes d’arête avec des tailles et des densités de barbillons variables. Les performances du modèle ont été évaluées à l’aide de la perte d’entropie croisée binaire et du coefficient de dés (DC), montrant une amélioration significative sur 75 époques, avec un DC de validation maximal de 0,91.
D’autres améliorations apportées à l’architecture U-net, notamment des modifications telles que la normalisation par lots, l’exclusion des couches d’abandon, l’augmentation de la taille du noyau et des ajustements de la profondeur du modèle, ont conduit au modèle BarbNet final.
Ce modèle a surpassé à la fois l’original et les autres modèles U-net modifiés dans les tâches de segmentation des barbes, atteignant une précision de plus de 90 % sur des images invisibles.
Les chercheurs ont ensuite mené une analyse comparative des résultats de segmentation automatisée avec des données manuelles (vérité terrain), révélant une conformité élevée (86 %) entre les prédictions de BarbNet et les annotations manuelles, en particulier dans la prévision du nombre de barbes. De plus, les chercheurs ont exploré la classification génotypique-phénotypique, en se concentrant sur quatre phénotypes majeurs de l’arête liés à deux gènes contrôlant la densité et la taille des barbes.
En utilisant des fonctionnalités dérivées des images segmentées BarbNet, ils ont obtenu un regroupement précis des phénotypes, reflétant les génotypes correspondants.
L’étude conclut que BarbNet est très efficace, avec un taux de précision de 90 % dans la détection de divers phénotypes d’arête. Cependant, des défis subsistent pour détecter les minuscules barbes et distinguer les barbes densément tassées. L’équipe suggère d’élargir l’ensemble de formation et d’explorer des modèles CNN alternatifs pour des améliorations supplémentaires.
Dans l’ensemble, cette approche marque une avancée significative dans le phénotypage automatisé des plantes, en particulier pour la détection de petits organes comme les barbes, offrant ainsi un outil robuste aux chercheurs dans le domaine.
Plus d’information:
Narendra Narisetti et al, Analyse d’images Awn et phénotypage à l’aide de BarbNet, Phénomique des plantes (2023). DOI : 10.34133/plantphenomics.0081