Les progrès récents en matière de vision par ordinateur agricole se sont fortement appuyés sur des modèles d’apprentissage profond qui, malgré leur succès dans les tâches générales, manquent souvent d’ajustements spécifiques à l’agriculture. Cela entraîne une augmentation du temps de formation, une utilisation des ressources et une baisse des performances en raison du recours aux pondérations provenant d’ensembles de données non agricoles.
Bien que l’apprentissage par transfert se soit révélé efficace pour atténuer les lacunes en matière de données, la recherche actuelle souligne l’incapacité des modèles pré-entraînés existants à saisir la pertinence agricole et l’absence d’un ensemble de données substantiel spécifique à l’agriculture. Les défis comprennent l’insuffisance de données spécifiques aux tâches et les incertitudes concernant l’efficacité de l’augmentation des données dans les contextes agricoles.
Pour résoudre ces problèmes, il est impératif d’explorer des stratégies alternatives de modèles pré-entraînés et d’établir un ensemble de données agricoles centralisées pour améliorer l’efficacité des données et renforcer les performances du modèle dans les tâches spécifiques à l’agriculture.
Dans une étude publiée dans Phénomique des plantesles chercheurs ont créé un nouveau cadre pour l’apprentissage profond agricole en standardisant un large éventail d’ensembles de données publiques pour trois tâches distinctes et en construisant des références et des modèles pré-entraînés.
Ils ont utilisé des méthodes d’apprentissage profond couramment utilisées, mais inexplorées dans l’agriculture, pour améliorer l’efficacité des données et les performances des modèles sans modifications majeures des pipelines existants. La recherche a montré que les benchmarks standards permettent aux modèles de fonctionner de manière comparable ou meilleure que les benchmarks existants, ces ressources étant mises à disposition via AgML (github.com/Project-AgML/AgML).
Pour la détection d’objets, les poids agricoles pré-entraînés ont largement surpassé les lignes de base standard, permettant une convergence plus rapide et une plus grande précision, en particulier pour certains fruits. De même, dans la segmentation sémantique, les modèles dotés d’un squelette agricole pré-entraîné ont surpassé ceux dotés d’un squelette général, indiquant des améliorations rapides des performances.
Ces résultats soulignent que même des ajustements subtils des processus de formation peuvent améliorer considérablement les tâches d’apprentissage approfondi en agriculture. L’étude s’est également penchée sur l’efficacité des augmentations de données, révélant que les augmentations spatiales surpassaient les augmentations visuelles, suggérant leur potentiel à améliorer la généralisabilité et les performances du modèle dans diverses conditions.
Cependant, l’impact variait selon les tâches et les conditions, soulignant la nature nuancée de l’application de l’augmentation. De plus, les chercheurs ont exploré les effets de la qualité des annotations, révélant que les modèles pouvaient toujours fonctionner correctement même avec des annotations de moindre qualité, ce qui suggère un potentiel pour une utilisation plus large des données et des stratégies d’annotation.
En résumé, ce travail fait non seulement progresser le domaine de l’apprentissage profond agricole grâce à un nouvel ensemble d’ensembles de données standardisés, de références et de modèles pré-entraînés, mais fournit également un guide pratique pour les recherches futures. En démontrant que des ajustements mineurs de la formation peuvent conduire à des améliorations significatives, des voies ont été ouvertes pour un apprentissage agricole approfondi plus efficace et efficient, contribuant ainsi à l’objectif plus large de faire progresser la technologie et la productivité agricoles.
Plus d’information:
Amogh Joshi et al, Standardisation et centralisation des ensembles de données pour une formation efficace des modèles d’apprentissage profond agricole, Phénomique des plantes (2023). DOI : 10.34133/plantphenomics.0084