L’IA pourrait révolutionner la planification environnementale – si nous ne nous laissons pas piéger dans la « cage de fer de la rationalité »

Des capteurs environnementaux de moins en moins coûteux, associés à des outils d’analyse basés sur l’IA, laissent entrevoir la promesse d’une planification environnementale plus rapide et plus éclairée.

La nécessité d’une meilleure prise de décision sur la façon dont nous utilisons les écosystèmes et les ressources naturelles est encore plus urgente aujourd’hui, car les changements consentis proposés dans le cadre de la Projet de loi sur les approbations accélérées nécessitent des évaluations plus rapides.

Dans le cadre de nos recherches à Kuaha Matahikoun projet collaboratif et en libre accès visant à compiler des données sur la terre et l’eau, nous avons constaté une réelle soif d’engagement avec l’IA parmi les groupes iwi et hapū (tribaux).

Les organisations kaitiaki (gardiennes de l’environnement) surchargées ont vu la possibilité que l’IA les aide à intégrer des ensembles de données environnementales fragmentés tout en améliorant rapidement et à moindre coût leur capacité d’analyse.

C’est sur la base de ce besoin que le projet Kuaha Matahiko a développé une IA fonctionnelle, formée à partir de données environnementales provenant d’Aotearoa en Nouvelle-Zélande. Cela montre qu’un point de basculement est en train d’émerger où l’IA sur mesure devient rapidement une option réaliste pour les groupes kaitiaki, même les plus petits.

Il faut toutefois faire preuve de prudence. Expériences antérieures Les systèmes basés sur des algorithmes nous enferment souvent dans des voies qui reproduisent les inégalités existantes dans la collecte de données et empêchent toute imagination quant aux résultats.

Ces problèmes surviennent souvent en raison de deux problèmes interdépendants : un héritage de collecte de données ad hoc et une croyance souvent erronée selon laquelle un volume de données plus important équivaut à une meilleure précision.

Le « piège de la précision »

Premièrement, les systèmes d’IA utiles nécessitent des données riches, à grande vitesse et en volume. Le commissaire parlementaire à l’environnement a averti les gouvernements successifs que le système de données environnementales de la Nouvelle-Zélande était ad hoc, opportuniste et sous-financé.

Les bases de données environnementales existantes reflètent en grande partie les priorités de la science agricole dirigée par l’État et les efforts récents pour surveiller ses impacts environnementaux. Nos données environnementales souffrent également d’une ignorance systématique mātauranga maori.

Les ensembles de données environnementales de longue durée sont très précieux. Mais ils sont très incomplets dans leur couverture des lieux et des problèmes, et nous ne pouvons pas remonter dans le temps pour refaire la collecte de données. Il est essentiel de reconnaître les lacunes et les biais créés par une génération de données inégale et exclusive, car ce sont ces données (et les hypothèses intégrées) qui seront utilisées pour former les futures IA.

Deuxièmement, l’IA promet certitude et précision. Mais une étude sur l’agriculture de précision décrit les risques émergents lorsque nous confondons le volume et la granularité élevés des big data avec une grande précision. Une croyance exagérée dans la précision des big data peut conduire à une érosion des freins et contrepoids.

Ce problème devient de plus en plus grave à mesure que les algorithmes deviennent de plus en plus flous. La plupart d’entre eux sont désormais inintelligibles. Cela résulte de la complexité technique, de l’incompréhension des utilisateurs et des stratégies intentionnelles des développeurs. Cela nous empêche de voir les risques d’inexactitude.

En ne prêtant pas attention à l’opacité des algorithmes, nous risquons de tomber dans le « piège de la précision ». Cela se produit lorsque la croyance en la précision de l’IA se traduit par une acceptation aveugle de l’exactitude des résultats de l’IA. Ce danger est dû à la valeur politique, sociale et juridique que nous accordons aux chiffres en tant qu’expression fiable de « faits concrets » objectifs.

Ces risques augmentent rapidement lorsque les systèmes d’IA sont utilisés pour prévoir (et gérer) des événements futurs en s’appuyant sur des modèles précis mais inexacts, sans lien avec les observations. Mais que se passe-t-il lorsque les résultats de l’IA constituent la base de l’évaluation et de la prise de décision ? Avons-nous la possibilité de ne pas y croire du tout ?

Éviter une « cage de fer »

Un avenir possible réside dans ce que le sociologue allemand Max Weber a appelé le «cage de fer de la rationalité« C’est là que les communautés se retrouvent piégées dans des systèmes rationnels, précis et efficaces qui sont à la fois inhumains et inéquitables.

Pour éviter ce futur, il faut créer de manière proactive des partenariats d’IA inclusifs, intelligibles et diversifiés. Il ne s’agit pas de rejeter la rationalité, mais d’en modérer les conséquences irrationnelles.

Notre cadre de gouvernance des données et de l’IA en constante évolution s’appuie sur les principes de recherche, d’accessibilité, d’interopérabilité et de réutilisation (ÉQUITABLE). Ils sont très utiles. Ils ne tiennent pas compte non plus des histoires sociales de collecte de données.

Le échec du recensement de 2018 est un exemple frappant de ce qui se passe lorsque les inégalités historiques sont ignorées. Nous ne pouvons pas refaire les données environnementales dont nous disposons. Mais les nouveaux systèmes d’IA doivent avoir une conscience des effets des lacunes des données passées intégrée à leur conception. Cela pourrait également signifier aller au-delà de la sensibilisation pour enrichir activement les données afin de combler les lacunes.

Élargir la vision du monde de l’IA

Les données et l’IA doivent servir les objectifs humains. Les mouvements autochtones pour la souveraineté des données revendiquent le droit des peuples autochtones à posséder et à gérer les données sur leurs communautés, leurs ressources et leurs terres. Ils ont inspiré des cadres connus sous le nom de SE SOUCIERqui signifie bénéfice collectif, autorité, responsabilité et éthique.

Ces modèles offrent un modèle de relations de données autonomisantes qui accorde la priorité aux relations humaines florissantes. En Aotearoa Nouvelle-Zélande, Te Kāhui Raraunga Māori a été créé en 2019 en tant qu’organisme indépendant pour permettre aux Maoris d’accéder à leurs propres données, de les collecter et de les utiliser. Leur modèle de gouvernance des données est un exemple de ces principes CARE en action.

Un pas en avant encore plus grand serait d’élargir la vision du monde de l’IA. Pour servir les objectifs humains, il faut mettre en lumière les hypothèses et les priorités intégrées dans les différentes IA. Cela signifie à son tour ouvrir le développement de l’IA au-delà de ce qui a été décrit comme le point de vue « WEIRD » (occidental, éduqué, industriel, riche, développé) qui domine actuellement le domaine.

Former une IA sur des données environnementales provenant d’Aotearoa Nouvelle-Zélande pour des organisations maories est une chose. Créer une IA qui incarne le mātauranga maori et les responsabilités liées à la vie ancrées dans la vision du monde maorie est une chose plus radicale.

Nous avons besoin de cette vision radicale de l’IA, délibérément construite à partir de visions du monde diverses, pour éviter de nous enfermer dans une cage et de nous empêcher d’envisager l’avenir.

Fourni par The Conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lire la suite article original.

ph-tech