KI könnte die Umweltplanung revolutionieren – wenn wir nicht im „eisernen Käfig der Rationalität“ gefangen bleiben

Immer kostengünstigere Umweltsensoren in Verbindung mit KI-gestützten Analysetools versprechen eine schnellere und aufschlussreichere Umweltplanung.

Die Notwendigkeit besserer Entscheidungen über die Art und Weise, wie wir Ökosysteme und natürliche Ressourcen nutzen, ist heute noch dringender, da die im Rahmen des Gesetzentwurf zur beschleunigten Genehmigung erfordern schnellere Beurteilungen.

Im Rahmen unserer Forschung bei Kuaha Matahikoeinem frei zugänglichen und kollaborativen Projekt zur Erfassung von Daten über Land und Wasser, stellten wir fest, dass bei den Iwi- und Hapū-Stammesgruppen ein echtes Verlangen nach einer Auseinandersetzung mit KI besteht.

Überlastete Umweltschutzorganisationen (Kaitiaki) erkannten, dass KI dabei helfen könnte, fragmentierte Umweltdatensätze zu integrieren und gleichzeitig schnell und kostengünstig die Analysekapazität zu verbessern.

Basierend auf diesem Bedarf entwickelte das Kuaha Matahiko-Projekt eine funktionierende KI, die mit Umweltdaten aus Aotearoa, Neuseeland, trainiert wurde. Dies zeigt, dass ein Wendepunkt bevorsteht, an dem maßgeschneiderte KI schnell zu einer realistischen Option für Kaitiaki-Gruppen wird, sogar für kleine.

Allerdings ist Vorsicht geboten. Vorherige Erfahrungen zeigen, dass algorithmengestützte Systeme uns oft auf Vorgehensweisen beschränken, die bestehende Ungleichheiten bei der Datenerfassung reproduzieren und die Vorstellungskraft hinsichtlich der Ergebnisse ausschließen.

Diese Probleme entstehen oft aufgrund von zwei miteinander verknüpften Problemen: dem Erbe der Ad-hoc-Datenerfassung und dem oft falschen Glauben, dass ein größeres Datenvolumen eine höhere Genauigkeit bedeutet.

Die „Präzisionsfalle“

Erstens benötigen nützliche KI-Systeme umfangreiche Daten in hoher Geschwindigkeit und Menge. Der parlamentarische Umweltbeauftragte hat aufeinanderfolgende Regierungen gewarnt, dass Neuseelands Umweltdatensystem ad hoc, opportunistisch und unterfinanziert.

Die bestehenden Umweltdatenbanken spiegeln weitgehend die Prioritäten der staatlich geführten Agrarwissenschaft und die jüngsten Bemühungen zur Überwachung ihrer Umweltauswirkungen wider. Unsere Umweltdaten leiden auch unter einer systematischen Unkenntnis von mātauranga Māori.

Langfristige Umweltdatensätze sind sehr wertvoll. Aber sie decken Orte und Probleme nur sehr unvollständig ab, und wir können nicht in der Zeit zurückgehen, um die Datenerfassung zu wiederholen. Das Erkennen der Lücken und Verzerrungen, die durch eine Geschichte ungleichmäßiger, ausschließender Datengenerierung entstanden sind, ist von entscheidender Bedeutung, da diese Daten (und die darin enthaltenen Annahmen) zum Trainieren zukünftiger KIs verwendet werden.

Zweitens verspricht KI Sicherheit und Präzision. Aber eine Studie untersucht Präzisionslandwirtschaft beschreibt die Risiken, die entstehen, wenn wir das hohe Volumen und die Granularität von Big Data mit hoher Genauigkeit verwechseln. Ein übertriebener Glaube an die Präzision von Big Data kann zu einer Aushöhlung von Kontrolle und Ausgleich führen.

Dies wird zu einem immer größeren Problem, da die Algorithmen immer undurchsichtiger werden. Die meisten Algorithmen sind mittlerweile unverständlich. Dies ist auf die technische Komplexität, das mangelnde Verständnis der Benutzer und die absichtlichen Strategien der Entwickler zurückzuführen. Es macht uns blind für die Risiken von Ungenauigkeiten.

Wenn wir die Intransparenz von Algorithmen ignorieren, laufen wir Gefahr, in eine „Präzisionsfalle“ zu tappen. Diese tritt ein, wenn der Glaube an die Präzision von KI zu einer bedingungslosen Akzeptanz der Genauigkeit von KI-Ergebnissen führt. Diese Gefahr besteht aufgrund des politischen, sozialen und rechtlichen Werts, den wir Zahlen als vertrauenswürdigen Ausdruck objektiver „harter Fakten“ zuschreiben.

Diese Risiken steigen rasch an, wenn KI-Systeme zur Vorhersage (und Steuerung) zukünftiger Ereignisse eingesetzt werden, die auf präzisen, aber ungenauen Modellen basieren, die nicht auf Beobachtungen basieren. Aber was passiert, wenn KI-Ergebnisse die Grundlage für Bewertung und Entscheidungsfindung bilden? Haben wir dann die Möglichkeit, ihnen überhaupt nicht zu glauben?

Vermeidung eines „eisernen Käfigs“

Eine mögliche Zukunft liegt in dem, was der deutsche Soziologe Max Weber als „eiserner Käfig der Rationalität„. Hier geraten Gemeinschaften in rationalen, präzisen und effizienten Systemen gefangen, die gleichzeitig unmenschlich und ungerecht sind.

Um diese Zukunft zu vermeiden, müssen wir proaktiv inklusive, verständliche und vielfältige KI-Partnerschaften schaffen. Dabei geht es nicht darum, Rationalität abzulehnen, sondern ihre irrationalen Folgen abzumildern.

Unser sich entwickelnder Rahmen für die Daten- und KI-Governance basiert auf den Grundsätzen der Auffindbarkeit, Zugänglichkeit, Interoperabilität und Wiederverwendbarkeit (GERECHT). Diese sind sehr nützlich. Sie sind auch blind für die Sozialgeschichte der Datenerfassung.

Der Scheitern der Volkszählung 2018 ist ein krasses Beispiel dafür, was passiert, wenn historische Ungleichheiten ignoriert werden. Wir können die Umweltdaten, die wir haben, nicht neu erstellen. Aber neue KI-Systeme müssen sich der Auswirkungen von Datenlücken aus der Vergangenheit bewusst sein und diese in ihr Design einbauen. Das könnte auch bedeuten, über das Bewusstsein hinauszugehen und Daten aktiv anzureichern, um Lücken zu schließen.

Das Weltbild der KI erweitern

Daten und KI müssen menschlichen Zielen dienen. Bewegungen für indigene Datensouveränität fordern das Recht der indigenen Bevölkerung, Daten über ihre Gemeinschaften, Ressourcen und Ländereien zu besitzen und zu verwalten. Sie haben Rahmenwerke inspiriert, die als PFLEGEdas für Gemeinwohl, Autorität, Verantwortung und Ethik steht.

Diese bieten ein Modell zur Stärkung von Datenbeziehungen, bei dem blühende menschliche Beziehungen an erster Stelle stehen. In Aotearoa Neuseeland Te Kāhui Riraunga Māori wurde 2019 als unabhängiges Gremium gegründet, um Māori den Zugriff, die Erfassung und Nutzung ihrer eigenen Daten zu ermöglichen. Ihr Datenverwaltungsmodell ist ein praktisches Beispiel für diese CARE-Prinzipien.

Ein noch größerer Schritt nach vorne wäre es, das Weltbild der KI zu erweitern. Menschlichen Zielen zu dienen bedeutet, die Annahmen und Prioritäten offenzulegen, die verschiedenen KIs innewohnen. Das wiederum bedeutet, die Entwicklung der KI über den als „WEIRD“ beschriebenen Standpunkt hinaus zu öffnen – westlich, gebildet, industriell, reich, entwickelt –, der das Feld derzeit dominiert.

Eine KI für Māori-Organisationen anhand von Umweltdaten aus Aotearoa, Neuseeland zu trainieren, ist eine Sache. Eine KI zu schaffen, die Mātauranga Māori und die in der Māori-Weltanschauung verankerte Verantwortung für das Leben verkörpert, ist eine radikalere Sache.

Wir brauchen diese radikale Vision der KI, die bewusst auf der Grundlage unterschiedlicher Weltanschauungen aufbaut, um zu vermeiden, dass wir den Käfig einsperren und uns die Zukunft verschließen.

Zur Verfügung gestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lesen Sie die originaler Artikel.

ph-tech