Seitdem künstliche Intelligenz (KI) in den letzten zwei Jahren zum Mainstream geworden ist, sind viele der damit verbundenen Risiken umfassend dokumentiert. Einige Menschen glauben nicht nur, dass die aufkommende Technologie Deep-Fake-Pornos befeuert, die Privatsphäre bedroht und die Klimakrise beschleunigt könnte sogar zum Aussterben der Menschheit führen.
Doch einige Risiken der KI sind noch immer unzureichend verstanden. Dazu gehören die ganz besonderen Risiken für indigene Völker und Gemeinschaften.
Dafür gibt es einen einfachen Grund: Die KI-Industrie und die Regierungen haben die indigene Bevölkerung bei der Entwicklung und Regulierung von KI-Technologien weitgehend ignoriert. Anders ausgedrückt: Die Welt der KI ist zu weiß.
KI-Entwickler und Regierungen müssen dieses Problem dringend beheben, wenn sie ernsthaft sicherstellen wollen, dass alle an den Vorteilen der KI teilhaben. Wie die Aborigines und Bewohner der Torres-Strait-Inseln gerne sagen: „Nichts über uns, ohne uns“.
Indigene Anliegen
Indigene Völker auf der ganzen Welt ignorieren KI nicht. Sie führen Gespräche, führen Recherchen durch und äußern ihre Bedenken hinsichtlich der aktuellen Entwicklung und verwandter Technologien.
A gut dokumentiert Problem ist der Diebstahl von kulturellem geistigem Eigentum. Beispielsweise können Benutzer von KI-Bilderzeugungsprogrammen wie z DeepAI kann in Sekundenschnelle künstlich Kunstwerke erzeugen, die indigene Stile und Kunstgeschichten nachahmen.
Dies zeigt, wie leicht es für jemanden, der KI nutzt, ist, kulturelles Wissen zu missbrauchen. Diese Generationen werden aus großen Datensätzen öffentlich verfügbarer Bilder entnommen, um etwas Neues zu schaffen. Aber sie vermissen das Geschichtenerzählen und das kulturelle Wissen, das in unseren Kunstpraktiken vorhanden ist.
KI-Technologien fördern auch die Verbreitung von Fehlinformationen über indigene Völker.
Das Internet ist bereits voller Fehlinformationen über indigene Völker. Die seit langem bestehende Website von Creative Spirits, die von einer nicht-indigenen Person gepflegt wird, ist ein prominentes Beispiel.
Generative KI-Systeme dürften dieses Problem noch verschlimmern. Sie oft Bringen Sie uns mit anderen globalen indigenen Völkern in Konflikt auf der ganzen Welt. Sie greifen auch auf unangemessene Quellen zurück, darunter Creative Spirits.
Beim letztjährigen Referendum „Voice to Parliament“ in Australien verwendeten die Aktivisten ebenfalls „Nein“. KI-generierte Bilder Darstellung indigener Völker. Dies zeigt die Rolle der KI in politischen Kontexten und den Schaden, den sie uns zufügen kann.
Ein weiteres Problem ist das mangelnde Verständnis der indigenen Bevölkerung für KI. Etwa 40 % der Aborigines und Torres-Strait-Insulaner in Australien wissen nicht, was generative KI ist. Dies spiegelt die dringende Notwendigkeit wider, indigenen Gemeinschaften relevante Informationen und Schulungen zum Einsatz der Technologie bereitzustellen.
Es bestehen auch Bedenken hinsichtlich des Einsatzes von KI im Unterrichtskontext und seiner spezifischen Auswirkungen auf indigene Schüler.
Blick in die Zukunft
Hawaiianischer und samoanischer Gelehrter Jason Lewis sagt,
„Wir müssen umfassender über KI und alle anderen Computersysteme nachdenken, in die wir zunehmend verstrickt sind. Wir müssen die operative Definition von Intelligenz, die beim Aufbau dieser Systeme verwendet wird, erweitern, um das gesamte Spektrum des Verhaltens einzubeziehen, das wir Menschen nutzen, um Sinn zu machen.“ die Welt.“
Der Schlüssel dazu ist die Idee der „indigenen Datensouveränität“. Dies würde bedeuten, dass indigene Völker die Souveränität über ihre eigenen Daten behalten, in dem Sinne, dass sie deren Eigentümer sind und den Zugriff darauf kontrollieren.
In Australien gibt es ein Kollektiv namens Maiam Nayri Wingara bietet wichtige Überlegungen und Grundsätze zur Datensouveränität und Governance. Sie bekräftigen das Recht der Ureinwohner, unsere Datenökosysteme zu regieren und zu kontrollierenvon der Kreation bis zur Infrastruktur.
Das nationale Abkommen zur Schließung der Lücke bekräftigt auch die Bedeutung der indigenen Datenkontrolle und des Zugriffs.
Dies wird auch auf globaler Ebene bekräftigt. Im Jahr 2020 eine Gruppe indigener Wissenschaftler aus der ganzen Welt ein Positionspapier veröffentlicht Darlegung, wie indigene Protokolle ethisch erstellte KI beeinflussen können. Diese Art von KI würde das Wissen indigener Völker zentralisieren.
Ein positiver Schritt ist, dass die kürzlich von der australischen Regierung vorgeschlagenen KI-Leitplanken die Bedeutung der Datensouveränität der Ureinwohner hervorheben.
Zu den Leitplanken gehört beispielsweise die Notwendigkeit Sorgen Sie für zusätzliche Transparenz und machen Sie zusätzliche Überlegungen wenn es darum geht, Daten über Aborigines und Torres-Strait-Insulaner oder deren Besitz zu nutzen, um „die Aufrechterhaltung bestehender sozialer Ungleichheiten abzumildern“.
Indigene Futurismen
Grace Dillonein Gelehrter aus einer Gruppe nordamerikanischer indigener Völker, die als Anishinaabe bekannt sind, prägte als erster den Begriff „Indigene Futurismen“.
Ambelin Kwaymullina, ein akademischer und futuristischer Praktiker aus der Palyku-Nation in Westaustralien, definiert es als „Visionen dessen, was sein könnte, die von alten Aborigine-Kulturen und unserem tiefen Verständnis von Unterdrückungssystemen geprägt sind.“
Diese Visionen, schreibt Kwaymullina, seien „so vielfältig wie die indigenen Völker selbst“. Sie sind sich auch einig durch „ein Verständnis der Realität als lebendiges, miteinander verbundenes Ganzes, in dem der Mensch nur ein Lebensstrang unter vielen ist, und eine nichtlineare Sicht auf die Zeit.“
Wie können KI-Technologien also durch indigene Wissensweisen beeinflusst werden?
Ein erster Schritt besteht darin, dass die Industrie indigene Völker in die Entwicklung, Wartung und Bewertung der Technologien einbezieht – anstatt sie im Nachhinein zu bitten, bereits geleistete Arbeit zu genehmigen.
Regierungen müssen auch mehr tun, als nur die Bedeutung der Datensouveränität indigener Völker in politischen Dokumenten hervorzuheben. Sie müssen sich sinnvoll mit indigenen Völkern beraten, um den Einsatz dieser Technologien zu regulieren. Diese Konsultation muss darauf abzielen, ein ethisches KI-Verhalten bei Organisationen und alltäglichen Benutzern sicherzustellen, das indigene Weltanschauungen und Realitäten respektiert.
KI-Entwickler und Regierungen behaupten gerne, dass es ihnen ernst damit ist, sicherzustellen, dass die KI-Technologie der gesamten Menschheit zugute kommt. Aber wenn sie nicht anfangen, die indigene Bevölkerung stärker in die Entwicklung und Regulierung der Technologie einzubeziehen, klingen ihre Behauptungen hohl.
Dieser Artikel wurde erneut veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.