Technologe und Forscher Aviv Owadja ist sich nicht sicher, ob die generative KI kontrolliert werden kann, aber er glaubt, dass das plausibelste Mittel, sie in Schach zu halten, darin bestehen könnte, diejenigen, die von der KI betroffen sein werden, anzuvertrauen, gemeinsam über die Möglichkeiten zu entscheiden, sie einzudämmen.
Das heißt du; es bedeutet mich. Es ist die Macht großer Netzwerke von Einzelpersonen, Probleme schneller und gerechter zu lösen, als es eine kleine Gruppe von Einzelpersonen allein tun könnte (einschließlich beispielsweise in Washington). Es stützt sich im Wesentlichen auf die Weisheit der Masse und findet in vielen Bereichen statt, darunter in der wissenschaftlichen Forschung, in der Wirtschaft, in der Politik und in sozialen Bewegungen.
In Taiwan beispielsweise gründeten bürgerlich gesinnte Hacker im Jahr 2015 eine Plattform – „virtuelles Taiwan“ – die „Vertreter des öffentlichen, privaten und sozialen Sektors zusammenbringt, um politische Lösungen für Probleme zu diskutieren, die hauptsächlich mit der digitalen Wirtschaft zusammenhängen“. erklärt 2019 von Taiwans Digitalministerin Audrey Tang in der New York Times. Seitdem hat vTaiwan, wie es bekannt ist, Dutzende von Problemen angegangen, indem es sich „auf eine Mischung aus Online-Debatten und persönlichen Diskussionen mit Interessenvertretern stützte“, schrieb Tang damals.
Eine ähnliche Initiative ist Überprüfung der Bürgerinitiative von Oregon, das 2011 in Kraft trat und die stimmberechtigte Bevölkerung des Staates durch einen von Bürgern betriebenen „Beratungsprozess“ über Wahlmaßnahmen informiert. Ungefähr 20 bis 25 Bürger, die repräsentativ für die gesamte Wählerschaft von Oregon sind, werden zusammengebracht, um die Vorzüge einer Initiative zu erörtern; Sie schreiben dann gemeinsam eine Erklärung zu dieser Initiative, die an die anderen Wähler des Bundesstaates gesendet wird, damit sie an Wahltagen besser informierte Entscheidungen treffen können.
Sogenannte deliberative Prozesse haben unter anderem auch in Australien (Wasserpolitik), Kanada (Wahlreform), Chile (Renten und Gesundheitsversorgung) und Argentinien (Wohnungen, Landbesitz) erfolgreich dazu beigetragen, Probleme anzugehen.
„Es gibt Hindernisse, damit dies funktioniert“, wenn es um KI geht, räumt Ovadya ein, der dem Berkman Klein Center in Harvard angehört und dessen Arbeit sich zunehmend auf die Auswirkungen von KI auf Gesellschaft und Demokratie konzentriert. „Aber empirisch wurde dies auf allen Kontinenten der Welt und in jeder Größenordnung durchgeführt“, und je „schneller wir einige dieser Dinge umsetzen können, desto besser“, bemerkt er.
Große Gruppen von Menschen über akzeptable Richtlinien für KI entscheiden zu lassen, mag für manche abwegig klingen, aber selbst Technologen glauben, dass dies Teil der Lösung ist. Mira Murati, Chief Technology Officer des bekannten KI-Startups OpenAI, erzählt die Zeit Magazin in einem neuen Interview, “[W[e’re a small group of people and we need a ton more input in this system and a lot more input that goes beyond the technologies— definitely regulators and governments and everyone else.”
Asked if Murati fears that government involvement can slow innovation or whether she thinks it’s too early for policymakers and regulators to get involved, she tells the outlet, “It’s not too early. It’s very important for everyone to start getting involved given the impact these technologies are going to have.”
In the current regulatory vacuum, OpenAI has taken a self-governing approach for now, instituting guidelines for the safe use of its tech and pushing out new iterations in dribs and drabs — sometimes to the frustration of the wider public.
The European Union has meanwhile been drafting a regulatory framework — AI Act — that’s making its way through the European Parliament and aims to become a global standard. The law would assign applications of AI to three risk categories: applications and systems that create an “unacceptable risk”; “high-risk applications,” such as a “CV-scanning tool that ranks job applicants” that would be subject to specific legal requirements; and applications not explicitly banned or listed as high-risk that would largely be left unregulated.
The U.S. Department of Commerce has also drafted a voluntary framework meant as guidance for companies, but there remains no regulation– zilcho — when it’s sorely needed. (In addition to OpenAI, tech behemoths like Microsoft and Google — despite being burned by earlier releases of their own AI that backfired — are very publicly racing again to roll out AI-infused products and applications, lest they be left behind.)
A kind of World Wide Web consortium, an international organization created in 1994 to set standards for the World Wide Web, would seemingly make sense. Indeed, in that Time interview, Murati observes that “different voices, like philosophers, social scientists, artists, and people from the humanities” should be brought together to answer the many “ethical and philosophical questions that we need to consider.”
Maybe the industry starts there, and so-called collective intelligence fills in many of the gaps between the broad brush strokes.
Maybe some new tools help toward that end. Open AI CEO Sam Altman is also a cofounder, for example, of a retina-scanning company in Berlin called WorldCoin that wants to make it easy to authenticate someone’s identity easily. Questions have been raised about the privacy and security implications of WorldCoin’s biometric approach, but its potential applications include distributing a global universal basic income, as well as empowering new forms of digital democracy.
Either way, Ovadya thinks that turning to deliberative processes involving wide swaths of people from around the world is the way to create boundaries around AI while also giving the industry’s players more credibility.
“OpenAI is getting some flack right now from everyone,” including over its perceived liberal bias, says Ovadya. “It would be helpful [for the company] eine wirklich konkrete Antwort zu haben“ darüber, wie sie ihre künftige Politik festlegt.
Ovadya verweist in ähnlicher Weise auf Stability.AI, das Open-Source-KI-Unternehmen, dessen CEO Emad Mostaque wiederholt darauf hingewiesen hat, dass Stability demokratischer als OpenAI ist, weil es überall verfügbar ist, während OpenAI nur in verfügbar ist Länder gerade jetzt, wo es einen „sicheren Zugang“ bieten kann.
Ovadya sagt: „Emad von Stability sagt, dass er ‚KI demokratisiert‘. Also, Wäre es nicht schön, tatsächlich demokratische Prozesse zu nutzen, um herauszufinden, was die Menschen wirklich wollen?“
Können „wir die Menschen“ die KI in Schach halten? von Connie Loizos ursprünglich auf Tech veröffentlicht