Verfahrensgerechtigkeit kann das Vertrauens-/Legitimitätsproblem generativer KI angehen

Die vielgepriesene Einführung der generativen KI hat eine bekannte Debatte über Vertrauen und Sicherheit neu entfacht: Kann man Führungskräften im Technologiebereich zutrauen, dass sie das Wohl der Gesellschaft im Auge behalten?

Da ihre Trainingsdaten von Menschen erstellt werden, ist KI von Natur aus anfällig für Voreingenommenheit und unterliegt daher unseren eigenen unvollkommenen, emotional getriebenen Sichtweisen auf die Welt. Wir kennen die Risiken nur zu gut, von der Verstärkung von Diskriminierung und Rassenungleichheiten bis hin zur Förderung der Polarisierung.

OpenAI-CEO Sam Altman hat bat um „Geduld und Treu und Glauben“ während sie daran arbeiten, „es richtig zu machen“.

Jahrzehntelang vertrauten wir geduldig den Tech-Führungskräften auf unsere eigene Gefahr: Sie haben es geschaffen, also haben wir ihnen geglaubt, als sie sagten, sie könnten es reparieren. Das Vertrauen in Technologieunternehmen nimmt weiter ab, und laut dem Edelman Trust Barometer 2023 Weltweit machen sich 65 % Sorgen Die Technologie wird es unmöglich machen, zu wissen, ob das, was die Menschen sehen oder hören, echt ist.

Es ist an der Zeit, dass Silicon Valley einen anderen Ansatz verfolgt, um unser Vertrauen zu gewinnen – einen, der sich im Rechtssystem des Landes als wirksam erwiesen hat.

Ein prozessualer Gerechtigkeitsansatz für Vertrauen und Legitimität

Die auf der Sozialpsychologie basierende Verfahrensgerechtigkeit basiert auf Untersuchungen, die zeigen, dass Menschen Institutionen und Akteure für vertrauenswürdiger und legitimer halten, wenn ihnen zugehört wird und sie eine neutrale, unvoreingenommene und transparente Entscheidungsfindung erfahren.

Vier Schlüsselkomponenten der Verfahrensgerechtigkeit sind:

  • Neutralität: Entscheidungen sind unvoreingenommen und basieren auf transparenten Überlegungen.
  • Respekt: ​​Alle werden mit Respekt und Würde behandelt.
  • Stimme: Jeder hat die Möglichkeit, seine Seite der Geschichte zu erzählen.
  • Vertrauenswürdigkeit: Entscheidungsträger vermitteln vertrauenswürdige Motive über die von ihren Entscheidungen Betroffenen.

Mit diesem Rahmen hat die Polizei das Vertrauen und die Zusammenarbeit in ihren Gemeinden verbessert, und einige Social-Media-Unternehmen beginnen damit Nutzen Sie diese Ideen, um Governance und Moderation zu gestalten Ansätze.

Hier sind ein paar Ideen, wie KI-Unternehmen diesen Rahmen anpassen können, um Vertrauen und Legitimität aufzubauen.

Stellen Sie das richtige Team zusammen, um die richtigen Fragen zu beantworten

Als UCLA-Professorin Safiya Noble argumentiert, dass die Fragen im Zusammenhang mit algorithmischer Voreingenommenheit nicht von Ingenieuren allein gelöst werden können, da es sich um systemische soziale Probleme handelt, die humanistische Perspektiven – außerhalb eines Unternehmens – erfordern, um gesellschaftliche Konversation, Konsens und letztendlich Regulierung sicherzustellen – sowohl auf persönlicher als auch auf staatlicher Ebene.

In „Systemfehler: Wo Big Tech einen Fehler gemacht hat und wie wir einen Neustart durchführen können“ Drei Stanford-Professoren diskutieren kritisch die Defizite der Informatikausbildung und der Ingenieurskultur aufgrund ihrer Optimierungsbesessenheit, bei der die Werte, die für eine demokratische Gesellschaft von zentraler Bedeutung sind, oft beiseite geschoben werden.

In einem Blogbeitrag, Open AI sagt, dass es gesellschaftlichen Input wertschätzt: „Da die Vorteile von AGI so groß sind, glauben wir nicht, dass es für die Gesellschaft möglich oder wünschenswert ist, ihre Entwicklung für immer zu stoppen; Stattdessen müssen die Gesellschaft und die Entwickler von AGI herausfinden, wie sie es richtig machen.“

Allerdings die Einstellungsseite und der Gründer des Unternehmens Sam Altmans Tweets zeigen, dass das Unternehmen Scharen von Ingenieuren für maschinelles Lernen und Informatiker einstellt, weil „ChatGPT eine ehrgeizige Roadmap hat und durch die Technik einen Engpass hat.“

Sind diese Informatiker und Ingenieure in der Lage, Entscheidungen zu treffen, die, wie OpenAI gesagt hat, „wird viel mehr Vorsicht erfordern, als die Gesellschaft normalerweise bei neuen Technologien anwendet”?

Technologieunternehmen sollten multidisziplinäre Teams einstellen, denen Sozialwissenschaftler angehören, die die menschlichen und gesellschaftlichen Auswirkungen der Technologie verstehen. Mit einer Vielzahl von Perspektiven für das Training von KI-Anwendungen und die Implementierung von Sicherheitsparametern können Unternehmen ihre Entscheidungen transparent begründen. Dies kann wiederum dazu führen, dass die Öffentlichkeit die Technologie als neutral und vertrauenswürdig wahrnimmt.

Beziehen Sie Außenperspektiven ein

Ein weiteres Element der Verfahrensgerechtigkeit besteht darin, den Menschen die Möglichkeit zu geben, an einem Entscheidungsprozess teilzunehmen. In einem aktuellen Blog In einem Beitrag darüber, wie das OpenAI-Unternehmen mit Voreingenommenheit umgeht, sagte das Unternehmen, es suche „externen Input zu unserer Technologie“ und verwies auf eine kürzlich durchgeführte Red-Teaming-Übung, einen Prozess zur Risikobewertung durch einen kontradiktorischen Ansatz.

Während Red Teaming ein wichtiger Prozess zur Risikobewertung ist, muss es externe Beiträge einbeziehen. In Die rote Teaming-Übung von OpenAI82 von 103 Teilnehmern waren Angestellte. Von den verbleibenden 23 Teilnehmern waren die meisten Informatikwissenschaftler überwiegend westlicher Universitäten. Um unterschiedliche Standpunkte zu erhalten, müssen Unternehmen über ihre eigenen Mitarbeiter, Disziplinen und Geografie hinausblicken.

Sie können auch ein direkteres Feedback zu KI-Produkten ermöglichen, indem sie Benutzern eine bessere Kontrolle über die Leistung der KI ermöglichen. Sie könnten auch in Betracht ziehen, Möglichkeiten für öffentliche Kommentare zu neuen Richtlinien oder Produktänderungen bereitzustellen.

Sorgen Sie für Transparenz

Unternehmen sollten sicherstellen, dass alle Regeln und damit verbundenen Sicherheitsprozesse transparent sind und vertrauenswürdige Beweggründe für die Entscheidungsfindung vermitteln. Beispielsweise ist es wichtig, die Öffentlichkeit darüber zu informieren, wie die Anwendungen trainiert werden, woher die Daten stammen, welche Rolle Menschen im Trainingsprozess spielen und welche Sicherheitsebenen vorhanden sind, um Missbrauch zu minimieren.

Forschern die Möglichkeit zu geben, KI-Modelle zu prüfen und zu verstehen, ist der Schlüssel zum Aufbau von Vertrauen.

Altman hat es kürzlich richtig gemacht abc Nachrichten Interview, als er sagte: „Ich denke, die Gesellschaft hat nur eine begrenzte Zeit, um herauszufinden, wie sie darauf reagieren, wie sie das regulieren und damit umgehen soll.“

Durch einen Ansatz der Verfahrensgerechtigkeit können Unternehmen, die KI-Plattformen entwickeln, die Gesellschaft in den Prozess einbeziehen und Vertrauen und Legitimität gewinnen – und nicht fordern – und nicht auf die Undurchsichtigkeit und den blinden Glauben der Technologievorläufer zurückgreifen.



tch-1-tech