Die Beantwortung der größten Fragen der KI erfordert einen interdisziplinären Ansatz

Als Elon Musk das Team hinter seinem neuen Unternehmen für künstliche Intelligenz bekannt gab xAI letzten Monat, dessen Mission angeblich darin besteht, „die wahre Natur des Universums zu verstehen“, unterstrich es, wie wichtig es ist, auf existenzielle Bedenken hinsichtlich der Versprechen und Gefahren der KI einzugehen.

Ob das neu gegründete Unternehmen sein Verhalten tatsächlich darauf ausrichten kann, die potenziellen Risiken der Technologie zu reduzieren, oder ob es lediglich darauf abzielt, sich einen Vorteil gegenüber OpenAI zu verschaffen, seine Gründung wirft wichtige Fragen darüber auf, wie Unternehmen tatsächlich auf Bedenken hinsichtlich KI reagieren sollten. Speziell:

  1. Wer stellt intern, insbesondere bei den größten Gründungsmodellunternehmen, tatsächlich Fragen zu den kurz- und langfristigen Auswirkungen der von ihnen entwickelten Technologie?
  2. Gehen sie die Probleme mit der richtigen Linse und dem richtigen Fachwissen an?
  3. Bringen sie technologische Überlegungen angemessen mit sozialen, moralischen und erkenntnistheoretischen Fragen in Einklang?

Im College habe ich Informatik und Philosophie als Hauptfächer belegt, was mir damals wie eine unpassende Kombination vorkam. In einem Klassenzimmer war ich von Menschen umgeben, die intensiv über Ethik („Was ist richtig, was ist falsch?“), Ontologie („Was gibt es wirklich?“) und Erkenntnistheorie („Was wissen wir eigentlich?“) nachdachten. In einem anderen Fall war ich von Leuten umgeben, die sich mit Algorithmen, Code und Mathematik beschäftigten.

Zwanzig Jahre später, in einem Glücksfall über Weitsicht, ist die Kombination im Kontext der Art und Weise, wie Unternehmen über KI denken müssen, gar nicht so unharmonisch. Die Auswirkungen der KI sind existenziell, und Unternehmen müssen ein authentisches Engagement eingehen, das diesen Risiken würdig ist.

Ethische KI erfordert ein tiefes Verständnis dessen, was existiert, was wir wollen, was wir zu wissen glauben und wie sich Intelligenz entfaltet.

Das bedeutet, dass sie ihre Führungsteams mit Stakeholdern besetzen, die ausreichend gerüstet sind, um die Konsequenzen der von ihnen entwickelten Technologie zu bewältigen – was über die natürliche Fachkenntnis von Ingenieuren hinausgeht, die Code schreiben und APIs härten.

KI ist keine ausschließlich Informatikherausforderung, Neurowissenschaftsherausforderung oder Optimierungsherausforderung. Es ist eine menschliche Herausforderung. Um dieses Problem anzugehen, müssen wir uns auf eine dauerhafte Version einer „KI-Begegnung der Köpfe“ einlassen, deren Umfang dem entspricht Oppenheimers interdisziplinäres Treffen in der Wüste von New Mexico (wo ich geboren wurde) in den frühen 1940er Jahren.

Die Kollision des menschlichen Verlangens mit den unbeabsichtigten Folgen der KI führt zu dem, was Forscher das „Ausrichtungsproblem“ nennen, das fachmännisch in beschrieben wird Brian Christian’s Buch „The Alignment Problem“. Im Wesentlichen haben Maschinen die Möglichkeit, unsere umfassendsten Anweisungen falsch zu interpretieren, und wir als ihre angeblichen Herren haben eine schlechte Erfolgsbilanz darin, ihnen vollständig verständlich zu machen, was wir von ihnen erwarten.

Das Endergebnis: Algorithmen können Voreingenommenheit und Desinformation fördern und dadurch das Gefüge unserer Gesellschaft zerstören. In einem längerfristigen, dystopischeren Szenario können sie die „tückische Wendung„Und die Algorithmen, denen wir zu viel Kontrolle über das Funktionieren unserer Zivilisation überlassen haben, überholen uns alle.

Im Gegensatz zu Oppenheimers Herausforderung, die wissenschaftlicher Natur war, erfordert ethische KI ein tiefes Verständnis dessen, was es gibt, was wir wollen, was wir zu wissen glauben und wie sich Intelligenz entfaltet. Dies ist ein Unterfangen, das zwar analytischer, wenn auch nicht streng wissenschaftlicher Natur ist. Es erfordert einen integrativen Ansatz, der auf kritischem Denken sowohl aus den Geistes- als auch aus den Naturwissenschaften basiert.

Denker aus verschiedenen Bereichen müssen heute mehr denn je eng zusammenarbeiten. Das Dreamteam für ein Unternehmen, das dies wirklich richtig machen möchte, würde etwa so aussehen:

  • Chef-KI- und Datenethiker: Diese Person würde sich mit kurz- und langfristigen Problemen im Zusammenhang mit Daten und KI befassen, einschließlich, aber nicht beschränkt auf die Formulierung und Übernahme ethischer Datengrundsätze, die Entwicklung von Referenzarchitekturen für die ethische Datennutzung, die Rechte der Bürger hinsichtlich der Art und Weise, wie ihre Daten konsumiert werden, usw die von der KI genutzt werden, und Protokolle zur Gestaltung und angemessenen Kontrolle des KI-Verhaltens. Dies sollte vom Chief Technology Officer getrennt sein, dessen Aufgabe hauptsächlich darin besteht, einen Technologieplan umzusetzen und nicht auf dessen Auswirkungen einzugehen. Es handelt sich um eine leitende Rolle im Stab des CEO, die die Kommunikationslücke zwischen internen Entscheidungsträgern und Regulierungsbehörden schließt. Man kann einen Datenethiker nicht von einem führenden KI-Ethiker trennen: Daten sind die Voraussetzung und der Treibstoff für KI; KI selbst erzeugt neue Daten.
  • Chefphilosoph-Architekt: Diese Rolle würde sich mit längerfristigen, existenziellen Anliegen befassen, wobei der Hauptschwerpunkt auf dem „Ausrichtungsproblem“ liegt: wie Schutzmaßnahmen, Richtlinien, Hintertüren und Notausschalter für die KI definiert werden können, um sie so weit wie möglich an die menschlichen Bedürfnisse und Ziele anzupassen .
  • Chef-Neurowissenschaftler: Diese Person würde sich mit kritischen Fragen des Empfindungsvermögens befassen und wie sich Intelligenz in KI-Modellen entfaltet, welche Modelle menschlicher Kognition für die Entwicklung von KI am relevantesten und nützlichsten sind und was KI uns über die menschliche Kognition lehren kann.

Um die Ergebnisse des Dreamteams in verantwortungsvolle, effektive Technologie umzuwandeln, brauchen wir unbedingt Technologen, die abstrakte Konzepte und Fragen der „Drei“ in funktionierende Software übersetzen können. Wie bei allen arbeitenden Technologiegruppen hängt dies vom Produktleiter/Designer ab, der das Gesamtbild sieht.

Eine neue Generation erfinderischer Produktführer im „Zeitalter der KI“ muss sich problemlos über neue Ebenen des Technologie-Stacks bewegen, einschließlich der Modellinfrastruktur für KI sowie neuer Dienste für Dinge wie Feinabstimmung und proprietäre Modellentwicklung. Sie müssen erfinderisch genug sein, um sich „Human in the Loop“-Arbeitsabläufe vorzustellen und zu entwerfen, um Schutzmaßnahmen, Hintertüren und Notausschalter zu implementieren, wie vom Chefphilosophen-Architekten vorgeschrieben. Sie müssen über die Fähigkeit eines Renaissance-Ingenieurs verfügen, die Richtlinien und Protokolle der Chef-KI und Datenethiker in funktionierende Systeme zu übersetzen. Sie müssen die Bemühungen des Chef-Neurowissenschaftlers würdigen, sich zwischen Maschinen und Geist zu bewegen und Erkenntnisse angemessen zu erkennen, die das Potenzial haben, eine intelligentere, verantwortungsvollere KI hervorzubringen.

Betrachten wir OpenAI als ein frühes Beispiel für ein gut entwickeltes, äußerst einflussreiches, grundlegendes Modellunternehmen, das mit dieser Personalherausforderung zu kämpfen hat: Sie haben ein Chefwissenschaftler (der auch ihr Mitbegründer ist), a Leiter der globalen Politikund ein General Counsel.

Ohne die drei Positionen, die ich oben in Führungspositionen skizziere, bleiben jedoch die größten Fragen im Zusammenhang mit den Auswirkungen ihrer Technologie unbeantwortet. Wenn Sam Altman es ist betroffen Wenn es darum geht, die Behandlung und Koordination der Superintelligenz umfassend und durchdacht anzugehen, ist der Aufbau einer ganzheitlichen Aufstellung ein guter Anfang.

Wir müssen eine verantwortungsvollere Zukunft aufbauen, in der Unternehmen vertrauenswürdige Verwalter der Daten der Menschen sind und in der KI-gesteuerte Innovation ein Synonym für Gutes ist. In der Vergangenheit waren Rechtsteams bei Themen wie Datenschutz vorherrschend, aber die klügsten unter ihnen erkennen, dass sie Probleme der ethischen Datennutzung im Zeitalter der KI nicht alleine lösen können.

Die einzige Möglichkeit, ethische Daten und KI im Dienste des menschlichen Gedeihens zu erreichen, besteht darin, aufgeschlossene, unterschiedliche Perspektiven an den Tisch zu bringen, an dem Entscheidungen getroffen werden – und gleichzeitig die Maschinen an ihrem Platz zu halten.

tch-1-tech