Als Teenager beschäftigte ich mich intensiv mit Science-Fiction. Auch wenn die Visionen vieler Filme und Romane nicht wahr geworden sind, bin ich immer noch erstaunt über die Fähigkeit des legendären Schriftstellers Isaac Asimov, sich eine Zukunft mit künstlicher Intelligenz und Robotik vorzustellen. Jetzt, inmitten des ganzen Hypes um generative KI und andere KI-Tools, ist es für uns an der Zeit, Asimovs Beispiel zu folgen und ein neues Regelwerk zu schreiben.
Natürlich werden die KI-Regeln für das 21. Jahrhundert nicht ganz so einfach sein wie Asimovs drei Regeln der Robotik (populär gemacht in „I, Robot“). Aber inmitten der Besorgnis über den Aufstieg von KI-Tools und einem fehlgeleiteten Vorstoß nach einem Moratorium In Bezug auf fortgeschrittene KI-Forschung kann und sollte die Industrie auf Regeln für eine verantwortungsvolle KI-Entwicklung drängen. Sicherlich haben uns die technologischen Fortschritte des letzten Jahrhunderts reichlich Erfahrung bei der Bewertung sowohl der Vorteile des technologischen Fortschritts als auch der potenziellen Fallstricke beschert.
Die Technologie selbst ist neutral. Die Art und Weise, wie wir es nutzen – und die Leitplanken, die wir darum herum errichten – bestimmen seine Wirkung. Als Menschen ermöglichte uns die Nutzung der Kraft des Feuers, warm zu bleiben und die Lagerzeit von Lebensmitteln zu verlängern. Aber Feuer kann immer noch zerstörerisch sein.
Denken Sie darüber nach, wie das die jüngsten Waldbrände in Kanada bedrohte Leben und Eigentum in Kanada und beeinträchtigte die Luftqualität in den USA. Atomkraft in Form von Atombomben tötete im Zweiten Weltkrieg Tausende in Japan, aber Kernenergie erleuchtet weite Teile Frankreichs und treibt US-Flugzeugträger an.
Wir befinden uns in einem entscheidenden Moment für die Zukunft einer erstaunlichen, komplexen und folgenreichen Technologie. Wir können es uns nicht leisten, anderen Ländern die Führung zu überlassen.
Im Fall von KI können neue Tools und Plattformen große globale Probleme lösen und wertvolles Wissen schaffen. Bei einem kürzlichen Treffen der Chief Information Officers der Region Detroit berichteten die Teilnehmer darüber, wie generative KI bereits die Markteinführungszeit verkürzt und ihre Unternehmen wettbewerbsfähiger macht.
Generative KI wird uns helfen, auf verschiedene Tierarten zu „hören“. KI wird unsere Gesundheit verbessern, indem sie die Entdeckung von Medikamenten und die Diagnose von Krankheiten unterstützt. Ähnliche Tools bieten alles von der personalisierten Betreuung älterer Menschen bis hin zu mehr Sicherheit für unsere Häuser. Darüber hinaus wird KI unsere Produktivität verbessern neue Studie von McKinsey zeigt, dass generative KI die Weltwirtschaft jährlich um 4,4 Billionen US-Dollar ankurbeln könnte.
Kann eine so erstaunliche Technologie bei all diesen Möglichkeiten auch schlecht sein? Einige der Bedenken im Zusammenhang mit KI-Plattformen sind berechtigt. Wir sollten uns über das Risiko von Deep Fakes, politischer Manipulation und Betrug für gefährdete Bevölkerungsgruppen Sorgen machen, aber wir können KI auch nutzen, um schädliche Cyber-Eingriffe zu erkennen, abzufangen und zu blockieren. Sowohl Hindernisse als auch Lösungen können schwierig und komplex sein, und wir müssen an ihnen arbeiten.
Einige mögen auch einfach sein; Wir erleben bereits, dass Schulen mit mündlichen Prüfungen experimentieren, um das Wissen eines Schülers zu testen. Wenn wir diese Probleme direkt angehen, anstatt den Kopf in den Sand zu stecken und eine Forschungspause einzulegen, die unmöglich durchzusetzen wäre und von böswilligen Akteuren ausgebeutet werden könnte, werden die Vereinigten Staaten eine führende Position auf der Weltbühne einnehmen.
Während die Herangehensweise der USA an KI gemischt ist, scheinen andere Länder in einen hyperregulierenden Ansturm verwickelt zu sein. Die EU steht kurz vor der Verabschiedung eines umfassenden KI-Gesetzes, das Unternehmen dazu verpflichten würde, um Erlaubnis für Innovationen zu bitten. In der Praxis würde das bedeuten, dass nur die Regierung oder große Unternehmen, die über die finanziellen Mittel und Kapazitäten verfügen, sich das Zertifizierungslabyrinth zu Datenschutz, geistigem Eigentum und einer Vielzahl von Sozialschutzanforderungen leisten zu können, neue KI-Tools entwickeln könnten.
A Kürzlich durchgeführte Studie von der Stanford University stellte außerdem fest, dass der KI-Gesetzentwurf der EU alle derzeit vorhandenen großen Sprachmodelle, einschließlich GPT-4 von OpenAI und Bard von Google, verbieten würde. Kanadische Gesetzgeber treiben einen zu weit gefassten KI-Gesetzentwurf voran, der Innovationen ebenfalls ersticken könnte. Am besorgniserregendsten ist, dass China mit massiver staatlicher Unterstützung rasch die zivile und militärische KI-Vorherrschaft anstrebt. Darüber hinaus hat das Unternehmen eine andere Sichtweise auf Menschenrechte und den Schutz der Privatsphäre, die seinen KI-Bemühungen vielleicht helfen könnte, aber im Widerspruch zu unseren Werten steht. Die USA müssen handeln, um die Bürger zu schützen und die KI-Innovation voranzutreiben, sonst bleiben wir zurück.
Wie würde das aussehen? Zunächst benötigen die USA ein präventives Bundesgesetz zum Schutz der Privatsphäre. Das heutige Patchwork von bundesstaatliche Regeln bedeutet, dass Daten jedes Mal anders behandelt werden, wenn sie eine unsichtbare Grenze „überschreiten“, was zu Verwirrung und Compliance-Hürden für kleine Unternehmen führt. Wir brauchen ein nationales Datenschutzgesetz mit klaren Richtlinien und Standards dafür, wie Unternehmen Daten sammeln, nutzen und weitergeben. Dies würde auch dazu beitragen, Transparenz für Verbraucher zu schaffen und sicherzustellen, dass Unternehmen Vertrauen schaffen können, wenn die digitale Wirtschaft wächst.
Wir brauchen auch eine Reihe von Grundsätzen für den verantwortungsvollen Einsatz von KI. Obwohl ich weniger Regulierung bevorzuge, erfordert die Verwaltung neuer Technologien wie KI klare Regeln, die festlegen, wie diese Technologie entwickelt und eingesetzt werden kann. Da fast täglich neue Innovationen in der KI vorgestellt werden, sollten sich Gesetzgeber auf Leitplanken und Ergebnisse konzentrieren, anstatt zu versuchen, bestimmte Technologien einzudämmen.
Die Regeln sollten auch den Grad des Risikos berücksichtigen und sich auf KI-Systeme konzentrieren, die die Grundrechte der Amerikaner oder den Zugang zu wichtigen Diensten erheblich beeinträchtigen könnten. Während unsere Regierung festlegt, wie „gute Politik“ aussieht, kommt der Industrie eine entscheidende Rolle zu. Die Consumer Technology Association arbeitet eng mit der Industrie und politischen Entscheidungsträgern zusammen, um einheitliche Prinzipien für den Einsatz von KI zu entwickeln.
Wir befinden uns in einem entscheidenden Moment für die Zukunft einer erstaunlichen, komplexen und folgenreichen Technologie. Wir können es uns nicht leisten, anderen Ländern die Führung zu überlassen.