ChatGPTein schnell wachsendes künstliche Intelligenz Programm, hat Lob für seine Fähigkeit erhalten, schnell Antworten auf eine Vielzahl von Fragen zu schreiben, und hat die Aufmerksamkeit der US-Gesetzgeber mit Fragen zu seinen Auswirkungen auf die nationale Sicherheit und Bildung auf sich gezogen. Es wurde geschätzt, dass ChatGPT nur zwei Monate nach dem Start 100 Millionen monatlich aktive Benutzer erreicht hat, was es zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte und zu einem wachsenden Ziel für die Regulierung macht.
Es wurde erstellt von OpenAIein privates Unternehmen, das von Microsoft Corp unterstützt wird, und machte avaiEtikett für die Öffentlichkeit kostenlos. Seine Allgegenwart hat Befürchtungen geweckt, dass generative KI wie ChatGPT zur Verbreitung von Desinformationen verwendet werden könnte, während Pädagogen befürchten, dass sie von Schülern zum Betrügen verwendet wird. Der Abgeordnete Ted Lieu, ein Demokrat im Wissenschaftsausschuss des Repräsentantenhauses, sagte kürzlich in einer Stellungnahme in der New York Times, er sei begeistert von KI und der „unglaublichen Art und Weise, wie sie die Gesellschaft weiter voranbringen wird“, aber auch „ausgeflippt“. KI, insbesondere KI, die ungeprüft und unreguliert bleibt.“ Lieu stellte eine von ChatGPT verfasste Resolution vor, in der es hieß, der Kongress solle sich auf KI konzentrieren, „um sicherzustellen, dass die Entwicklung und der Einsatz von KI auf sichere und ethische Weise erfolgen und die Rechte und die Privatsphäre aller Amerikaner respektieren und dass die Vorteile von KI sind weit verbreitet und die Risiken werden minimiert.“ Im Januar reiste Sam Altman, CEO von OpenAI, nach Capitol Hill, wo er sich mit technologieorientierten Gesetzgebern wie den Senatoren Mark Warner, Ron Wyden und Richard Blumenthal sowie dem Abgeordneten Jake Auchincloss traf, so die Berater der demokratischen Gesetzgeber. Ein Berater von Wyden sagte, der Gesetzgeber drängte Altman auf die Notwendigkeit, sicherzustellen, dass die KI keine Vorurteile enthält, die zu Diskriminierung in der realen Welt führen würden, wie z. B. Wohnen oder Arbeitsplätze. „Während Senator Wyden glaubt, dass KI ein enormes Potenzial hat, um Innovation und Forschung zu beschleunigen, konzentriert er sich sehr darauf, sicherzustellen, dass automatisierte Systeme die Diskriminierung in diesem Prozess nicht automatisieren“, sagte Keith Chu, ein Berater von Wyden. Ein zweiter Kongressassistent beschrieb die Diskussionen als konzentriert auf die Geschwindigkeit der Veränderungen in der KI und wie sie genutzt werden könnte. Aus Sorge vor Plagiaten wurde ChatGPT laut Medienberichten bereits an Schulen in New York und Seattle verboten. Ein Kongressassistent sagte, die Bedenken, die sie von den Wählern hörten, kämen hauptsächlich von Pädagogen, die sich auf Betrug konzentrierten. OpenAI sagte in einer Erklärung: „Wir wollen nicht, dass ChatGPT für irreführende Zwecke in Schulen oder anderswo verwendet wird, also entwickeln wir bereits Gegenmaßnahmen, um jedem zu helfen, von diesem System generierten Text zu identifizieren.“ In einem Interview mit Time sagte Mira Murati, Chief Technology Officer von OpenAI, das Unternehmen begrüße Beiträge, auch von Regulierungsbehörden und Regierungen. „Es ist nicht zu früh (für die Aufsichtsbehörden, sich einzumischen)“, sagte sie. Andrew Burt, geschäftsführender Gesellschafter von BNH.AI, einer auf KI-Haftung spezialisierten Anwaltskanzlei, wies auf die nationalen Sicherheitsbedenken hin und fügte hinzu, dass er mit Gesetzgebern gesprochen habe, die prüfen, ob ChatGPT und ähnliche KI-Systeme wie Googles Bard reguliert werden sollen sagte, er könne ihre Namen nicht preisgeben. „Das ganze Wertversprechen dieser Art von KI-Systemen besteht darin, dass sie Inhalte in Größenordnungen und Geschwindigkeiten generieren können, die Menschen einfach nicht können“, sagte er. „Ich würde erwarten, dass böswillige Akteure, nichtstaatliche Akteure und staatliche Akteure, die gegensätzliche Interessen zu den Vereinigten Staaten haben, diese Systeme nutzen, um Informationen zu generieren, die falsch oder schädlich sein könnten.“ ChatGPT selbst hat auf die Frage, wie es reguliert werden sollte, Einwände erhoben und gesagt: „Als neutrales KI-Sprachmodell habe ich keine Haltung zu bestimmten Gesetzen, die möglicherweise erlassen werden oder nicht, um KI-Systeme wie mich zu regulieren.“ Aber dann wurden potenzielle Schwerpunktbereiche für Regulierungsbehörden aufgelistet, wie Datenschutz, Voreingenommenheit und Fairness sowie Transparenz bei der Art und Weise, wie Antworten geschrieben werden.