Oprah hatte gerade ein KI-Special mit Sam Altman und Bill Gates – hier sind die Highlights

Am späten Donnerstagabend strahlte Oprah Winfrey eine Sondersendung zum Thema KI aus, die den passenden Titel „KI und unsere Zukunft“ trug. Zu den Gästen zählten OpenAI-CEO Sam Altman, der Tech-Influencer Marques Brownlee und der aktuelle FBI-Direktor Christopher Wray.

Es herrschte Skepsis – und Vorsicht.

Oprah wies in vorbereiteten Bemerkungen darauf hin, dass der Geist der künstlichen Intelligenz – im Guten wie im Schlechten – aus der Flasche sei und dass die Menschheit lernen müsse, mit den Konsequenzen zu leben.

„KI liegt noch immer außerhalb unserer Kontrolle und zu einem großen Teil auch außerhalb unseres Verständnisses“, sagte sie. „Aber sie ist da, und wir werden mit einer Technologie leben, die sowohl unser Verbündeter als auch unser Rivale sein kann … Wir sind die anpassungsfähigsten Lebewesen dieses Planeten. Wir werden uns erneut anpassen. Aber behalten Sie die Realität im Auge. Es steht nicht mehr auf dem Spiel.“

Sam Altman verspricht zu viel

Altman, Oprahs erstes Interview des Abends, brachte die fragwürdige Behauptung vor, die heutige KI lerne Konzepte auf der Grundlage der Daten, mit denen sie trainiert wird.

„Wir zeigen dem System tausend Wörter in einer Sequenz und bitten es, vorherzusagen, was als nächstes kommt“, sagte er zu Oprah. „Das System lernt Vorhersagen zu treffen und lernt dabei die zugrundeliegenden Konzepte.“

Viele Experten würden dem widersprechen.

KI-Systeme wie ChatGPT und o1, die OpenAI am Donnerstag vorstellte, sagen tatsächlich die wahrscheinlichsten nächsten Wörter in einem Satz voraus. Aber sie sind einfach nur statistische Maschinen – sie lernen anhand von Mustern, wie wahrscheinlich es ist, dass bestimmte Daten auftreten. Sie haben keine Absicht; sie treffen nur eine fundierte Vermutung.

Obwohl Altman die Fähigkeiten heutiger KI-Systeme möglicherweise überbewertet hat, betonte er, wie wichtig es sei, herauszufinden, wie man KI-Systeme auf ihre Sicherheit hin testet.

„Eines der ersten Dinge, die wir tun müssen, und das geschieht jetzt, ist, die Regierung dazu zu bringen, herauszufinden, wie man Sicherheitstests dieser Systeme durchführen kann, so wie wir es für Flugzeuge oder neue Medikamente tun“, sagte er. „Ich persönlich führe wahrscheinlich alle paar Tage ein Gespräch mit jemandem in der Regierung.“

Altmans Drängen auf Regulierung könnte auch Eigeninteresse sein. OpenAI hat sich gegen den kalifornischen KI-Sicherheitsgesetzentwurf SB 1047 ausgesprochen, weil dieser „Innovationen ersticken“ würde. Ehemalige OpenAI-Mitarbeiter und KI-Experten wie Geoffrey Hinton haben sich jedoch für den Gesetzentwurf ausgesprochen und argumentiert, dass er der KI-Entwicklung die notwendigen Sicherheitsvorkehrungen auferlegen würde.

Oprah befragte Altman auch zu seiner Rolle als Anführer von OpenAI. Sie fragte, warum die Leute ihm vertrauen sollten, und er wich der Frage weitgehend aus und sagte, sein Unternehmen versuche, im Laufe der Zeit Vertrauen aufzubauen.

Zuvor sagte Altman sehr direkt dass die Menschen weder ihm noch einer anderen Person vertrauen sollten, wenn es darum geht, sicherzustellen, dass KI der Welt nützt.

Der CEO von OpenAI sagte später, es sei seltsam gewesen, Oprah fragen zu hören, ob er „der mächtigste und gefährlichste Mann der Welt“ sei, wie eine Schlagzeile suggerierte. Er war anderer Meinung, sagte aber, er fühle sich verpflichtet, die KI in eine positive Richtung für die Menschheit zu lenken.

Oprah über Deepfakes

Mit Vorhersagen und Vermutungen kann man allerdings ziemlich weit kommen, wie KI-gestützte Videogeneratoren wie Sora von OpenAI zeigen.

An einer Stelle während der Sondersendung zeigte Brownlee Oprah Beispielaufnahmen von Sora. „Man kann sich immer noch Teile davon ansehen und erkennen, dass etwas nicht stimmt“, sagte er.

„Nein, kann ich nicht“, antwortete Oprah.

Die Präsentation diente als Übergang zu einem Interview mit Wray, der von dem Moment berichtete, als er zum ersten Mal mit der KI-Deepfake-Technologie in Berührung kam.

„Ich war in einem Konferenzraum und ein Haufen [FBI] „Die Leute kamen zusammen, um mir zu zeigen, wie man KI-gestützte Deepfakes erstellen kann“, sagte Wray. „Und sie hatten ein Video von mir erstellt, in dem ich Dinge sage, die ich noch nie gesagt hatte und nie sagen würde.“

Wray sprach über die zunehmende Verbreitung von KI-gestützter Sextortion. Nach Dem Cybersicherheitsunternehmen ESET zufolge gab es zwischen 2022 und 2023 einen Anstieg der Sextortion-Fälle um 178 %, was zum Teil auf die KI-Technologie zurückzuführen ist.

„Jemand, der sich als Gleichaltriger ausgibt, nimmt einen Teenager ins Visier“, sagte Wray, und verwendet dann von KI generierte kompromittierende Bilder, um das Kind davon zu überzeugen, im Gegenzug echte Bilder zu schicken. Tatsächlich ist es ein Typ hinter einer Tastatur in Nigeria, und sobald sie die Bilder haben, drohen sie dem Kind, es zu erpressen und sagen: „Wenn du nicht zahlst, werden wir diese Bilder teilen, die dein Leben ruinieren werden.“

Wray ging auch auf Desinformation im Zusammenhang mit den bevorstehenden US-Präsidentschaftswahlen ein. Er betonte, es sei „nicht der richtige Zeitpunkt für Panik“, betonte aber, es sei die Pflicht „jedermann in Amerika“, „sich verstärkt auf den Einsatz von KI zu konzentrieren und vorsichtig zu sein“ und darauf, wie KI „von Bösewichten gegen uns alle eingesetzt werden kann“.

„Wir stellen in den sozialen Medien nur allzu oft fest, dass etwas, das wie Bill aus Topeka oder Mary aus Dayton aussieht, in Wirklichkeit irgendein russischer oder chinesischer Geheimdienstoffizier am Stadtrand von Peking oder Moskau ist“, sagte Wray.

Tatsächlich, ein Statista Umfrage ergab, dass mehr als ein Drittel der US-Befragten gegen Ende 2023 irreführende Informationen – oder mutmaßliche Fehlinformationen – zu wichtigen Themen sahen. In diesem Jahr erzielten irreführende, KI-generierte Bilder der Vizepräsidentschaftskandidaten Kamala Harris und des ehemaligen Präsidenten Donald Trump in sozialen Netzwerken wie X Millionen von Aufrufen.

Bill Gates über KI-Disruption

Zur Abwechslung in Sachen Technikoptimismus interviewte Oprah den Microsoft-Gründer Bill Gates, der die Hoffnung äußerte, dass künstliche Intelligenz den Bereichen Bildung und Medizin neue Impulse verleihen werde.

„KI ist wie eine dritte Person, die in [a medical appointment,] „Wir erstellen ein Transkript und schlagen ein Rezept vor“, sagte Gates. „Anstatt dass der Arzt vor einem Computerbildschirm sitzt, interagiert er mit Ihnen und die Software sorgt dafür, dass es ein wirklich gutes Transkript gibt.“

Gates ignorierte jedoch die Möglichkeit einer Voreingenommenheit aufgrund mangelhafter Ausbildung.

Eine kürzlich Studie zeigte, dass Spracherkennungssysteme führender Technologieunternehmen Audiodaten von schwarzen Sprechern doppelt so häufig falsch transkribieren als von weißen Sprechern. Andere Untersuchungen haben gezeigt, dass KI-Systeme lang gehegte, unwahre Überzeugungen verstärken, dass es biologische Unterschiede zwischen Schwarzen und Weißen gibt – Unwahrheiten, die dazu führen, dass Ärzte Gesundheitsprobleme falsch diagnostizieren.

Im Klassenzimmer, sagte Gates, könne KI „immer verfügbar“ sein und „verstehen, wie sie Sie motivieren kann … unabhängig von Ihrem Wissensstand.“

Dies entspricht nicht unbedingt der Wahrnehmung vieler Klassenzimmer.

Im vergangenen Sommer haben Schulen und Hochschulen ChatGPT aus Angst vor Plagiaten und Fehlinformationen schnell verboten. Seitdem haben einige umgedreht ihre Verbote. Aber nicht alle sind vom Potenzial der GenAI für Gutes überzeugt und verweisen auf Umfragen So fand etwa das britische Safer Internet Centre heraus, dass über die Hälfte der Kinder (53 %) angaben, schon einmal gesehen zu haben, wie Gleichaltrige GenAI auf negative Weise nutzten – zum Beispiel durch die Erstellung glaubwürdiger Falschinformationen oder durch Bilder, die dazu dienten, jemanden zu verärgern.

Die Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) hat Ende letzten Jahres geschoben für Regierungen, den Einsatz von GenAI im Bildungsbereich zu regulieren, einschließlich der Einführung von Altersgrenzen für Benutzer und Leitplanken für Datenschutz und Benutzerprivatsphäre.



tch-1-tech