„Wir müssen hier vorsichtig sein. Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben“, wurde Altman zitiert. Er sagte, wenn er keine Angst habe, „sollten Sie mir entweder nicht vertrauen oder sehr unglücklich sein, dass ich in diesem Job bin.“KI ersetzt Jobs
Altman sagte, dass KI in naher Zukunft wahrscheinlich einige Jobs ersetzen wird, und ist besorgt darüber, wie schnell das passieren könnte. Er wies jedoch auch auf die positive Seite hin, dass Technologie unser Leben verbessern wird.„Ich denke, die Menschheit hat über ein paar Generationen hinweg bewiesen, dass sie sich wunderbar an große technologische Veränderungen anpassen kann“, sagte Altman und fügte hinzu: „Aber wenn dies in einer einstelligen Anzahl von Jahren geschieht, werden einige dieser Veränderungen … Das ist der Teil, um den ich mir am meisten Sorgen mache.“„Es wird viele aktuelle Arbeitsplätze abbauen, das stimmt. Wir können viel bessere schaffen. Der Grund für die Entwicklung von KI überhaupt, in Bezug auf die Auswirkungen auf unser Leben und die Verbesserung unseres Lebens und den Vorteil, dass dies die größte Technologie sein wird die Menschheit hat sich noch entwickelt“, bemerkte Altman.Er ermutigte die Leute auch, ChatGPT eher als Werkzeug und nicht als Ersatz zu verwenden. Altman diskutierte auch die positiven Auswirkungen von KI auf die Bildung.„Wir alle können einen unglaublichen Pädagogen in unserer Tasche haben, der auf uns zugeschnitten ist und uns beim Lernen hilft. Die Bildung muss sich ändern“, sagte er.KI-Einsatz bei Fehlinformationen
Für Altman ist ein beständiges Problem mit KI-Sprachmodellen wie ChatGPT Fehlinformationen. Er sagte, dass das Programm Benutzern sachlich ungenaue Informationen geben kann.„Das, wovor ich die Leute am meisten warnen möchte, ist das, was wir das ‚Halluzinationsproblem‘ nennen. Das Modell wird Dinge selbstbewusst so darstellen, als wären sie Tatsachen, die vollständig erfunden sind“, sagte er und fügte hinzu, dass GPT-4, das neueste Sprachmodell, ist leistungsfähiger als das, mit dem ChatGPT gestartet wurde.
„Die richtige Art, über die von uns erstellten Modelle nachzudenken, ist eine Argumentationsmaschine, keine Faktendatenbank“, sagte Altman. „Sie können auch als Faktendatenbank fungieren, aber das ist nicht wirklich das Besondere an ihnen – wir wollen, dass sie etwas tun, das eher der Fähigkeit zur Vernunft entspricht, nicht dem Auswendiglernen“, fügte er hinzu.Der Top-Manager des Unternehmens stellte fest, dass die Technologie selbst unglaublich wirksam und potenziell gefährlich sei.