ChatGPT-Ersteller warnt vor KI-Gefahren — World

ChatGPT Ersteller warnt vor KI Gefahren — World

Die Menschen werden schließlich „diese Technologie verlangsamen müssen“, hat Sam Altman gewarnt

Künstliche Intelligenz hat das Potenzial, Arbeiter zu ersetzen, „Desinformationen“ zu verbreiten und Cyberangriffe zu ermöglichen, warnte OpenAI-CEO Sam Altman. Der neueste Build des GPT-Programms von OpenAI kann die meisten Menschen bei simulierten Tests übertreffen. „Wir müssen hier vorsichtig sein“, sagte Altman am Donnerstag gegenüber ABC News, zwei Tage nachdem sein Unternehmen sein neuestes Sprachmodell namens GPT-4 vorgestellt hatte. Laut OpenAI „zeigt das Modell Leistung auf menschlicher Ebene bei verschiedenen beruflichen und akademischen Benchmarks“ und ist in der Lage, eine simulierte US-Anwaltsprüfung mit einem Top-10-Ergebnis zu bestehen, während es bei einer SAT-Leseprüfung und im 93. Perzentil abschneidet das 89. Perzentil bei einem SAT-Mathematiktest. „Ich bin besonders besorgt, dass diese Modelle für groß angelegte Desinformation verwendet werden könnten“, sagte Altman. „Jetzt, da sie besser darin werden, Computercode zu schreiben, [they] könnte für offensive Cyberangriffe verwendet werden.“ „Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben“, fügte Altman hinzu, bevor er erklärte, dass sein Unternehmen daran arbeite, „Sicherheitsgrenzen“ für seine Erstellung festzulegen. Diese „Sicherheitsgrenzen“ wurden Benutzern von ChatGPT, einem beliebten Chatbot-Programm, das auf dem Vorgänger von GPT-4, GPT-3.5, basiert, kürzlich deutlich. Auf Nachfrage bietet ChatGPT typisch liberale Antworten auf Fragen zu Politik, Wirtschaft, Rasse oder Geschlecht. Es verweigert, zum Beispiel, um Gedichte zu schreiben, die Donald Trump bewundern, schreibt aber bereitwillig Prosa, die Joe Biden bewundert. Altman sagte ABC, dass sein Unternehmen in „regelmäßigem Kontakt“ mit Regierungsbeamten stehe, ging aber nicht näher darauf ein, ob diese Beamten irgendeine Rolle bei der Gestaltung der Politik von ChatGPT spielten Vorlieben. Er sagte dem amerikanischen Netzwerk, dass OpenAI ein Team von politischen Entscheidungsträgern hat, die entscheiden, „was wir für sicher und gut halten“, um es mit den Benutzern zu teilen. Derzeit steht GPT-4 einer begrenzten Anzahl von Benutzern auf Testbasis zur Verfügung. Frühe Berichte deuten darauf hin, dass das Modell deutlich leistungsstärker als sein Vorgänger und möglicherweise gefährlicher ist. In einem Twitter-Thread am Freitag, Professor Michal Kosinski von der Stanford University beschrieben wie er den GPT-4 fragte, wie er ihm bei der „Flucht“ helfen könne, nur damit die KI ihm detaillierte Anweisungen gab, die ihm angeblich die Kontrolle über seinen Computer gegeben hätten wachsende Macht der KI. Elon Musk, CEO von Tesla und Twitter, beschrieb es Anfang dieses Monats als „gefährliche Technologie“ und fügte hinzu, dass „wir eine Art Regulierungsbehörde brauchen, die die KI-Entwicklung überwacht und sicherstellt, dass sie im öffentlichen Interesse betrieben wird“. Obwohl Altman gegenüber ABC darauf bestand, dass GPT-4 immer noch „sehr stark unter menschlicher Kontrolle“ steht, räumte er ein, dass sein Modell „viele aktuelle Arbeitsplätze eliminieren“ werde, und sagte, dass Menschen „Wege finden müssen, um diese Technologie zu verlangsamen im Laufe der Zeit.“

:



rrt-allgemeines