Letztes Jahr erschien plötzlich ChatGPT, ein Chatbot, der alle Ihre Fragen auf Basis künstlicher Intelligenz (KI) beantwortet. Es schien ein Hype zu sein, aber bald stellte sich heraus, dass ChatGPT der Anfang dessen ist, wozu die Technologie fähig ist. In der Zwischenzeit laufen bei dem Unternehmen, das ChatGPT entwickelt hat, einige Dinge schief.
In het kort
- ChatGPT, een AI-gedreven chatbot, werd vorig jaar plotseling populair toen bleek dat scholieren het gebruikten om huiswerk te maken.
- Een recente update van het achterliggende taalmodel, GPT-4, verbeterde de prestaties waardoor het nu beter is in redeneren, interpreteren en problemen oplossen.
- Er zijn zorgen over de mogelijke misbruik van ChatGPT voor criminele doeleinden, terwijl er tegelijkertijd onrust is binnen OpenAI, het bedrijf dat ChatGPT heeft ontworpen.
Informationen nicht ohne Fehler
Auch die Art und Weise, wie ChatGPT Gespräche führen konnte, überzeugte. Man kann damit Smalltalk machen, dem Chatbot aber auch konkrete Aufgaben geben. Der Chatbot schreibt beispielsweise Rezepte auf der Grundlage von Resten, die Sie zu Hause haben, erstellt Zeitpläne auf der Grundlage eines einfachen Befehls und kann Fehler in der Codesprache erkennen. Und Sie können alles in der Umgangssprache präsentieren, was bei anderen Chatbots manchmal schlecht funktioniert hat. ChatGPT versteht den Kontext einer Konversation.
„Für die Ausführung unterschiedlicher Aufgaben waren immer separate Programme erforderlich“, sagt Van der Putten. „Jetzt können Sie für alle Arten von Aufgaben an einem Ort sein.“
Im März dieses Jahres wurde ein großes Update für das zugrunde liegende Sprachmodell von ChatGPT veröffentlicht, nämlich GPT-4. Diese Version ist besser im Denken, Interpretieren und Lösen von Problemen. Neben Text kann das Modell nun auch Bilder verarbeiten und macht zudem weniger Fehler bei den zurückgegebenen Informationen.
Aber auch das Sprachmodell muss nicht einwandfrei funktionieren, sagt Van der Putten. „Informationen im Internet können auch falsch sein“, sagt er. „Seien Sie gesund und kritisch gegenüber den Antworten, die Sie erhalten.“
Zu größeren digitalen Phishing-Angriffen kam es nicht
Im vergangenen Jahr gab es mehrere Warnungen, dass ChatGPT Kriminalität fördern könnte. Zu groß angelegten Phishing-Kampagnen, bei denen Menschen dazu verleitet werden, auf einen schädlichen Link zu klicken, kam es jedoch nicht. Das sagt Dave Maasland vom Cybersicherheitsunternehmen ESET. ChatGPT widersetzt sich, wenn Sie nach einem Beispiel für eine Phishing-E-Mail fragen, aber mit kreativen Aufgaben ist es immer noch möglich, dass eine erstellt wird.
Es gibt auch unterirdische ChatGPT-Varianten, die es Kriminellen einfacher machen, sagt Maasland. „Diese Art von Chatbots ohne Filter gibt es bereits. ChatGPT und Varianten schaffen keine neuen Bedrohungen, erleichtern aber die bestehende Cyberkriminalität. Cyberkriminelle müssen nur den Auftrag erteilen, etwas Schädliches zu entwerfen, sie müssen nichts mehr selbst erstellen. Das.“ wird sicherlich eine Rolle bei der digitalisierten Kriminalität spielen.“
Nicht nur Phishing stellt ein Risiko dar. „Man kann auch Fake News oder Propaganda machen lassen“, sagt Maasland. Seit Kurzem ist es möglich, eigene Chatbots auf Basis von ChatGPT zu erstellen. Und da gibt es auch Haken. „Denken Sie an automatisierte Betrugs-Chatbots. Zum Beispiel eine gefälschte SMS-Konversation mit DHL, bei der der Bot einfach zurückantwortet. Für viele Menschen fühlt sich das sehr real an.“

Renewed ChatGPT kann sogar eine Website und ein Spiel erstellen: So sieht es aus
Chaos bei OpenAI
Bei KI-Modellen wie ChatGPT wird oft behauptet, dass es schwierig sei, ihre genaue Funktionsweise zu bestimmen. Unternehmen wie OpenAI sind nicht transparent darüber, wie sie Daten trainieren und wie genau das Sprachmodell zu einer Antwort kommt. Daher ist es schwierig zu überprüfen, ob der Chatbot ein gewisses Maß an Diskriminierung oder Voreingenommenheit aufweist. Ein neues europäisches Gesetz zur künstlichen Intelligenz dürfte in diesem Bereich deutlich mehr Erkenntnisse liefern.
Inwieweit OpenAI einen Blick hinter die Kulissen gewähren will, ist unklar. Es gibt Gerüchte im Unternehmen, wie sich kürzlich herausstellte. Bei OpenAI herrschte fünf Tage lang Chaos, als Sam Altman gefeuert wurde, dann aber zurückkehrte und das Board ging. Was genau die Grundlage dafür war, ist noch unbekannt.
Es ist klar, dass Microsoft bereit war, (einen großen Teil) von OpenAI zu übernehmen, wenn etwas völlig schief gehen sollte. Microsoft ist der größte Investor und hat bereits Milliarden von Dollar in die OpenAI-Technologie gepumpt. Bing Chat, der KI-Assistent des Microsoft-Browsers Edge, funktioniert mit GPT-4. Das Vertrauen ist also da, und die Nutzer auch. Laut OpenAI nutzen jede Woche 100 Millionen Menschen ChatGPT.
Angesichts der rasanten Entwicklungen im vergangenen Jahr ist es schwierig, das kommende Jahr vorherzusagen. Aber es ist klar, dass diese Form der künstlichen Intelligenz einen festen Platz in der Welt erobert hat. „Die Leute werden sich daran anpassen“, sagt Van der Putten. „Der Zauber lässt vielleicht ein wenig nach, aber die Technologie wird für den täglichen Gebrauch immer nützlicher.“