Es wird ein weiteres wichtiges Jahr für KI sein. Im November wird es eine amerikanische Präsidentschaftswahl geben. Maßnahmen müssen Manipulation und Beeinflussung mittels künstlicher Intelligenz verhindern. Der ChatGPT-Hersteller OpenAI hat diese Woche bereits einen Chatbot blockiert, der sich als Präsidentschaftskandidat ausgibt.
In het kort
- OpenAI stelt regels op om misbruik van AI in aanloop naar de Amerikaanse presidentsverkiezingen te voorkomen.
- Die verantwoordelijkheid ligt volgens experts in eerste instantie bij bedrijven die AI ontwikkelen. Pas daarna ligt die bij de overheid.
- Een kant-en-klare oplossing tegen misbruik is er niet. Maar de komende tijd wordt duidelijk of strengere sancties nodig zijn.
Die erste Verantwortung liegt bei den Machern
Die Hersteller von KI-Anwendungen müssen zunächst Verantwortung übernehmen, um einen Missbrauch der Technologie zu verhindern, sagt der ehemalige D66-Abgeordnete Kees Verhoeven. Derzeit ist er als Berater im Bereich Digitalisierung tätig.
„Es ist nicht so, dass sich der Technologiesektor etwas einfallen lässt und die Regierung Anpassungen vornehmen muss“, sagt Verhoeven. „Die Regierung reagiert immer, aber die proaktive Haltung kommt von den Unternehmen, die an vorderster Front stehen.“
Daniel Mügge, Professor für Politische Arithmetik an der Universität Amsterdam, findet es daher gut, dass OpenAI den Überblick behält und Regeln vorgibt. „Die Wahlen stehen ziemlich schnell bevor. Und es wird viel Zeit brauchen, bis der Gesetzgeber klare Regeln und Möglichkeiten zu ihrer Durchsetzung entwickelt“, sagt er.
OpenAI werde sich von seiner besten Seite zeigen wollen, meint Mügge. Wenn das Unternehmen zeigt, dass es gegen Missbrauch vorgehen will und dies auch tut, kann es schwerwiegende Sanktionen des Gesetzgebers vermeiden.
Welcher politische Chatbot ist erlaubt und welcher nicht?
Es gibt Hunderte von Chatbots im GPT Store von OpenAI. Trotz der strengeren Regeln sind darunter alle möglichen politischen Bots. Beispielsweise gibt es Chatbots, die den ehemaligen amerikanischen Präsidenten Donald Trump nachahmen oder Informationen über seinen Wahlkampf liefern. Es ist nicht klar, warum OpenAI dieses verlässt. Das Unternehmen antwortete nicht auf Fragen von NU.nl.
Wo ist Hilfe durch künstliche Intelligenz schön, wo ist sie unangenehm? Die bevorstehenden amerikanischen Wahlen werden dafür ein wichtiger Test sein. Die Grenzen der Wünschbarkeit von KI sind vage.
„Man kann kaum sagen, dass man Politik komplett verbietet“, sagt Mügge. „Dieses Thema ist schwer zu definieren. Ist beispielsweise ein Gespräch über Stickstoff per Definition politisch aufgeladen?“
Laut Mügge können KI-Unternehmen es nicht schnell schaffen. „Es gibt keine allgemeingültige Lösung für potenziellen Missbrauch“, sagt er. „Aber das bedeutet nicht, dass sie nur mit den Schultern zucken sollten.“
Auch politische KI-Bots haben ihre Vorteile. „Sie können den Kontakt zwischen Politikern und Menschen verbessern“, sagt Verhoeven. Beispielsweise kann ein Chatbot schwierige Ausdrücke aus einem Wahlprogramm in einfachen Worten zusammenfassen. Oder lassen Sie es übersetzen. „Es besteht die Möglichkeit, die Informationsschwelle zu senken, aber es muss ehrlich und wahrheitsgetreu erfolgen“, sagt der Berater.
![1706117193 955 KI dringt in amerikanische Wahlen ein Macher gehen gegen Missbrauch](https://eprn-de-fra-earthpressnews.earthpressnews.com/de/wp-content/uploads/2024/01/1706117193_955_KI-dringt-in-amerikanische-Wahlen-ein-Macher-gehen-gegen-Missbrauch.jpg)
Stimmen nachahmen und Worte verdrehen
Genau darin liegt manchmal das Problem. Generative KI wie diese Art von Chatbots kann auf alles Antworten geben. Doch nicht immer ist klar, ob die Aussagen sachlich korrekt sind.
KI kann auch außerhalb von Chatbots ein Problem darstellen. „Die größte Sorge besteht vor der Manipulation von Audio und Video“, sagt Mügge. Basierend auf kurzen Audiofragmenten können Sie mithilfe von KI bereits Wörter verdrehen.
Dies geschieht bereits in der Praxis. Am Dienstag stellte sich heraus, dass Tausende Amerikaner Anrufe von einer Stimme erhielten, die wie Präsident Joe Biden klang. Die Botschaft ruft die Menschen dazu auf, nicht an den Vorwahlen teilzunehmen.
Der Anruf sei gefälscht, bestätigt das Weiße Haus. Die Stimme scheint mit KI nachgebildet worden zu sein.
„Diese Technologie basiert auf einer enormen Datenmenge, die niemand überwachen kann“, sagt Verhoeven. „KI selbst hat kein Verständnis, sie ist an sich weder ethisch noch unethisch. Sie liefert lediglich eine strategische Zusammenfassung der verfügbaren Daten. Wir müssen dies weiterhin überwachen, um zu sehen, welche Konsequenzen dies hat.“