Wenn Sie den Begriff „künstliche Intelligenz“ hören, könnte es verlockend sein, sich die Art intelligenter Maschinen vorzustellen, die eine tragende Säule der Science-Fiction oder Erweiterungen der Art apokalyptischer Technophobie sind, die die Menschheit seit Dr. Frankensteins Monster fasziniert.
Aber die Arten von KI, die sich rasch in Unternehmen auf der ganzen Welt integrieren, sind nicht von dieser Art – es handelt sich um sehr reale Technologien, die einen echten Einfluss auf tatsächliche Menschen haben.
Während KI bereits seit Jahren in Geschäftsumgebungen präsent ist, wird die Weiterentwicklung generativer KI-Produkte wie ChatGPT, ChatSonic, Jasper AI und andere die Benutzerfreundlichkeit für den Durchschnittsbürger dramatisch steigern. Daher ist die amerikanische Öffentlichkeit zutiefst besorgt über den möglichen Missbrauch dieser Technologien. Ein kürzlich ADL-Umfrage gefunden dass 84 % der Amerikaner besorgt sind, dass generative KI die Verbreitung von Fehlinformationen und Hass verstärken wird.
Führungskräfte, die über die Einführung dieser Technologie nachdenken, sollten sich schwierige Fragen darüber stellen, wie sie die Zukunft prägen kann – im Guten wie im Schlechten –, wenn wir diese neuen Grenzen betreten. Hier sind drei Dinge, die hoffentlich alle Führungskräfte berücksichtigen werden, wenn sie generative KI-Tools in Organisationen und Arbeitsplätze integrieren.
Machen Sie Vertrauen und Sicherheit zur obersten Priorität
Während soziale Medien es gewohnt sind, sich mit der Moderation von Inhalten auseinanderzusetzen, wird generative KI an Arbeitsplätzen eingeführt, die noch keine Erfahrung im Umgang mit diesen Themen haben, beispielsweise im Gesundheitswesen und im Finanzwesen. Viele Branchen könnten bei der Einführung dieser Technologien bald plötzlich vor schwierigen neuen Herausforderungen stehen. Wenn Sie ein Gesundheitsunternehmen sind, dessen KI-gestützter Chatbot an vorderster Front plötzlich unhöflich oder sogar hasserfüllt gegenüber einem Patienten ist, wie werden Sie damit umgehen?
Trotz all ihrer Leistungsfähigkeit und ihres Potenzials macht es die generative KI für böswillige Akteure einfach, schnell und zugänglich, schädliche Inhalte zu produzieren.
Im Laufe der Jahrzehnte haben Social-Media-Plattformen eine neue Disziplin entwickelt – Vertrauen und Sicherheit –, um heikle Probleme im Zusammenhang mit benutzergenerierten Inhalten in den Griff zu bekommen. Nicht so in anderen Branchen.
Aus diesem Grund müssen Unternehmen Experten für Vertrauen und Sicherheit hinzuziehen, um über ihre Umsetzung zu sprechen. Sie müssen Fachwissen aufbauen und darüber nachdenken, wie diese Tools missbraucht werden können. Und sie müssen in Mitarbeiter investieren, die für die Bekämpfung von Missbräuchen verantwortlich sind, damit sie nicht unvorbereitet erwischt werden, wenn diese Tools von böswilligen Akteuren missbraucht werden.
Legen Sie hohe Leitplanken fest und bestehen Sie auf Transparenz
Insbesondere im Arbeits- oder Bildungsumfeld ist es von entscheidender Bedeutung, dass KI-Plattformen über angemessene Schutzmaßnahmen verfügen, um die Generierung hasserfüllter oder belästigender Inhalte zu verhindern.
KI-Plattformen sind zwar unglaublich nützliche Tools, aber nicht 100 % narrensicher. Beispielsweise haben ADL-Tester kürzlich innerhalb weniger Minuten mit der Expedia-App mit ihrer neuen ChatGPT-Funktionalität innerhalb weniger Minuten eine Reiseroute berühmter antijüdischer Pogrome in Europa und eine Liste nahegelegener Kunstbedarfsgeschäfte erstellt, in denen man angeblich Sprühfarbe kaufen konnte Vandalismus gegen diese Websites zu begehen.
Während wir gesehen haben, dass einige generative KIs ihren Umgang mit Fragen verbessern, die zu antisemitischen und anderen hasserfüllten Antworten führen können, haben wir andere gesehen zu kurz kommen wenn sie sicherstellen, dass sie nicht zur Verbreitung von Hass, Belästigung, Verschwörungstheorien und anderen Arten schädlicher Inhalte beitragen.
Vor der breiten Einführung von KI sollten Führungskräfte kritische Fragen stellen, wie zum Beispiel: Welche Art von Tests werden durchgeführt, um sicherzustellen, dass diese Produkte nicht missbraucht werden können? Welche Datensätze werden zur Erstellung dieser Modelle verwendet? Und werden die Erfahrungen der Communities, die am stärksten von Online-Hass betroffen sind, in die Entwicklung dieser Tools einbezogen?
Ohne Transparenz seitens der Plattformen gibt es einfach keine Garantie dafür, dass diese KI-Modelle nicht die Verbreitung von Voreingenommenheit oder Bigotterie ermöglichen.
Schutz vor Waffeneinsatz
Selbst mit robusten Vertrauens- und Sicherheitspraktiken kann KI von normalen Benutzern immer noch missbraucht werden. Als Führungskräfte müssen wir die Entwickler von KI-Systemen dazu ermutigen, Schutzmaßnahmen gegen den Einsatz menschlicher Waffen einzubauen.
Leider machen es KI-Tools trotz ihrer Leistungsfähigkeit und ihres Potenzials für böswillige Akteure einfach, schnell und zugänglich, Inhalte für jedes dieser Szenarien zu produzieren. Sie können in Sekundenschnelle überzeugende Fake News produzieren, visuell überzeugende Deepfakes erstellen und Hass und Belästigung verbreiten. Generative KI-generierte Inhalte könnten auch zur Verbreitung extremistischer Ideologien beitragen – oder zur Radikalisierung anfälliger Personen genutzt werden.
Als Reaktion auf diese Bedrohungen sollten KI-Plattformen robuste Moderationssysteme integrieren, die der potenziellen Flut schädlicher Inhalte standhalten können, die die Täter mit diesen Tools erzeugen könnten.
Generative KI hat nahezu unbegrenztes Potenzial, das Leben zu verbessern und die Art und Weise zu revolutionieren, wie wir die endlosen Mengen an online verfügbaren Informationen verarbeiten. Ich bin begeistert von den Aussichten auf eine Zukunft mit KI, aber nur mit verantwortungsvoller Führung.