Microsoft führt KI-Tool zur Moderation von Inhalten ein – World

Microsoft fuehrt KI Tool zur Moderation von Inhalten ein – World

Azure AI Content Safety gibt an, „unangemessene“ Bilder und Texte erkennen und Schweregrade zuweisen zu können

Microsoft hat am Dienstag ein auf künstlicher Intelligenz basierendes Tool zur Inhaltsmoderation auf den Markt gebracht, das angeblich in der Lage ist, „unangemessene“ Bilder und Texte in acht Sprachen zu kennzeichnen und deren Schweregrad einzustufen. Der Dienst heißt Azure AI Content Safety und soll laut Microsoft „sicherere Online-Umgebungen und Communities fördern“. Es soll auch „voreingenommene, sexistische, rassistische, hasserfüllte, gewalttätige und selbstverletzende Inhalte“ neutralisieren, teilte der Softwareriese Tech per E-Mail mit. Obwohl es in das KI-Dashboard Azure OpenAI Service von Microsoft integriert ist, kann es auch in Nicht-KI-Systemen wie Social-Media-Plattformen und Multiplayer-Spielen bereitgestellt werden. Um einige der häufigeren Fallstricke der Moderation von KI-Inhalten zu vermeiden, erlaubt Microsoft dem Benutzer, „gut“ zu sein -tune“ Die Kontextfilter von Azure AI und die Schweregradbewertung sollen eine schnelle Prüfung durch menschliche Moderatoren ermöglichen. Ein Sprecher erklärte, dass „ein Team von Sprach- und Fairness-Experten“ die Leitlinien für sein Programm „unter Berücksichtigung kultureller Aspekte“ ausgearbeitet habe [sic], Sprache und Kontext.“ Ein Microsoft-Sprecher sagte gegenüber Tech, dass das neue Modell „in der Lage sei, Inhalte und kulturellen Kontext viel besser zu verstehen“ als frühere Modelle, die Kontexthinweise oft nicht erkannten und harmloses Material unnötigerweise markierten. Sie erkannten jedoch an, dass keine KI perfekt sei und „empfehlen“.[ed] Verwendung eines Human-in-the-Loop zur Überprüfung der Ergebnisse.“ Die Technologie, die Azure AI antreibt, ist derselbe Code, der verhindert, dass Microsofts KI-Chatbot Bing abtrünnig wird – eine Tatsache, die frühe Benutzer des ChatGPT-Konkurrenten alarmieren könnte. Als es im Februar eingeführt wurde, versuchte Bing denkwürdigerweise, Reporter davon zu überzeugen, ihre Ehepartner zu verlassen, leugnete offensichtliche Fakten wie Datum und Jahr, drohte mit der Zerstörung der Menschheit und schrieb die Geschichte neu. Nach erheblicher negativer Medienaufmerksamkeit beschränkte Microsoft Bing-Chats auf fünf Fragen pro Sitzung und 50 Fragen pro Tag. Wie alle KI-Inhaltsmoderationsprogramme verlässt sich Azure AI auf menschliche Annotatoren, um die Daten zu kennzeichnen, auf denen es trainiert wird, was bedeutet, dass es nur so unvoreingenommen ist wie seine Programmierer. Dies hat in der Vergangenheit zu PR-Problemen geführt – fast ein Jahrzehnt nachdem Googles KI-Bildanalysesoftware Fotos von Schwarzen als Gorillas gekennzeichnet hat, deaktiviert das Unternehmen immer noch die Option, nicht nur nach Gorillas, sondern nach allen Primaten visuell zu suchen, damit sein Algorithmus nicht versehentlich einen Menschen markiert. Microsoft entließ im März sein KI-Ethik- und Sicherheitsteam, obwohl der Hype um große Sprachmodelle wie ChatGPT seinen Höhepunkt erreichte und das Unternehmen selbst weitere Milliarden Dollar in seine Partnerschaft mit dem Chatbot-Entwickler OpenAI investierte. Das Unternehmen hat kürzlich mehr Personal für die Erforschung der künstlichen allgemeinen Intelligenz (AGI) eingesetzt, bei der ein Softwaresystem in die Lage versetzt wird, Ideen zu entwickeln, die nicht darin programmiert wurden.

:

rrt-allgemeines