Microsoft hat seine geändert Politik US-Polizeibehörden die Verwendung generativer KI über den Azure OpenAI Service zu verbieten, den vollständig verwalteten, unternehmensorientierten Wrapper des Unternehmens für OpenAI-Technologien.
Am Mittwoch wurde den Nutzungsbedingungen für Azure OpenAI Service eine neue Formulierung hinzugefügt, die die Verwendung von Integrationen mit Azure OpenAI Service „durch oder für“ Polizeibehörden in den USA verbietet, einschließlich Integrationen mit den Text- und Sprachanalysemodellen von OpenAI.
Ein separater neuer Aufzählungspunkt deckt „jede Strafverfolgungsbehörde weltweit“ ab und verbietet ausdrücklich die Verwendung von „Echtzeit-Gesichtserkennungstechnologie“ auf mobilen Kameras wie Körperkameras und Dashcams, um zu versuchen, eine Person in „unkontrolliertem Zustand“ zu identifizieren -wilde“ Umgebungen.
Die Änderungen der Bedingungen erfolgen eine Woche, nachdem Axon, ein Hersteller von Technologie- und Waffenprodukten für Militär und Strafverfolgung, a angekündigt hat Neues Produkt das das generative Textmodell GPT-4 von OpenAI nutzt, um Audio von Körperkameras zusammenzufassen. Kritiker wiesen schnell auf die potenziellen Fallstricke hin, wie etwa Halluzinationen (selbst die besten generativen KI-Modelle erfinden heute Fakten) und rassistische Vorurteile, die aus den Trainingsdaten hervorgehen (was besonders besorgniserregend ist, wenn man bedenkt, dass es sich bei Menschen mit dunkler Hautfarbe handelt). Es ist weitaus wahrscheinlicher, dass sie von der Polizei angehalten werden als ihre weißen Kollegen).
Es ist unklar, ob Axon GPT-4 über den Azure OpenAI Service nutzte und wenn ja, ob die aktualisierte Richtlinie eine Reaktion auf die Produkteinführung von Axon war. OpenAI hatte zuvor eingeschränkt die Verwendung seiner Modelle zur Gesichtserkennung über seine APIs. Wir haben Axon, Microsoft und OpenAI kontaktiert und werden diesen Beitrag aktualisieren, wenn wir etwas hören.
Die neuen Bedingungen lassen Microsoft Spielraum.
Das vollständige Verbot der Nutzung des Azure OpenAI-Dienstes gilt nur für die USA, nicht international, Polizei. Und es deckt nicht die Gesichtserkennung ab, die mit durchgeführt wird stationär Kameras rein kontrolliert Umgebungen wie ein Backoffice (obwohl die Bedingungen jegliche Verwendung der Gesichtserkennung durch die US-Polizei verbieten).
Dies deckt sich mit dem jüngsten Ansatz von Microsoft und seinem engen Partner OpenAI bei KI-bezogenen Strafverfolgungs- und Verteidigungsverträgen.
Im Januar berichtete Bloomberg enthüllt dass OpenAI mit dem Pentagon an einer Reihe von Projekten zusammenarbeitet, einschließlich Cybersicherheitsfunktionen – eine Abkehr vom früheren Verbot des Startups, seine KI dem Militär zur Verfügung zu stellen. An anderer Stelle hat Microsoft den Einsatz des Bildgenerierungstools DALL-E von OpenAI beworben, um das Verteidigungsministerium (DoD) bei der Entwicklung von Software zur Durchführung militärischer Operationen zu unterstützen. pro Der Abfang.
Der Azure OpenAI-Dienst wurde im Februar in Microsofts Azure Government-Produkt verfügbar und bietet zusätzliche Compliance- und Verwaltungsfunktionen für Regierungsbehörden, einschließlich Strafverfolgungsbehörden. In einem BlogeintragCandice Ling, SVP der regierungsorientierten Microsoft-Abteilung Microsoft Federal, versprach, dass der Azure OpenAI-Dienst dem Verteidigungsministerium für Workloads zur Unterstützung von Verteidigungsmissionen „zur zusätzlichen Genehmigung vorgelegt“ werde.
Microsoft und OpenAI antworteten nicht sofort auf Anfragen nach Kommentaren.