Anthropisch am Donnerstag angekündigt dass es mit Palantir, dem Data-Mining-Unternehmen, und Amazon Web Services (AWS) zusammenarbeitet, um US-Geheimdiensten und Verteidigungsbehörden Zugriff auf die Claude-Familie von KI-Modellen von Anthropic zu ermöglichen.
Die Nachricht kommt zu einem Zeitpunkt, an dem immer mehr KI-Anbieter aus strategischen und steuerlichen Gründen Geschäfte mit US-Verteidigungskunden abschließen. Meta gab kürzlich bekannt, dass es seine Llama-Modelle Verteidigungspartnern zur Verfügung stellt, während OpenAI dies tut suchen eine engere Beziehung zum Verteidigungsministerium aufzubauen.
Anthropic-Vertriebsleiterin Kate Earle Jensen sagt, dass die Zusammenarbeit des Unternehmens mit Palantir und AWS „die Nutzung von Claude“ innerhalb der Plattform von Palantir „operationalisieren“ wird, indem AWS-Hosting genutzt wird. Claude, das Anfang dieses Monats auf der Plattform von Palantir verfügbar wurde, kann jetzt in der von der Verteidigung akkreditierten Umgebung von Palantir verwendet werden, die auf AWS gehostet wird.
„Wir sind stolz darauf, an der Spitze zu stehen, wenn es darum geht, verantwortungsvolle KI-Lösungen in vertrauliche Umgebungen in den USA zu bringen und so die Analysefähigkeiten und die betriebliche Effizienz bei wichtigen Regierungsoperationen zu verbessern“, sagte Jensen. „Der Zugriff auf Claude innerhalb von Palantir auf AWS wird US-Verteidigungs- und Geheimdienstorganisationen mit leistungsstarken KI-Tools ausstatten, die große Mengen komplexer Daten schnell verarbeiten und analysieren können. Dies wird die nachrichtendienstliche Analyse erheblich verbessern und Beamte bei ihren Entscheidungsprozessen unterstützen, ressourcenintensive Aufgaben rationalisieren und die betriebliche Effizienz in allen Abteilungen steigern.“
Diesen Sommer brachte Anthropic ausgewählte Claude-Modelle in die GovCloud von AWS und signalisierte damit seine Ambitionen, seinen Kundenstamm im öffentlichen Sektor zu erweitern. (GovCloud ist der Service von AWS, der für Cloud-Workloads der US-Regierung entwickelt wurde.) Das Unternehmen hat sich als sicherheitsbewussterer Anbieter positioniert als OpenAI. Die Nutzungsbedingungen von Anthropic erlauben jedoch den Einsatz seiner KI für Aufgaben wie „rechtlich genehmigte Analyse ausländischer Geheimdienste“, „Erkennung verdeckter Einflussnahme oder Sabotagekampagnen“ und „Vorwarnung vor potenziellen militärischen Aktivitäten“.