KI -Systeme mit „inakzeptables Risiko“ sind jetzt in der EU verboten

Am Sonntag in der Europäischen Union können die Aufsichtsbehörden des Blocks die Verwendung von KI -Systemen verbieten, die sie für ein „inakzeptables Risiko“ oder einen Schaden erweisen.

2. Februar ist die erste Einhaltung der Compliance -Frist für das AI -Gesetz der EU, den umfassenden KI -Rahmen, den das Europäische Parlament im März im März nach Jahren der Entwicklung schließlich zugelassen hat. Das Gesetz ging offiziell in Kraft am 1. August; Was jetzt folgt, ist die erste der Compliance -Fristen.

Die Einzelheiten sind in Artikel 5 dargelegtAber im Großen und Ganzen soll das Gesetz eine Vielzahl von Anwendungsfällen abdecken, in denen KI auftritt und mit Einzelpersonen interagiert, von Verbraucheranwendungen bis hin zu physischen Umgebungen.

Unter dem Blocks AnsatzEs gibt vier breite Risikoniveaus: (1) minimales Risiko (z. B. E -Mail -Spam -Filter) dürfen keine regulatorische Aufsicht haben; . (3) Ein hohes Risiko – KI für Empfehlungen im Gesundheitswesen ist ein Beispiel – wird stark regulatorisch überwacht. und (4) inakzeptable Risikoanwendungen – der Schwerpunkt der Compliance -Anforderungen dieses Monats – wird vollständig verboten.

Einige der inakzeptablen Aktivitäten umfassen:

  • KI für soziale Bewertung verwendet (z. B. auf der Grundlage des Verhaltens einer Person Risikoprofile).
  • KI, das die Entscheidungen einer Person unterschwellig oder täuschend manipuliert.
  • KI, das Schwachstellen wie Alter, Behinderung oder sozioökonomischer Status ausnutzt.
  • KI, die versucht, Menschen zu vorherzusagen, die Verbrechen begehen, die auf ihrem Aussehen basieren.
  • KI, das Biometrie verwendet, um die Eigenschaften einer Person wie ihre sexuelle Orientierung zu schließen.
  • KI, das „Echtzeit“ -Biometrische Daten an öffentlichen Orten zum Zwecke der Strafverfolgung sammelt.
  • KI, der versucht, die Gefühle der Menschen in der Arbeit oder in der Schule zu schließen.
  • KI, das Datenbanken für Gesichtserkennungsdaten erstellt – oder erweitert -, indem sie Bilder online oder von Überwachungskameras abkratzen.

Unternehmen, die sich als die oben genannten AI -Anwendungen in der EU befinden, unterliegen Bußgeldern, unabhängig davon, wo sie ihren Hauptsitz haben. Sie könnten bis zu 35 Millionen € (~ 36 Millionen US -Dollar) oder 7% ihres Jahresumsatzes aus dem früheren Geschäftsjahr, je nachdem, was immer größer ist, angeschlossen sein.

Die Bußgelder werden einige Zeit nicht eingehen, bemerkte Rob Sumroy, Leiter der Technologie bei der britischen Anwaltskanzlei und Mai in einem Interview mit Tech.

„Es wird erwartet, dass Organisationen bis zum 2. Februar vollständig konform sein, aber… die nächste große Frist, über die Unternehmen bekannt sein müssen, ist im August“, sagte Sumroy. „Bis dahin werden wir wissen, wer die zuständigen Behörden sind, und die Bußgelder und Durchsetzungsbestimmungen werden wirksam werden.“

Vorläufige Versprechen

Die Frist am 2. Februar ist in gewisser Weise eine Formalität.

Im vergangenen September unterzeichneten über 100 Unternehmen den EU -AI -Pakt, ein freiwilliges Versprechen, die Grundsätze des AI -Gesetzes vor dem Eintritt in die Anwendung anzuwenden. Im Rahmen des Pakts verpflichtete sich die Unterzeichner – zu denen Amazon, Google und Openai gehörten – die Identifizierung von KI -Systemen, die nach dem AI -Gesetz wahrscheinlich als ein hohes Risiko eingestuft werden.

Einige Tech -Riesen, insbesondere Meta und Apple, haben den Pakt übersprungen. Der französische KI -Startup Mistral, einer der härtesten Kritiker des KI -Aktes, entschied sich ebenfalls dafür, nicht zu unterschreiben.

Das heißt nicht, dass Apple, Meta, Mistral oder andere, die dem Pakt nicht zustimmten, ihren Verpflichtungen nicht nachkommen werden – einschließlich des Verbots von inakzeptabel riskanten Systemen. Sumroy weist darauf hin, dass die meisten Unternehmen angesichts der Art der verbotenen Anwendungsfälle ohnehin nicht an diesen Praktiken beteiligt sind.

„Für Organisationen ist ein wesentliches Anliegen des EU -AI -Gesetzes, ob klare Richtlinien, Standards und Verhaltenskodizes rechtzeitig eintreffen werden – und entscheidend, ob sie Organisationen Klarheit über die Einhaltung der Einhaltung bieten“, sagte Sumroy. „Die Arbeitsgruppen sind jedoch bisher ihre Fristen im Verhaltenskodex für … Entwickler ein.“

Mögliche Ausnahmen

Es gibt Ausnahmen von mehreren Verboten des AI Act.

Zum Beispiel ermöglicht das Gesetz den Strafverfolgungsbehörden, bestimmte Systeme zu verwenden, die an öffentlichen Orten Biometrie sammeln, wenn diese Systeme dazu beitragen zum Leben. Diese Befreiung erfordert die Genehmigung des entsprechenden Verwaltungsrats, und das Gesetz betont, dass die Strafverfolgung keine Entscheidung treffen kann, die „einen nachteiligen rechtlichen Effekt erzeugt“ auf eine Person, die ausschließlich auf den Ergebnissen dieser Systeme basiert.

Das Gesetz erstellt außerdem Ausnahmen für Systeme, die Emotionen an Arbeitsplätzen und Schulen schließen, an denen eine „medizinische oder Sicherheit“ -Schürifikation vorliegt, wie Systeme für den therapeutischen Gebrauch.

Die Europäische Kommission, die Exekutive der EU, sagte, dass es zusätzliche Richtlinien veröffentlichen würde in „Anfang 2025“ nach einer Konsultation mit den Stakeholdern im November. Diese Richtlinien müssen jedoch noch veröffentlicht werden.

Sumroy sagte, es sei auch unklar, wie andere Gesetze in den Büchern mit den Verboten und damit verbundenen Bestimmungen des AI -Gesetzes interagieren könnten. Klarheit kann erst später im Jahr ankommen, wenn sich das Durchsetzungsfenster nähert.

„Es ist wichtig für Organisationen, sich daran zu erinnern, dass die KI -Regulierung nicht isoliert existiert“, sagte Sumroy. „Andere rechtliche Rahmenbedingungen wie DSGVO, NIS2 und DORA werden mit dem AI -Gesetz interagieren und potenzielle Herausforderungen schaffen – insbesondere mit überschneidenden Anforderungen an die Notifizierung. Das Verständnis, wie diese Gesetze zusammenpassen, wird genauso wichtig sein wie das Verständnis des KI -Aktes selbst. “

tch-1-tech