Ziel der FCC ist es, das Risiko von KI-gestützten Robocalls zu untersuchen

Als ob Robocalling nicht schon ein Problem genug wäre, könnte das Aufkommen leicht zugänglicher, realistischer KI-gestützter Schriften und synthetischer Stimmen die Praxis noch verstärken. Die FCC möchte dem vorbeugen, indem sie untersucht, wie generierte Robocalls unter den bestehenden Verbraucherschutz fallen könnten.

Die Vorsitzende Jessica Rosenworcel hat eine Untersuchungsmitteilung vorgeschlagen, über die auf der nächsten Sitzung der Agentur abgestimmt werden soll. Sollte die Abstimmung erfolgreich sein (was fast sicher ist), würde die FCC offiziell prüfen, wie das Telefon-Verbraucherschutzgesetz sie in die Lage versetzt, mithilfe von KI-Technologie gegen Betrüger und Spammer vorzugehen.

Aber Rosenworcel hat auch darauf geachtet, dass KI ein potenziell leistungsstarkes Werkzeug für Zugänglichkeit und Reaktionsfähigkeit bei telefonischen Interaktionen darstellt.

„Obwohl wir uns der Herausforderungen bewusst sind, die KI mit sich bringen kann, besteht auch ein erhebliches Potenzial für den Einsatz dieser Technologie zum Nutzen von Kommunikationsnetzwerken und ihren Kunden – unter anderem im Kampf gegen Junk-Robocalls und Robotexts. Wir müssen diese Chancen und Risiken mit Bedacht angehen, und die Bemühungen, die wir heute starten, werden uns helfen, an beiden Fronten mehr Erkenntnisse zu gewinnen.“ sagte sie in einer Erklärung.

Jede Branche, in der es viel Sprache gibt, wie zum Beispiel der Kundenservice, prüft wahrscheinlich bereits, wie Automatisierung und generative KI genutzt werden können, um die Effektivität menschlicher Agenten zu steigern. Anstatt mit einer vorgefertigten Antwort zu antworten, könnte ein Callcenter-Mitarbeiter beispielsweise eine KI eine Wissensdatenbank konsultieren lassen und ein Skript bereitstellen, das genau auf die Erfahrung eines Kunden zugeschnitten ist. Oder ein KI-gestütztes Triage-System könnte den mühsamen Prozess „Wenn Sie dies anrufen, drücken Sie 1 … drücken Sie dafür 2 …“-Prozess, den nur wenige genießen, verbessern.

Aber dieselben Technologien, die eine mühsame Arbeit effizienter oder eine Benutzeroberfläche intuitiver machen könnten, könnten auf andere Weise eingesetzt werden, um Menschen zu täuschen oder zu belästigen. Man kann sich Robocalls vorstellen (und einige müssen es sich wahrscheinlich auch nicht vorstellen), die auf den Beruf, das Alter und den Standort eines Menschen zugeschnitten sind – die Art von maßgeschneiderten Betrügereien, deren Herstellung früher Zeit erforderte, die jetzt aber automatisiert werden können.

Es handelt sich um eine aufkommende Bedrohung, und die FCC ist vordergründig der Polizist, der im Einsatz ist. Obwohl sie Robocaller schon früher mit Rekordstrafen belegt haben (obwohl diese nicht immer eingezogen werden), müssen sie der Konkurrenz immer einen Schritt voraus sein, und diese Untersuchung soll ihnen dabei helfen.

Konkret sagte Rosenworcel, dass die Bemühungen Folgendes umfassen würden:

  • Wie KI-Technologien in die gesetzlichen Verantwortlichkeiten der Kommission gemäß dem Telephone Consumer Protection Act (TCPA) passen;
  • Ob und wann zukünftige KI-Technologien unter das TCPA fallen;
  • Wie sich KI auf bestehende Regulierungsrahmen und zukünftige Richtlinienformulierungen auswirkt;
  • Wenn die Kommission Möglichkeiten zur Überprüfung der Authentizität rechtmäßig generierter KI-Sprach- oder Textinhalte aus vertrauenswürdigen Quellen in Betracht ziehen sollte; Und,
  • Welche nächsten Schritte sind gegebenenfalls erforderlich, um diese Untersuchung voranzutreiben?

Wenn es ein wenig schwammig klingt, bedenken Sie einfach, dass die Agentur und andere, die ihr nahe stehen, auf diese ermittlungsähnlichen Bemühungen angewiesen sind, wenn sie tatsächlich Vorschriften erlassen und sich vor Gericht rechtfertigen.

tch-1-tech