Meredith Whittaker von Signal: KI ist im Grunde „eine Überwachungstechnologie“

Warum scheinen so viele Unternehmen, die auf die Monetarisierung der Daten ihrer Nutzer angewiesen sind, extrem auf KI zu setzen? Wenn Sie Signal-Präsidentin Meredith Whittaker fragen (und ich habe es getan), wird sie Ihnen sagen, dass es einfach daran liegt, dass „KI eine Überwachungstechnologie ist.“

Auf der Bühne bei Tech Disrupt 2023, erläuterte Whittaker ihre Sichtweise, dass KI weitgehend untrennbar mit der Big-Data- und Targeting-Branche verbunden ist, die von Unternehmen wie Google und Meta sowie weniger verbraucherorientierten, aber ebenso prominenten Unternehmens- und Verteidigungsunternehmen fortgeführt wird. (Ihre Bemerkungen wurden aus Gründen der Klarheit leicht bearbeitet.)

„Es erfordert das Überwachungsgeschäftsmodell; Es ist eine Verschärfung dessen, was wir seit Ende der 90er Jahre und der Entwicklung der Überwachungswerbung gesehen haben. Ich denke, KI ist eine Möglichkeit, das Überwachungsgeschäftsmodell zu festigen und zu erweitern“, sagte sie. „Das Venn-Diagramm ist ein Kreis.“

„Und der Einsatz von KI dient auch der Überwachung, oder?“ Sie fuhr fort. „Weißt du, du gehst an einer Gesichtserkennungskamera vorbei, die mit pseudowissenschaftlicher Emotionserkennung ausgestattet ist, und sie erzeugt Daten über dich, ob richtig oder falsch, die sagen: ‚Du bist glücklich, du bist traurig, du hast einen schlechten Charakter, du‘.“ „Bist ein Lügner, was auch immer.“ Dabei handelt es sich letztlich um Überwachungssysteme, die an diejenigen vermarktet werden, die im Allgemeinen Macht über uns haben: unsere Arbeitgeber, Regierungen, Grenzkontrollen usw., um Entscheidungen und Vorhersagen zu treffen, die unseren Zugang zu Ressourcen und Möglichkeiten beeinflussen.“

Ironischerweise, so betonte sie, werden die Daten, die diesen Systemen zugrunde liegen, häufig von genau den Mitarbeitern organisiert und mit Anmerkungen versehen (ein notwendiger Schritt beim Zusammenstellen von KI-Datensätzen).

„Es gibt keine Möglichkeit, diese Systeme ohne menschliche Arbeit auf der Ebene der Informationsvermittlung über die Grundwahrheit der Daten zu erstellen – bestärkendes Lernen mit menschlichem Feedback, was wiederum nur eine Art Tech-Washing prekärer menschlicher Arbeit ist.“ Es sind Tausende und Abertausende von Arbeitern, die sehr wenig bezahlt werden, obwohl es in der Masse sehr teuer ist, und es gibt keine andere Möglichkeit, diese Systeme zu schaffen, Punkt“, erklärte sie. „In mancher Hinsicht ist das, was wir sehen, eine Art Zauberer-von-Oz-Phänomen. Wenn wir den Vorhang aufziehen, gibt es nicht viel Intelligentes.“

Allerdings sind nicht alle KI- und maschinellen Lernsysteme gleichermaßen ausbeuterisch. Als ich fragte, ob Signal in seiner App oder Entwicklungsarbeit KI-Tools oder -Prozesse verwendet, bestätigte sie, dass die App über ein „kleines Modell auf dem Gerät verfügt, das wir nicht entwickelt haben, wir verwenden es von der Stange, als Teil des Gesichts.“ Unschärfefunktion in unserem Medienbearbeitungs-Toolset. Es ist eigentlich nicht so gut … aber es hilft dabei, Gesichter auf Menschenmengenfotos zu erkennen und sie unscharf zu machen, sodass Sie beim Teilen in sozialen Medien nicht die vertraulichen biometrischen Daten der Personen beispielsweise an Clearview weitergeben.“

„Aber hier ist die Sache. „Ja, das ist ein toller Einsatz von KI, und entbindet uns das nicht einfach von all der Negativität, die ich auf der Bühne ausgebreitet habe“, fügte sie hinzu. „Sicher, wenn das der einzige Markt für Gesichtserkennung wäre … aber lassen Sie uns das klarstellen. Die wirtschaftlichen Anreize, die den sehr teuren Prozess der Entwicklung und Bereitstellung von Gesichtserkennungstechnologie vorantreiben, würden niemals zulassen, dass dies der einzige Nutzen bleibt.“

tch-1-tech