Holen Sie sich einen Hinweis, sagt das Gremium über generative KI: Sie wird „zur Überwachung eingesetzt“

Auf einer Bloomberg-Konferenz in San Francisco waren heute einige der größten Namen der KI zu Gast, darunter kurz Sam Altman von OpenAI, der gerade seine zweimonatige Welttournee beendet hat, und der Gründer von Stability AI, Emad Mostaque. Eines der spannendsten Gespräche fand jedoch später am Nachmittag bei einer Podiumsdiskussion über KI-Ethik statt.

Mit Meredith Whittaker, der Präsidentin der sicheren Messaging-App Signal; Navrina Singh, Mitbegründerin und CEO von Credo AI; und Alex Hanna, Forschungsdirektor am Distributed AI Research Institute, hatten die drei eine gemeinsame Botschaft an das Publikum: Lassen Sie sich nicht so sehr von den Versprechen und Bedrohungen ablenken, die mit der Zukunft der KI verbunden sind. Es ist keine Magie, es ist nicht vollständig automatisiert und – laut Whittaker – in diesem Moment ist es aufdringlicher als alles, was die meisten Amerikaner scheinbar begreifen.

Hannah verwies zum Beispiel auf die vielen Menschen auf der ganzen Welt, die dabei helfen, die großen Sprachmodelle von heute zu trainieren, und deutete an, dass diese Personen in der atemlosen Berichterstattung über generative KI zu kurz kommen, teils weil die Arbeit unspektakulär ist, teils weil die Arbeit unrühmlich ist es passt nicht zum aktuellen Narrativ über KI.

Hannah sagte: „Wir wissen es Berichterstattung . . .dass es eine Armee von Arbeitern gibt, die hinter den Kulissen Anmerkungen machen, damit dieses Zeug überhaupt einigermaßen funktioniert – Arbeiter, die mit Amazon Mechanical Turk arbeiten, Leute, die mit Amazon Mechanical Turk arbeiten [the training data company Sama — in Venezuela, Kenya, the U.S., actually all over the world . . .They are actually doing the labeling, whereas Sam [Altman] und Emad [Mostaque] und all diese anderen Leute, die sagen werden, dass diese Dinge magisch sind – nein. Es gibt Menschen. . . „Diese Dinge müssen als autonom erscheinen und es hat diesen Anstrich, aber dahinter steckt so viel menschliche Arbeit.“

Die separat abgegebenen Kommentare von Whittaker – der zuvor bei Google arbeitete, Mitbegründer des AI Now Institute der NYU und Berater der Federal Trade Commission war – waren noch deutlicher (und aufgrund der begeisterten Reaktion des Publikums auch wirkungsvoller). Ihre Botschaft war, dass die Welt, so verzaubert sie auch von Chatbots wie ChatGPT und Bard sein mag, die Technologie, die ihnen zugrunde liegt, gefährlich ist, insbesondere da die Macht immer stärker auf diejenigen konzentriert wird, die an der Spitze der fortgeschrittenen KI-Pyramide stehen.

Whittaker sagte: „Ich würde sagen, vielleicht sind einige der Leute in diesem Publikum KI-Nutzer, aber die Mehrheit der Bevölkerung ist es.“ Thema der KI. . .Dies ist keine Frage der individuellen Entscheidung. Die meisten Arten, wie KI unser Leben interpoliert und Entscheidungen trifft, die unseren Zugang zu Ressourcen und Chancen prägen, werden hinter den Kulissen auf eine Weise getroffen, die wir wahrscheinlich nicht einmal wissen.“

Whittaker nannte als Beispiel jemanden, der eine Bank betritt und um einen Kredit bittet. Diese Person kann geleugnet werden und „keine Ahnung davon haben, dass es ein System gibt“. [the] zurück, wahrscheinlich durch eine Microsoft-API unterstützt, die anhand von ausgesuchten sozialen Medien festgestellt hat, dass ich nicht kreditwürdig bin. Ich werde es nie erfahren [because] Es gibt für mich keinen Mechanismus, um das zu wissen.“ Es gebe Möglichkeiten, dies zu ändern, fuhr sie fort, aber die derzeitige Machthierarchie zu überwinden, um dies zu erreichen, sei nahezu unmöglich, meinte sie. „Ich sitze seit etwa 15, 20 Jahren am Tisch. Ich habe gewesen am Tisch. Ohne Macht am Tisch zu sitzen ist nichts.“

Sicherlich könnten viele machtlose Menschen Whittaker zustimmen, darunter aktuelle und ehemalige OpenAI- und Google-Mitarbeiter, die Berichten zufolge zeitweise misstrauisch gegenüber dem Ansatz ihrer Unternehmen bei der Einführung von KI-Produkten waren.

Tatsächlich fragte Bloomberg-Moderatorin Sarah Friar das Gremium, wie besorgte Mitarbeiter ihre Meinung äußern können, ohne befürchten zu müssen, ihren Arbeitsplatz zu verlieren, worauf Singh – dessen Startup Unternehmen bei der KI-Governance unterstützt – antwortete: „Ich denke, vieles davon hängt von der Führung und dem Unternehmen ab.“ Werte, um ehrlich zu sein. . . . Wir haben im vergangenen Jahr immer wieder erlebt, dass verantwortungsvolle KI-Teams entlassen wurden.“

In der Zwischenzeit gebe es noch viel mehr, was die Menschen über die Geschehnisse nicht verstehen, schlug Whittaker vor und nannte KI „eine Überwachungstechnologie“. Vor der Menge führte sie aus und stellte fest, dass KI „eine Überwachung in Form dieser riesigen Datensätze erfordert, die den Bedarf an immer mehr Daten und einer immer vertraulicheren Sammlung festigen und erweitern.“ Die Lösung für alles sind mehr Daten und mehr gebündeltes Wissen in den Händen dieser Unternehmen. Aber auch als Überwachungsgeräte werden diese Systeme eingesetzt. Und ich denke, es ist wirklich wichtig zu erkennen, dass es keine Rolle spielt, ob die Ausgabe eines KI-Systems durch eine probabilistische statistische Schätzung erfolgt oder ob es Daten von einem Mobilfunkmast sind, die meinen Standort triangulieren. Diese Daten werden zu Daten über mich. Es muss nicht korrekt sein. Es muss nicht widerspiegeln, wer ich bin oder wo ich bin. Aber es hat eine bedeutende Macht über mein Leben, und diese Macht wird in die Hände dieser Unternehmen gelegt.“

Tatsächlich, fügte sie hinzu, „ist das Venn-Diagramm der KI-Bedenken und Datenschutzbedenken ein Kreis.“

Whittaker hat offensichtlich bis zu einem gewissen Punkt ihre eigenen Pläne. Wie sie selbst bei der Veranstaltung sagte: „Es gibt eine Welt, in der Signal und andere legitime Technologien zum Schutz der Privatsphäre bestehen bleiben“, weil sich die Menschen mit dieser Machtkonzentration immer weniger wohl fühlen.

Aber auch wenn es nicht genügend Widerstand gibt und bald – wenn der Fortschritt in der KI beschleunigt wird, beschleunigen sich auch die gesellschaftlichen Auswirkungen – werden wir weiterhin einen „Hype-gefüllten Weg in Richtung KI“ beschreiten, sagte sie, „wo diese Macht verankert ist.“ und eingebürgert unter dem Deckmantel der Intelligenz und wir werden bis auf den Punkt überwacht [of having] sehr, sehr wenig Entscheidungsfreiheit über unser individuelles und kollektives Leben.“

Dieses „Anliegen ist existenziell und viel größer als die oft gegebene KI-Beschreibung.“

Wir fanden die Diskussion fesselnd; Wenn Sie das Ganze sehen möchten, hat Bloomberg es inzwischen veröffentlicht Hier.

Oben: Signal-Präsidentin Meredith Whittaker

tch-1-tech