Die Privatsphäre wird sterben, um uns den denkenden und wissenden Computer zu liefern

Am 9. November erhalten wir einen ersten richtigen Blick auf den vielgepriesenen „KI-Pin“ von Humane (was auch immer das ist), und das personalisierte KI-Speicher-Startup Rewind bringt irgendwann im Laufe der Zeit einen Anhänger auf den Markt, mit dem Sie nicht nur Ihr digitales, sondern auch Ihr physisches Leben verfolgen können vorhersehbare Zukunft. Über das Treffen von OpenAI-Mitarbeiter Sam Altman mit Jony Ive, dem langjährigen Design-Gott von Apple, bezüglich der Entwicklung irgendeiner Art von KI-Hardware-Gadget herrscht viel Aufregung, und überall in den Fluren der VC-Büros kündigt das Gemurmel in atemlosen Tönen den bevorstehenden iPhone-Moment für KI an.

Natürlich ist das Potenzial immens: Ein Gerät, das die Möglichkeiten von ChatGPT mit generativer KI übernimmt und auf viele andere Aspekte unseres Lebens ausdehnt – hoffentlich mit etwas mehr Intelligenz und Praktikabilität. Aber die Kosten sind beträchtlich; nicht die finanziellen Kosten, die lediglich ein weiterer Vermögenstransfer von den Kohlereserven reicher Family Offices und vermögender Privatpersonen in die unersättlichen Feuer der Startup-Burn Rates sind. Nein, ich spreche von dem Preis, den wir für die Privatsphäre zahlen.

Der Tod der Privatsphäre wurde im Laufe der Jahre als Reaktion auf zahlreiche technologische Fortschritte, darunter Dinge wie die Live-Standortfreigabe mobiler Geräte; das Aufkommen und die letztendliche Allgegenwärtigkeit sozialer Netzwerke und der daraus resultierenden sozialen Diagramme; Satellitenkartierung und hochauflösende Bilder; massive Lecks von Zugangsdaten und personenbezogenen Daten (PII) und vieles mehr.

Generative KI – die Art, die durch OpenAI und ChatGPT populär gemacht wird und auf die sich die meisten Menschen beziehen, wenn sie eine kommende Welle von KI-Gadgets erwarten – ist ein weiterer Todfeind dessen, was wir als Privatsphäre bezeichnen, und sie ist einer ihrer gefräßigsten und gefräßigsten noch immer wahllose Mörder.

Bei unserer jüngsten Tech Disrupt-Veranstaltung in San Francisco sagte Signal-Präsidentin Meredith Whittaker – eine der wenigen großen Persönlichkeiten im Technologiebereich, die bereit und bestrebt zu sein scheint, sich mit den spezifischen realistischen Bedrohungen der KI auseinanderzusetzen, anstatt auf mögliche Weltuntergangsszenarien hinzuweisen, um die Aufmerksamkeit der Menschen auf sich zu ziehen vom Preis ausgeschlossen – sagte, dass KI im Kern „eine Überwachungstechnologie“ sei, die hinsichtlich ihrer Kapazität und Notwendigkeit, alle unsere Daten aufzusaugen, „das Überwachungsgeschäftsmodell erfordert“. Es eignet sich auch zur Überwachung von Bilderkennung, Stimmungsanalyse und unzähligen anderen ähnlichen Anwendungen.

Alle diese Kompromisse gelten für ein vernünftiges Nachbild eines denkenden und wissenden Computers, aber nicht für einen, der tatsächlich denken und wissen kann. Die Definitionen dieser Dinge werden natürlich variieren, aber die meisten Experten sind sich einig, dass die LLMs, die wir heute haben, zwar definitiv fortgeschritten sind und eindeutig in der Lage sind, menschliches Verhalten unter bestimmten begrenzten Umständen überzeugend nachzuahmen, aber nicht wirklich menschliches Wissen oder menschliches Denken reproduzieren.

Aber selbst um dieses Leistungsniveau zu erreichen, erforderten die Modelle, auf denen Dinge wie ChatGPT basieren, die Eingabe riesiger Datenmengen – Daten, die wohl mit der „Einwilligung“ derjenigen gesammelt wurden, die sie bereitgestellt haben, indem sie sie frei im Internet veröffentlicht haben ohne ein genaues Verständnis davon zu haben, was das für die Sammlung und Wiederverwendung bedeuten würde, ganz zu schweigen von einer Domain, die zum Zeitpunkt ihrer Veröffentlichung wahrscheinlich noch nicht wirklich existierte.

Dabei werden digitale Informationen berücksichtigt, bei denen es sich an sich um eine sehr umfangreiche Datensammlung handelt, die wahrscheinlich viel mehr verrät, als jedem von uns einzeln verständlich wäre. Aber es umfasst nicht einmal die Art von physischen Weltinformationen, die von Geräten wie Humanes KI-Pin, dem Rewind-Anhänger und anderen gesammelt werden sollen, einschließlich der Ray-Ban Meta Smartglasses, die der Facebook-Besitzer Anfang dieses Monats herausgebracht hat werden nächstes Jahr Funktionen hinzufügen, die auf Abruf Informationen über reale Objekte und Orte liefern, die mit ihren eingebauten Kameras erfasst wurden.

Einige derjenigen, die in dieser aufstrebenden Kategorie arbeiten, haben Bedenken hinsichtlich der Privatsphäre vorhergesehen und alle möglichen Schutzmaßnahmen bereitgestellt – Humane weist darauf hin, dass sein Gerät immer über eine gelbe LED anzeigt, wenn eine Aufnahme erfolgt; Meta hat die Benachrichtigungsleuchte der Ray-Ban-Smart-Brille im Vergleich zur ersten Version überarbeitet, um die Aufzeichnung physisch zu deaktivieren, wenn sie eine Manipulation oder Verschleierung der LED erkennt; Rewind gibt an, bei der gesamten Datennutzung einen datenschutzorientierten Ansatz zu verfolgen, in der Hoffnung, dass dieser zum Standard für die Branche wird.

Es ist unwahrscheinlich, dass dies zum Standard für die Branche wird. Der Standard war in der Vergangenheit das Mindestmaß, das der Markt und die Regulierungsbehörden ertragen konnten – und beide neigten dazu, im Laufe der Zeit weitere Eingriffe hinzunehmen, sei es stillschweigend oder zumindest aufgrund fehlender Einwände gegen die Änderung von Geschäftsbedingungen und Datenschutzrichtlinien.

Ein Sprung von dem, was wir jetzt haben, zu einem wirklich denkenden und wissenden Computer, der als virtueller Begleiter fungieren kann und ein mindestens ebenso vollständiges Bild unseres Lebens hat wie wir selbst, erfordert den Verlust so vieler Daten, wie wir jemals hoffen können sammeln oder besitzen – soweit das etwas ist, was jeder von uns besitzen kann. Und wenn wir unsere Ziele erreichen, wird die Frage, ob diese Daten jemals unsere lokalen Geräte (und die darin enthaltenen virtuellen Intelligenzen) verlassen oder nicht, eigentlich einigermaßen strittig, da unsere Informationen dann mit anderen geteilt werden – selbst wenn der andere dabei ist Der Fall kommt vor, dass es keine Form aus Fleisch und Blut gibt.

Es ist sehr gut möglich, dass das Konzept der „Privatsphäre“, wie wir es heute verstehen, zu diesem Zeitpunkt im Hinblick auf die Welt, in der wir uns befinden, veraltet oder unzureichend ist, und vielleicht haben wir etwas, das es ersetzen kann, das seine Privatsphäre bewahrt Geist angesichts dieses neuen Paradigmas. Wie auch immer, ich denke, der Weg zum iPhone-Moment der KI erfordert zwangsläufig den „Tod“ der Privatsphäre, wie wir sie kennen, was Unternehmen, die die Privatsphäre als wesentliches Unterscheidungsmerkmal betrachten und wertschätzen – wie Apple – im nächsten Jahrzehnt oder so in eine seltsame Lage bringt .

tch-1-tech