Da KI Arbeitsplätze eliminiert, eine Möglichkeit, Menschen finanziell über Wasser zu halten (das ist kein BGE)

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Im Silicon Valley glauben einige der klügsten Köpfe, dass ein universelles Grundeinkommen (UBI), das den Menschen uneingeschränkte Barzahlungen garantiert, ihnen helfen wird, zu überleben und zu gedeihen, da fortschrittliche Technologien mehr Karrieren, wie wir sie kennen, von Angestellten und kreativen Rollen eliminieren – Anwälte, Anwälte, Journalisten, Künstler, Software-Ingenieure – zu Arbeitsstellen. Die Idee hat genug Anklang gefunden Dutzende der garantierten Einkommensprogramme wurden seit 2020 in US-Städten gestartet.

Aber auch Sam Altman, der CEO von OpenAI und einer der bekanntesten Befürworter von UBI, glaubt nicht, dass es eine vollständige Lösung ist. Wie er während einer sagte hinsetzen Anfang dieses Jahres: „Ich denke, es ist ein kleiner Teil der Lösung. Ich finde es toll. Ich denke als [advanced artificial intelligence] immer mehr an der Wirtschaft teilnimmt, sollten wir Reichtum und Ressourcen viel mehr verteilen, als wir haben, und das wird mit der Zeit wichtig werden. Aber ich glaube nicht, dass das das Problem lösen wird. Ich glaube nicht, dass das den Leuten einen Sinn geben wird, ich glaube nicht, dass die Leute komplett aufhören werden, zu versuchen, neue Dinge zu erschaffen und zu tun und was auch immer. Ich würde es also als eine grundlegende Technologie betrachten, aber nicht als einen Plan für die Gesellschaft.“

Die Frage, die sich stellt, ist, wie ein Plan für die Gesellschaft in diesem Fall aussehen könnte, und der Informatiker Jaron Lanier, ein Gründer auf dem Gebiet der virtuellen Realität, schreibt in dieser Woche New-Yorker dass „Datenwürde“ eine Lösung sein könnte, wenn nicht Die antworten.

Hier ist die Grundvoraussetzung: Im Moment geben wir unsere Daten meistens kostenlos im Austausch für kostenlose Dienste. Lanier argumentiert, dass es wichtiger denn je wird, dass wir damit aufhören, dass das „digitale Zeug“, auf das wir uns verlassen – teilweise soziale Netzwerke, aber zunehmend auch KI-Modelle wie GPT-4 von OpenAI – stattdessen „mit den Menschen verbunden werden“. die ihnen überhaupt so viel zu essen geben.

Die Idee ist, dass Menschen „für das bezahlt werden, was sie erschaffen, selbst wenn es durch große Modelle gefiltert und neu kombiniert wird“.

Das Konzept ist nicht ganz neu, da Lanier den Begriff der Datenwürde erstmals in einem Artikel der Harvard Business Review aus dem Jahr 2018 mit dem Titel „Ein Entwurf für eine bessere digitale Gesellschaft.“ Wie er damals zusammen mit dem Co-Autor und Ökonomen Glen Weyl schrieb: „[R]Hetorik aus dem Technologiesektor deutet auf eine kommende Welle der Unterbeschäftigung aufgrund von künstlicher Intelligenz (KI) und Automatisierung hin“ und eine „Zukunft, in der Menschen zunehmend als wertlos und ohne wirtschaftliche Handlungsfähigkeit behandelt werden“.

Aber die „Rhetorik“ der Befürworter des universellen Grundeinkommens „lässt nur Raum für zwei Ergebnisse“, und sie sind ziemlich extrem, bemerkten Lanier und Weyl. „Entweder wird es trotz technologischer Fortschritte Massenarmut geben, oder viel Reichtum muss durch einen Sozialfonds unter zentrale, nationale Kontrolle genommen werden, um den Bürgern ein universelles Grundeinkommen zu verschaffen.“

Aber beide „verstärken Macht und untergraben oder ignorieren den Wert von Datenerstellern“, schrieben die beiden.

Entwirre meinen Verstand

Natürlich ist es keine geringe Herausforderung, Menschen die richtige Menge an Anerkennung für ihre unzähligen Beiträge zu allem, was auf der Welt existiert, zuzuweisen (auch wenn man sich vorstellen kann, dass KI-Startups prüfen, wie sie versprechen, das Problem anzugehen). Lanier räumt ein, dass sich selbst Datenwürdeforscher nicht darauf einigen können, wie alles entwirrt werden soll, was KI-Modelle aufgenommen haben, oder wie detailliert eine Bilanzierung versucht werden sollte.

Aber er denkt – vielleicht optimistisch – dass es schrittweise geschehen könnte. „Das System würde nicht unbedingt die Milliarden von Menschen berücksichtigen, die Umgebungsbeiträge zu großen Modellen geleistet haben – zum Beispiel diejenigen, die die simulierte Kompetenz eines Modells mit Grammatik erweitert haben. [It] sich möglicherweise nur um die kleine Zahl besonderer Mitwirkender kümmern, die in einer bestimmten Situation auftreten.“ Im Laufe der Zeit könnten jedoch „mehr Menschen einbezogen werden, da zwischengeschaltete Rechtsorganisationen – Gewerkschaften, Gilden, Berufsgruppen usw. – beginnen, eine Rolle zu spielen“.

Die unmittelbarere Herausforderung ist natürlich die Black-Box-Natur der aktuellen KI-Tools, sagt Lanier, der glaubt, dass „Systeme transparenter gemacht werden müssen. Wir müssen besser darin werden, zu sagen, was in ihnen vorgeht und warum.“

Während OpenAI in den Vorjahren zumindest einen Teil seiner Trainingsdaten veröffentlicht hatte, hat es den Kimono inzwischen komplett geschlossen. Tatsächlich sagte Greg Brockman Tech letzten Monat über GPT-4, sein bisher neuestes und leistungsstärkstes großes Sprachmodell, dass seine Trainingsdaten aus einer „Vielzahl von lizenzierten, erstellten und öffentlich zugänglichen Datenquellen stammen, zu denen auch öffentlich zugängliche persönliche Daten gehören können Informationen“, aber er lehnte es ab, etwas Genaueres anzubieten.

Als OpenAI angegeben Nach der Veröffentlichung von GPT-4 hat das Outfit zu viele Nachteile, wenn es mehr preisgibt, als es tut. „Angesichts der Wettbewerbslandschaft und der Sicherheitsauswirkungen von Großmodellen wie GPT-4 enthält dieser Bericht keine weiteren Details zur Architektur (einschließlich Modellgröße), Hardware, Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder ähnlichem.“

Dasselbe gilt derzeit für jedes große Sprachmodell. Der Bard-Chatbot von Google beispielsweise basiert auf dem LaMDA-Sprachmodell, das auf Datensätze trainiert wird, die auf Internetinhalten namens Infiniset basieren. Aber sonst ist wenig bekannt darüber anders als das, was Googles Forschungsteam schrieb vor einem Jahr, das heißt, dass es – zu irgendeinem Zeitpunkt in der Vergangenheit – 2,97 Milliarden Dokumente und 1,12 Milliarden Dialoge mit 13,39 Milliarden Äußerungen aufgenommen hat.

Die Aufsichtsbehörden rätseln, was zu tun ist. OpenAI – insbesondere dessen Technologie sich wie ein Lauffeuer verbreitet – ist bereits im Fadenkreuz einer wachsenden Zahl von Ländern, darunter auch der italienischen Behörde, die die Nutzung von ChatGPT blockiert hat. Französische, deutsche, irische und kanadische Datenregulierungsbehörden untersuchen ebenfalls, wie sie Daten sammeln und verwenden.

Aber wie Margaret Mitchell, eine KI-Forscherin, die früher Googles KI-Ethik-Co-Leiterin war, der Verkaufsstelle mitteilt Technologieüberprüfungist es für diese Unternehmen derzeit fast unmöglich, die Daten von Einzelpersonen zu identifizieren und aus ihren Modellen zu entfernen.

Wie von der Verkaufsstelle erklärt: OpenAI „hätte sich riesige Kopfschmerzen ersparen können, indem es von Anfang an eine robuste Datenaufzeichnung eingebaut hätte, [according to Mitchell]. Stattdessen ist es in der KI-Branche üblich, Datensätze für KI-Modelle zu erstellen, indem man das Web wahllos durchforstet und dann die Arbeit des Entfernens von Duplikaten oder irrelevanten Datenpunkten, des Filterns unerwünschter Dinge und des Korrigierens von Tippfehlern auslagert.“

Wie man ein Leben rettet

Dass diese Technologieunternehmen möglicherweise nur ein begrenztes Verständnis dafür haben, was jetzt in ihren Modellen steckt, ist eine offensichtliche Herausforderung für den Vorschlag von Lanier zur „Datenwürde“, der Altman in seinem Artikel im New Yorker einen „Kollegen und Freund“ nennt.

Ob es unmöglich wird, wird die Zeit zeigen.

Sicherlich ist es sinnvoll, den Menschen die Eigenverantwortung für ihre Arbeit zu geben, und die Frustration über dieses Thema könnte sicherlich zunehmen, wenn immer mehr Teile der Welt mit diesen neuen Werkzeugen umgestaltet werden.

Ob OpenAI und andere das Recht hatten, das gesamte Internet zu kratzen, um seine Algorithmen zu füttern, steht bereits im Mittelpunkt zahlreich und breit gefächert Klagen wegen Urheberrechtsverletzungen gegen sie.

Aber seine sogenannte Datenwürde könnte auch einen großen Beitrag dazu leisten, die geistige Gesundheit der Menschen im Laufe der Zeit zu bewahren, schlägt Lanier in seinem faszinierenden Artikel im New Yorker vor.

Aus seiner Sicht läuft das bedingungslose Grundeinkommen „darauf hinaus, alle auf Arbeitslosengeld zu setzen, um die Idee der künstlichen Black-Box-Intelligenz zu bewahren“. In der Zwischenzeit würde die Beendigung der „Black-Box-Natur unserer derzeitigen KI-Modelle“ eine Abrechnung der Beiträge der Menschen erleichtern – und es wäre viel wahrscheinlicher, dass sie weiterhin Beiträge leisten.

Wichtig, fügt Lanier hinzu, könnte es auch helfen, „eine neue kreative Klasse anstelle einer neuen abhängigen Klasse zu gründen“. Und bei welcher würden Sie lieber mitmachen?

tch-1-tech