Warum Googles „menschliche Intelligenz“ sich über künstliche Intelligenz beschwert

Warum Googles „menschliche Intelligenz sich ueber kuenstliche Intelligenz beschwert
Google‚S Barde Chatbot beantwortet Ihre Fragen sehr schnell. Aber wissen Sie, dass der Barde trotz aller künstlichen Intelligenz in hohem Maße von Menschen abhängig ist und dass diese überarbeitet, unterbezahlt und frustriert sind?
Es gibt eine Gruppe von Vertragsarbeitern, die hinter den Kulissen arbeiten, um generative KI zu unterstützen. Wenn Sie glauben, es handele sich nur um KI, dann liegen Sie falsch. Menschliche Intelligenz ist genauso wichtig wie künstliche Intelligenz, da sie dafür sorgt, dass der Chatbot genaue und zuverlässige Antworten ausspuckt.
Inmitten von Googles KI-Wettlauf mit OpenAILeidtragende sind diese Vertragsarbeiter. Die Arbeitsbelastung dieser Arbeitnehmer hat an Umfang und Komplexität zugenommen.
Nehmen Sie den Fall von Bard. Es bietet schnelle Antworten auf eine Vielzahl von Fragen. Egal, ob Sie um Hilfe bei Ihrer Mathematikaufgabe bitten oder ein ganz neues Buch schreiben lassen möchten, es kann alles. Dennoch sind der Chatbot und die Unternehmen auf menschliche Prüfer angewiesen, um die Qualität dieser Antworten zu verbessern und die Konsistenz zu wahren. Diese Personen bewerten die Antworten, geben Feedback zu Fehlern und beseitigen Anzeichen von Parteilichkeit.
Diejenigen, die am Bard arbeiten, kommen von Unternehmen wie Appen Und Accenture. Obwohl sie unter strengen Zeitvorgaben arbeiten, nur minimale Schulungen benötigen und nur 14 US-Dollar pro Stunde verdienen, haben diese Auftragnehmer Bedenken hinsichtlich der Qualität ihrer Arbeit geäußert und befürchten, mit den Konsequenzen konfrontiert zu werden, wenn sie sich zu Wort melden, berichtet Bloomberg.
Diese Mitarbeiter arbeiten seit Januar an KI-bezogenen Aufgaben, um die Veröffentlichung der KI-Produkte von Google vorzubereiten.
Laut Aussage von sechs aktuellen Google-Vertragsarbeitern ist ihre Arbeit immer anspruchsvoller geworden. Auch ohne Fachkenntnisse sind diese Mitarbeiter für die Bewertung von Antworten zu einer Vielzahl von Themen verantwortlich, darunter Medikamentendosierungen und staatliche Vorschriften. Sie müssen komplexe Anweisungen befolgen und Aufgaben innerhalb enger Fristen erledigen, die teilweise nur drei Minuten betragen.
Einer der Auftragnehmer sagte, die aktuelle Situation verursache bei den Menschen Angst, Stress und Unsicherheit, was zu unterbezahlter Arbeit und mangelndem Zusammenhalt führe. Der Auftragnehmer ist der Ansicht, dass diese Kultur der Befürchtungen nicht dazu beiträgt, die gewünschte Qualität und Teamarbeit aller Beteiligten zu erreichen.
Auftragnehmer, die für Google arbeiten, haben sowohl privat als auch öffentlich Bedenken hinsichtlich ihrer Arbeitsbedingungen geäußert. Sie behaupten, dass die Bedingungen die Qualität der Inhalte beeinflussen, die Benutzer sehen. Im Mai schrieb ein Vertragsarbeiter von Appen einen Brief an den Kongress, in dem er erklärte, dass die Geschwindigkeit, mit der sie Inhalte überprüfen müssen, Bard zu einem „fehlerhaften“ und „gefährlichen“ Produkt machen könnte.
Die Arbeiter gaben an, dass ihre Arbeit mit automatisierten Mitteln bewertet wurde, die schwer verständlich waren. Sie konnten nicht direkt mit Google kommunizieren und gaben für jede Aufgabe nur Feedback über einen „Kommentar“-Bereich. Darüber hinaus mussten die Arbeiter schnell arbeiten, da sie von einem KI-System darauf hingewiesen wurden, schneller zu arbeiten.
Nach Angaben der Mitarbeiter sind sie im Rahmen ihrer Arbeit zur Bewertung der Qualität der Google-Angebote auf beunruhigende Inhalte wie Sodomie, Kriegsaufnahmen, Kinderpornografie und Hassreden gestoßen.
Einige Mitarbeiter bei Accenture sagten, sie seien vorübergehend damit beauftragt worden, unangemessene und beleidigende Aufforderungen zu überprüfen. Nachdem jedoch ein Mitarbeiter eine Personalbeschwerde eingereicht hatte, wurde das Projekt für das US-Team plötzlich gestoppt. Dennoch setzen Teams an anderen Standorten diese Praxis weiterhin fort.
Accenture-Mitarbeiter wurden außerdem gebeten, kreative Antworten auf Eingabeaufforderungen für Googles KI-Chatbot Bard zu geben. Sie erhielten Aufgaben wie das Schreiben eines Gedichts im Shakespeare-Stil über Drachen oder das Debuggen von Code. Mit der Situation vertraute Quellen gaben diese Informationen anonym weiter.
Letzten Monat behaupteten sechs Vertragsarbeiter bei Appen, die den neuen KI-Chatbot von Google trainierten, dass sie zu Unrecht entlassen wurden, weil sie sich über niedrige Löhne und unangemessene Fristen geäußert hatten. Dem Arbeitgeber Appen wird vorgeworfen, die Arbeiter wegen der Organisierung illegal entlassen zu haben. Obwohl sie sich fast ein Jahr lang für bessere Löhne und Arbeitsbedingungen eingesetzt hatten, wurden sie nur zwei Wochen nach der Warnung des Kongresses vor der potenziellen Gefahr durch den Chatbot Bard entlassen. Als Grund für die Kündigung nannte Appen „Geschäftsbedingungen“ und äußerte sich nicht weiter dazu.
In einer Erklärung erklärte Google, das Unternehmen sei nicht der Arbeitgeber der betreffenden Arbeitnehmer. Stattdessen sind die Lieferanten für die Festlegung der Arbeitsbedingungen wie Bezahlung, Sozialleistungen, Stunden, zugewiesene Aufgaben und Beschäftigungsänderungen verantwortlich.

toi-tech