Wir verlassen uns bereits in zahlreichen Bereichen unseres Lebens auf digitale Krücken – werden wir auch unsere wesentlichen Fähigkeiten an KI delegieren?
Die moderne Flugbahn der Menschheit wurde durch mehrere Wendepunkte definiert. Unter anderem die Erfindung der Elektrizität, der Glühbirne, des Telegrafensystems, des Computers und des Internets haben alle neue unumkehrbare Meilensteine in unserem Modus Vivendi signalisiert. Die kürzliche Einführung von ChatGPT könnte sich jedoch als mehr als ein Wendepunkt erweisen . Sie und ähnliche KI-Modelle können unsere Lebensweise dauerhaft stören; ihre Pannen und Wokist-Wutanfälle ungeachtet. Chat GPT ist jetzt die am schnellsten wachsende Verbraucher-App in der Geschichte. Innerhalb von zwei Monaten nach seiner Einführung im November 2022 konnte ChatGPT mehr als 100 Millionen Benutzer gewinnen. Sein Entwickler OpenAI, der mit 375 Mitarbeitern und dünnen Einnahmen begann, wird jetzt bewertet 30 Milliarden Dollar und zählen.Wie funktioniert es? ChatGPT aggregiert Daten aus dem Internet (obwohl es nicht direkt ist in Verbindung gebracht in Echtzeit ins Internet) und synthetisiert Antworten auf eine Anfrage innerhalb von Sekunden. Es ist derzeit das vielseitigste und stabilste der neuen KI-gestützten großen Sprachmodelle. Es kann Musiknoten komponieren, Softwarecode schreiben, mathematische Gleichungen lösen, Romane, Essays und Dissertationen schreiben, neben einer Vielzahl anderer Aufgaben. Es kann von Wissenschaftlern verwendet werden, um ihre Originalarbeiten – geschrieben in einer Muttersprache – ins Englische zu übersetzen. Mit der Weiterentwicklung von KI-Tools wie ChatGPT können sie menschliche Aktivitäten in einem breiten, aber unkalkulierbaren Spektrum ersetzen. Hunderte Millionen Arbeitsplätze könnten auf dem Spiel stehen. Seine unmittelbarsten Auswirkungen werden jedoch im Bereich des menschlichen Lernens und der Entscheidungsfindung liegen.Menschliches LernenMenschliches Lernen ist ein lebenslanger Prozess, der von unzähligen Faktoren geprägt wird. Dazu gehören (ohne darauf beschränkt zu sein) Erfahrung, Instinkt, Interaktionen, Fehler (und Korrekturen), Selbstbeobachtung, persönliche Angst, Kühnheit, Anleitung, Textdaten und individuelle Psyche. Die meisten dieser Voraussetzungen sind ChatGPT fremd. Das „Ohne Fleiß kein Preis“-Axiom des menschlichen Lernens und Entwickelns trifft darauf nicht zu. KI-Tools sind auch unbeeinflusst von menschlichen Beschränkungen wie Zeitbeschränkungen, Müdigkeit, „freien Tagen“ und Beschwerden. Diese Einschränkungen sind es, die Menschen möglicherweise dazu zwingen, ihre existenzielle Anforderung zu denken und zu lernen an Maschinen zu delegieren. Die unerbittliche Digitalisierung hat uns bereits geschickt darin gemacht, zu wissen, wo oder wie Informationen zu suchen sind, anstatt zu lernen, wie man dieselben Informationen behält. Infolgedessen ist eine digitale Krücke heute ein Muss für die Straßennavigation (z. B. Waze, Google Maps), das Kochen (kulinarische Videokanäle), das Reparieren von Geräten (DIY-Kanäle) und eine Vielzahl anderer alltäglicher Aktivitäten. Unsere täglichen Aufgaben werden immer mechanistischer und verdrängen unsere Fähigkeit, etwas Neues oder Bahnbrechendes zu schaffen. Wir werden zu Verlängerungen unserer Maschinen und nicht umgekehrt. Infolgedessen steht die Menschheit vor einer Ära kollektiver Betäubung und Konformität. Es gibt keinen besseren Weg, um abzuschätzen, wie KI-Tools unsere Denk- und Lernfähigkeit beeinflussen können, als die Auswirkungen von ChatGPT auf den globalen Bildungssektor zu beobachten. Studenten und Pädagogen nutzen ChatGPT jetzt als Ergänzung, Cheat-Tool oder als digitale Krücke Umfrage von der Walton Family Foundation und Impact Research fanden heraus, dass die meisten Lehrer (51%) und viele Schüler ChatGPT bereits in Schulen verwenden. Eine weitere Umfrage mit 1.000 US-Colleges fanden heraus, dass 30 % der Studenten ChatGPT für schriftliche Aufgaben verwendeten, wobei 60 % von ihnen es für „mehr als die Hälfte ihrer Aufgaben“ verwendeten. ChatGPT hat viele bestanden Prüfungen auf hohem Niveaueinschließlich der Wharton MBA-Prüfung, der US-amerikanischen medizinischen Zulassungsprüfung, mehrerer juristischer Prüfungen und eines Abschlusses an der Stanford Medical School.Papiermühlen kann ChatGPT auch verwenden, um wissenschaftliche Artikel und Berichte zu erstellen. Forscher, die ihre Daten verwenden (denken Sie daran, dass die KI „gelegentlich produzieren falsche Antworten“) oder die den Forschungsprozess durch generative KI bewusst verfälschen, können am Ende gesellschaftsschädliche Politiken und Produkte fördern. Eine weitere Coronapyschose kann sich die Welt nicht leisten! Alles in allem werden Schüler und Lehrer gleichermaßen zunehmend von der allmächtigen KI eingeschüchtert. KI legt die Messlatte für Studenten, Professoren und eine Vielzahl von Fachleuten höher. Auch das Aussortieren echter Artefakte wird immer schwieriger. Als Christoph Kanan, Associate Professor of Computer Science an der University of Rochester, bemerkte kürzlich: „Es wird immer schwieriger herauszufinden, wer was weiß und wer Hilfe von Dingen wie ChatGPT erhält.“ Infolgedessen haben einige Schulen in New York, Hongkong, Bangalore und anderswo haben Studenten aufgrund von Bedenken hinsichtlich Plagiat, Betrug und Fehlinformationen die Verwendung von ChatGPT in ihren Aufgaben verboten. Während ChatGPT ein großartiges Werkzeug ist, um komplexe Konzepte und Stränge zu studieren Wissensintegration, in Wirklichkeit kann es die meisten Benutzer zu gefügigen Konsumenten von KI-generierten Daten machen. Längere digital vermittelte Passivität lässt die Denkfähigkeit verkümmern. Ein weiterer Nachteil von ChatGPT ist sein Potenzial, die viel diskutierte digitale Kluft zu vergrößern. Bewerbungen für Jobs, Beförderungen, Stipendien usw. werden die digitalen „Haben“ gegenüber den digitalen „Haben-Nichts“ mit überwältigender Mehrheit bevorzugen, insbesondere wenn Abonnementgebühren für den Zugang erforderlich sind. Pädagogen sind derzeit nicht in der Lage, die ethischen Grenzen von ChatGPT zu definieren und sind es auch nimmt derzeit eine abwartende Haltung ein. Der ethische Rahmen selbst kann von oder mit Hilfe von Tools wie ChatGPT selbst geschrieben werden. Aini Suzana Ariffin, Associate Professor of Policy Studies an der Universiti Teknologi Malaysia, ist überzeugt, dass Pädagogen nicht beunruhigt sein müssen. „Ein ethischer Rahmen für generative KI-Tools wie ChatGPT wird klären, was den Lernprozess verbessert und was ihn behindert. Dies kann einige Zeit dauern und viele Diskussionen beinhalten, aber wir fangen besser jetzt an.“Menschliche Entscheidungsfindung Die Regierung von Singapur hat kürzlich angekündigt, dass ihre Beamten ChatGPT verwenden werden, um ihre Arbeitsbelastung zu verringern. Dies ist sinnvoll, da sich wiederholende oder alltägliche Aufgaben durch KI-Tools beschleunigt werden können. Da generative KI-Tools jedoch exponentiell intelligenter und effizienter werden, kann der Governance-Komplex allmählich von Maschinen an sich gerissen werden. Diese entstehende Form der sozialen Ordnung nennt man „Algokratie“; eine, in der Algorithmen, insbesondere KI und Blockchain, auf das gesamte Spektrum der Regierung angewendet werden. Algokratie bringt unweigerlich Predictive Governance mit sich. Die Berliner Polizei hat bereits eine embryonale Form der Algokratie in sich aufgenommen vorausschauende Polizeiarbeit System. Stehen wir vor einer MinderheitsberichtGesellschaft in naher Zukunft? ChatGPT beschleunigt auch den Informationsfluss in die obersten Entscheidungsebenen einer Regierung oder Organisation – und umgeht die traditionelle Gatekeeper-Rolle von Bürokratien auf den mittleren Ebenen. Während dies als willkommene Entwicklung gegen Bürokratie angekündigt werden kann, kann das Fehlen traditioneller Kontrollen und Gegengewichte zu zwingenden Entscheidungen mit beklagenswerten sozioökonomischen Auswirkungen führen. Stellen Sie sich vor, Sie könnten einen solchen algorithmischen Prozess in die Atomwaffeninfrastruktur einer militärischen Supermacht verpflanzen. ChatGPT läuft auch Gefahr, die Privatsphäre zu verletzen und persönliche Daten in Sektoren wie dem Bankwesen und dem Gesundheitswesen preiszugeben. Die Effizienz generativer KI-Tools wird durch eine ständig wachsende Datenmenge angetrieben, die ständig in ihre neuronalen Netzwerke zurückgeschleift wird. Dieses Streben nach Genauigkeit, Effizienz und Geschwindigkeit kann dazu führen, dass private Daten im Rahmen des maschinellen Lernprozesses kompromittiert werden. Im Bereich des Gesundheitswesens informierte Einwilligung zur KI-unterstützten Gesundheitsversorgung reduziert werden, da Patienten entweder nicht verstehen, wozu sie ihre Zustimmung geben, oder einem „intelligenten und unparteiischen“ maschinenbasierten System übermäßig vertrauen. Bedrohlicher wird es, wenn Triage in kritischen Situationen eingesetzt werden muss. Traditionell wird die Triage von der Integrität und den Fähigkeiten des anwesenden medizinischen Personals sowie den vor Ort verfügbaren Ressourcen bestimmt. Ein Algorithmus kann jedoch leidenschaftslos eine Triage basierend auf dem „Wert eines Patienten für die Gesellschaft“ arrangieren; aus Daten abgeleitete Lebenserwartung; und Kosten, die mit der Rettung des Patientenlebens verbunden sind. Wird am Ende des Tages ein ethisches KI-Framework von Tech Titans blockiert, die das Design, die Parameter und die Ziele generativer KI-Tools bestimmen können? Oder werden unsere gewählten Führer versuchen, eine synergetische Koexistenz zwischen KI und Menschen anzustreben?