KI vertrauenswürdig machen: Können wir Black-Box-Halluzinationen überwinden?

KI vertrauenswuerdig machen Koennen wir Black Box Halluzinationen ueberwinden

Wie die meisten Ingenieureals Kind konnte ich Mathematikaufgaben in der Grundschule lösen, indem ich einfach die Antworten ausfüllte.

Aber wenn ich „meine Arbeit“ nicht zeigte, strichen meine Lehrer Punkte ab; Die richtige Antwort war ohne Erklärung nicht viel wert. Doch diese hohen Standards für die Erklärbarkeit in der Langdivision scheinen irgendwie nicht für KI-Systeme zu gelten, selbst für solche, die entscheidende, lebensbeeinflussende Entscheidungen treffen.

Die großen KI-Akteure, die heute Schlagzeilen machen und den Börsenrausch anheizen – OpenAI, Google, Microsoft – betreiben ihre Plattformen auf Black-Box-Modellen. Eine Anfrage geht auf der einen Seite ein und eine Antwort wird auf der anderen Seite ausgespuckt, aber wir haben keine Ahnung, welche Daten oder Überlegungen die KI verwendet hat, um diese Antwort bereitzustellen.

Die meisten dieser Black-Box-KI-Plattformen basieren auf einem jahrzehntealten Technologierahmen, der als „neuronales Netzwerk“ bezeichnet wird. Diese KI-Modelle sind abstrakte Darstellungen der riesigen Datenmengen, auf denen sie trainiert werden; Sie sind nicht direkt mit Trainingsdaten verbunden. Daher leiten Black-Box-KIs ihre Schlussfolgerungen und Extrapolationen auf der Grundlage dessen ab, was sie für die wahrscheinlichste Antwort halten, und nicht auf der Grundlage tatsächlicher Daten.

Manchmal gerät dieser komplexe Vorhersageprozess außer Kontrolle und die KI „halluziniert“. Black-Box-KI ist von Natur aus nicht vertrauenswürdig, da sie für ihre Handlungen nicht zur Verantwortung gezogen werden kann. Wenn Sie nicht erkennen können, warum oder wie die KI eine Vorhersage trifft, können Sie nicht wissen, ob sie falsche, kompromittierte oder voreingenommene Informationen oder Algorithmen verwendet hat, um zu dieser Schlussfolgerung zu gelangen.

Während neuronale Netze unglaublich leistungsfähig sind und auf dem Vormarsch bleiben werden, gibt es ein anderes, unter dem Radar stehendes KI-Framework, das immer mehr an Bedeutung gewinnt: instanzbasiertes Lernen (Instance Based Learning, IBL). Und es ist alles, was neuronale Netze nicht sind. IBL ist KI, der Benutzer vertrauen, die sie prüfen und die sie erklären können. IBL führt jede einzelne Entscheidung auf die Trainingsdaten zurück, die für diese Schlussfolgerung verwendet wurden.

Black-Box-KI ist von Natur aus nicht vertrauenswürdig, da sie für ihre Handlungen nicht zur Verantwortung gezogen werden kann.

IBL kann jede Entscheidung erklären, da die KI kein abstraktes Modell der Daten generiert, sondern Entscheidungen aus den Daten selbst trifft. Und Benutzer können auf IBL basierende KI prüfen, sie befragen, um herauszufinden, warum und wie sie Entscheidungen getroffen hat, und dann eingreifen, um Fehler oder Voreingenommenheit zu korrigieren.

Dies alles funktioniert, weil IBL Trainingsdaten („Instanzen“) im Speicher speichert und im Einklang mit den Prinzipien der „nächsten Nachbarn“ Vorhersagen über neue Instanzen aufgrund ihrer physischen Beziehung zu vorhandenen Instanzen trifft. IBL ist datenzentriert, sodass einzelne Datenpunkte direkt miteinander verglichen werden können, um Einblicke in den Datensatz und die Vorhersagen zu gewinnen. Mit anderen Worten: IBL „zeigt seine Arbeit“.

Das Potenzial einer solch verständlichen KI ist klar. Unternehmen, Regierungen und alle anderen regulierten Einrichtungen, die KI auf vertrauenswürdige, erklärbare und überprüfbare Weise einsetzen möchten, könnten IBL AI nutzen, um Regulierungs- und Compliance-Standards zu erfüllen. IBL AI wird auch besonders nützlich für alle Anwendungen sein, bei denen Voreingenommenheitsvorwürfe weit verbreitet sind – Einstellung, Hochschulzulassung, Rechtsfälle usw.

tch-1-tech