Umgang mit den Risiken von KI in der Forschung

Künstliche Intelligenz (KI) wird weithin für ihr Potenzial zur Steigerung der Produktivität in der wissenschaftlichen Forschung gepriesen. Doch mit diesem Versprechen gehen Risiken einher, die die Fähigkeit der Wissenschaftler, die Welt besser zu verstehen, einschränken könnten, heißt es in einem neuen Artikel, der von einem Yale-Anthropologen mitverfasst wurde.

Einige zukünftige KI-Ansätze, so argumentieren die Autoren, könnten die Fragen der Forscher, die von ihnen durchgeführten Experimente und die Perspektiven, die sich auf wissenschaftliche Daten und Theorien auswirken, einengen.

Alles in allem könnten diese Faktoren die Menschen anfällig für „Illusionen des Verstehens“ machen, in denen sie glauben, die Welt besser zu verstehen als sie.

Der Perspektivischer Artikel ist veröffentlicht in Natur.

„Es besteht die Gefahr, dass Wissenschaftler KI nutzen, um mehr zu produzieren und gleichzeitig weniger zu verstehen“, sagte Co-Autorin Lisa Messeri, Anthropologin an der Yale-Fakultät für Künste und Wissenschaften. „Wir argumentieren nicht, dass Wissenschaftler keine KI-Tools verwenden sollten, aber wir plädieren für eine Diskussion darüber, wie Wissenschaftler sie verwenden werden, und schlagen vor, dass wir nicht automatisch davon ausgehen sollten, dass alle Verwendungszwecke der Technologie oder der allgegenwärtige Einsatz von es wird der Wissenschaft zugute kommen.

Das vom Kognitionswissenschaftler MJ Crockett aus Princeton mitverfasste Papier legt einen Rahmen für die Diskussion der Risiken fest, die mit der Verwendung von KI-Tools im gesamten wissenschaftlichen Forschungsprozess verbunden sind, vom Studiendesign bis zum Peer-Review.

„Wir hoffen, dass dieses Papier ein Vokabular bietet, um über die potenziellen epistemischen Risiken von KI zu sprechen“, sagte Messeri.

Crockett fügte hinzu: „Um diese Risiken zu verstehen, können Wissenschaftler von der Arbeit in den Geistes- und qualitativen Sozialwissenschaften profitieren.“

Messeri und Crockett klassifizierten vorgeschlagene Visionen von KI, die den gesamten wissenschaftlichen Prozess umfassen und derzeit bei Forschern für Aufsehen sorgen, in vier Archetypen:

  • Beim Studiendesign, so argumentieren sie, werden „KI als Oracle“-Tools so vorgestellt, dass sie in der Lage sind, umfangreiche wissenschaftliche Literatur objektiv und effizient zu durchsuchen, zu bewerten und zusammenzufassen und Forschern dabei zu helfen, Fragen in der Entwurfsphase ihres Projekts zu formulieren.
  • Bei der Datenerfassung sollen „KI als Ersatz“-Anwendungen es Wissenschaftlern ermöglichen, genaue Ersatzdatenpunkte zu generieren, auch als Ersatz für menschliche Studienteilnehmer, wenn die Datenbeschaffung sonst zu schwierig oder zu teuer wäre.
  • Bei der Datenanalyse zielen „KI als Quant“-Tools darauf ab, die Fähigkeit des menschlichen Intellekts zur Analyse großer und komplexer Datensätze zu übertreffen.
  • Und „KI als Schiedsrichter“-Anwendungen zielen darauf ab, wissenschaftliche Studien objektiv auf ihren Wert und ihre Reproduzierbarkeit hin zu bewerten und so den Menschen im Peer-Review-Prozess zu ersetzen.
  • Die Autoren warnen davor, KI-Anwendungen dieser vier Archetypen als vertrauenswürdige Partner und nicht nur als Werkzeuge bei der Produktion wissenschaftlicher Erkenntnisse zu betrachten. Sie sagen, dadurch könnten Wissenschaftler anfällig für Illusionen des Verstehens werden, die ihre Perspektiven verzerren und sie davon überzeugen können, dass sie mehr wissen als sie.

    Die Effizienz und Erkenntnisse, die KI-Tools versprechen, können die Produktion wissenschaftlichen Wissens schwächen, indem sie „Monokulturen des Wissens“ schaffen, in denen Forscher den Fragen und Methoden, die für KI am besten geeignet sind, Vorrang vor anderen Untersuchungsmethoden einräumen, so Messeri und Crockett. Ein solches wissenschaftliches Umfeld macht Forscher anfällig für das, was sie „Illusionen von explorativer Breite“ nennen, bei denen Wissenschaftler fälschlicherweise glauben, dass sie alle überprüfbaren Hypothesen untersuchen, während sie nur den engeren Bereich von Fragen untersuchen, die durch KI getestet werden können.

    „Ersatz“-KI-Tools, die menschliche Umfrageantworten scheinbar genau nachahmen, könnten beispielsweise dazu führen, dass Experimente, die Messungen des körperlichen Verhaltens oder persönlicher Interaktionen erfordern, immer unbeliebter werden, weil ihre Durchführung langsamer und teurer ist, sagte Crockett.

    Die Autoren beschreiben auch die Möglichkeit, dass KI-Tools als objektiver und zuverlässiger angesehen werden als menschliche Wissenschaftler, wodurch eine „Monokultur von Wissenden“ entsteht, in der KI-Systeme als einzelne, maßgebliche und objektive Wissende statt einer vielfältigen wissenschaftlichen Gemeinschaft von Wissenden behandelt werden Wissenschaftler mit unterschiedlichem Hintergrund, Ausbildung und Fachwissen. Sie sagen, eine Monokultur lade zu „Illusionen der Objektivität“ ein, bei der Wissenschaftler fälschlicherweise glauben, dass KI-Tools keine Perspektive haben oder alle Perspektiven repräsentieren, während sie in Wahrheit die Standpunkte der Informatiker repräsentieren, die sie entwickelt und ausgebildet haben.

    „In der Wissenschaft herrscht die Überzeugung vor, dass der objektive Beobachter der ideale Schöpfer von Wissen über die Welt ist“, sagte Messeri. „Aber das ist ein Mythos. Es hat nie einen objektiven ‚Wissenden‘ gegeben, es kann nie einen geben, und die Fortsetzung dieses Mythos schwächt nur die Wissenschaft.“

    Es gebe erhebliche Belege dafür, dass die menschliche Vielfalt die Wissenschaft robuster und kreativer mache, fügen die Autoren hinzu.

    „Die Anerkennung, dass Wissenschaft eine soziale Praxis ist, die von der Einbeziehung unterschiedlicher Standpunkte profitiert, wird uns helfen, ihr volles Potenzial auszuschöpfen“, sagte Crockett. „Das Ersetzen unterschiedlicher Standpunkte durch KI-Tools wird die Fortschritte, die wir bei der Einbeziehung weiterer Perspektiven in die wissenschaftliche Arbeit gemacht haben, zurückwerfen.“

    Es sei wichtig, sich an die sozialen Auswirkungen der KI zu erinnern, die weit über die Labore hinausgehen, in denen sie in der Forschung eingesetzt wird, sagte Messeri.

    „Wir schulen Wissenschaftler darin, über technische Aspekte neuer Technologien nachzudenken“, sagte sie. „Wir schulen sie nicht annähernd so gut darin, die sozialen Aspekte zu berücksichtigen, die für die zukünftige Arbeit in diesem Bereich von entscheidender Bedeutung sind.“

    Mehr Informationen:
    Lisa Messeri et al., Künstliche Intelligenz und Illusionen des Verstehens in der wissenschaftlichen Forschung, Natur (2024). DOI: 10.1038/s41586-024-07146-0

    Zur Verfügung gestellt von der Yale University

    ph-tech