In „Through the Looking Glass“ sagt Humpty Dumpty verächtlich: „Wenn ich ein Wort benutze, bedeutet es genau das, was ich dafür auswähle – weder mehr noch weniger.“ Alice antwortet: „Die Frage ist, ob man Wörter dazu bringen kann, so viele verschiedene Dinge zu bedeuten.“
Das Studium dessen, was Worte wirklich bedeuten, ist uralt. Der menschliche Verstand muss ein Netz aus detaillierten, flexiblen Informationen analysieren und einen ausgeklügelten gesunden Menschenverstand einsetzen, um ihre Bedeutung zu erkennen.
Jetzt ist ein neueres Problem im Zusammenhang mit der Bedeutung von Wörtern aufgetaucht: Wissenschaftler untersuchen, ob künstliche Intelligenz den menschlichen Verstand nachahmen kann, um Wörter so zu verstehen, wie Menschen es tun. Eine neue Studie von Forschern der UCLA, des MIT und der National Institutes of Health befasst sich mit dieser Frage.
Das Papier, veröffentlicht in der Zeitschrift Natur Menschliches Verhalten, berichtet, dass künstliche Intelligenzsysteme tatsächlich sehr komplizierte Wortbedeutungen lernen können, und die Wissenschaftler entdeckten einen einfachen Trick, um dieses komplexe Wissen zu extrahieren. Sie fanden heraus, dass das von ihnen untersuchte KI-System die Bedeutung von Wörtern auf eine Weise darstellt, die stark mit dem menschlichen Urteilsvermögen korreliert.
Das von den Autoren untersuchte KI-System wurde in den letzten zehn Jahren häufig zur Untersuchung der Wortbedeutung verwendet. Es lernt, Wortbedeutungen herauszufinden, indem es astronomische Mengen an Inhalten im Internet „liest“, die Zehnmilliarden von Wörtern umfassen.
Wenn Wörter häufig zusammen vorkommen, beispielsweise „Tisch“ und „Stuhl“, lernt das System, dass ihre Bedeutungen verwandt sind. Und wenn Wortpaare sehr selten zusammen vorkommen – wie „Tisch“ und „Planet“, lernt es, dass sie sehr unterschiedliche Bedeutungen haben.
Dieser Ansatz scheint ein logischer Ausgangspunkt zu sein, aber bedenken Sie, wie gut Menschen die Welt verstehen würden, wenn die einzige Möglichkeit, Bedeutung zu verstehen, darin bestünde, zu zählen, wie oft Wörter nebeneinander vorkommen, ohne die Möglichkeit, mit anderen Menschen und unserer Umgebung zu interagieren.
Idan Blank, Assistenzprofessor für Psychologie und Linguistik an der UCLA und Co-Hauptautor der Studie, sagte, die Forscher wollten herausfinden, was das System über die Wörter weiß, die es lernt, und welche Art von „gesundem Menschenverstand“ es hat.
Bevor die Forschung begann, sagte Blank, schien das System eine große Einschränkung zu haben: „Was das System betrifft, haben alle zwei Wörter nur einen numerischen Wert, der angibt, wie ähnlich sie sind.“
Im Gegensatz dazu ist menschliches Wissen viel detaillierter und komplexer.
„Berücksichtigen Sie unser Wissen über Delfine und Alligatoren“, sagte Blank. „Wenn wir die beiden auf einer Größenskala von ‚klein‘ bis ‚groß‘ vergleichen, sind sie relativ ähnlich. In Bezug auf ihre Intelligenz sind sie etwas unterschiedlich. In Bezug auf die Gefahr, die sie für uns darstellen, auf einer Skala von „sicher“ bis „gefährlich“ unterscheiden sie sich stark, sodass die Bedeutung eines Wortes vom Kontext abhängt.
„Wir wollten fragen, ob dieses System diese subtilen Unterschiede tatsächlich kennt – ob seine Vorstellung von Ähnlichkeit genauso flexibel ist wie für Menschen.“
Um das herauszufinden, entwickelten die Autoren eine Technik, die sie „semantische Projektion“ nennen. Man kann zum Beispiel eine Linie zwischen den Darstellungen des Modells der Wörter „groß“ und „klein“ ziehen und sehen, wo die Darstellungen verschiedener Tiere auf dieser Linie liegen.
Mit dieser Methode untersuchten die Wissenschaftler 52 Wortgruppen, um zu sehen, ob das System lernen könnte, Bedeutungen zu sortieren – etwa Tiere nach ihrer Größe oder ihrer Gefahr für Menschen zu beurteilen oder US-Bundesstaaten nach Wetter oder Gesamtreichtum zu klassifizieren.
Unter den anderen Wortgruppierungen befanden sich Begriffe zu Kleidung, Berufen, Sport, Fabelwesen und Vornamen. Jeder Kategorie wurden mehrere Kontexte oder Dimensionen zugeordnet – zum Beispiel Größe, Gefahr, Intelligenz, Alter und Geschwindigkeit.
Die Forscher fanden heraus, dass sich ihre Methode über diese vielen Objekte und Kontexte hinweg als sehr ähnlich der menschlichen Intuition erwies. (Um diesen Vergleich anzustellen, baten die Forscher auch Kohorten von jeweils 25 Personen, ähnliche Einschätzungen zu jeder der 52 Wortgruppen vorzunehmen.)
Bemerkenswerterweise lernte das System zu erkennen, dass die Namen „Betty“ und „George“ in Bezug auf das relativ „alte“ ähnlich sind, aber dass sie unterschiedliche Geschlechter repräsentierten. Und dass „Gewichtheben“ und „Fechten“ sich darin ähneln, dass beide normalerweise in Innenräumen stattfinden, sich aber in Bezug darauf unterscheiden, wie viel Intelligenz sie erfordern.
„Es ist eine so wunderbar einfache Methode und völlig intuitiv“, sagte Blank. „Die Grenze zwischen ‚groß‘ und ‚klein‘ ist wie eine mentale Skala, und wir stellen Tiere auf diese Skala.“
Blank sagte, er habe eigentlich nicht damit gerechnet, dass die Technik funktioniert, war aber begeistert, als sie es tat.
„Es stellt sich heraus, dass dieses maschinelle Lernsystem viel intelligenter ist, als wir dachten; es enthält sehr komplexe Wissensformen, und dieses Wissen ist in einer sehr intuitiven Struktur organisiert“, sagte er. „Nur indem man verfolgt, welche Wörter in der Sprache zusammen vorkommen, kann man viel über die Welt lernen.“
Die Co-Autoren der Studie sind die MIT-Neurowissenschaftlerin Evelina Fedorenko, der MIT-Doktorand Gabriel Grand und Francisco Pereira, der das Team für maschinelles Lernen am National Institute of Mental Health der National Institutes of Health leitet.
Gabriel Grand et al., Semantische Projektion stellt reiches menschliches Wissen über mehrere Objektmerkmale aus Worteinbettungen wieder her, Natur Menschliches Verhalten (2022). DOI: 10.1038/s41562-022-01316-8