Bietet künstliche Intelligenz eine beispiellose Chance oder wird sie uns allen Arbeitsplätze und Kreativität rauben? Während wir in den sozialen Medien diskutieren (und ChatGPT vielleicht fast täglich nutzen), haben generative KIs auch den Bereich der Hochschulkommunikation betreten. Diese Tools – basierend auf großen Sprachmodellen, die für interaktive Kommunikation optimiert wurden – können tatsächlich das Angebot an Hochschulkommunikation unterstützen, erweitern und erneuern.
Justus Henke hat die Situation der deutschen Realitäten rund ein halbes Jahr nach dem Start von ChatGPT 3 analysiert. „Die Untersuchung fand vor rund einem Jahr statt, als die Begeisterung groß war, es aber noch zu früh war, um das Potenzial des Mediums zu erkennen“, erklärt er.
Diese erste frühe Beobachtung zeigte, dass die Nutzung zu diesem Zeitpunkt bereits weit verbreitet war. Henke verteilte einen Fragebogen an alle Presse- und Kommunikationsbüros der Universitäten des Landes und erhielt 101 Antworten, etwa ein Drittel der Gesamtzahl. Praktisch alle Befragten gaben an, dass sie generative KI in irgendeiner Form nutzen.
Als Hauptverwendungszwecke nennt Henke Übersetzungen, Textkorrekturen und Textgenerierung. Die weiteren im Fragebogen genannten Funktionen – Bilderzeugung, Folienproduktion oder Dokumentenanalyse – sind eher marginal.
„Was wir in dieser ersten Arbeit beobachten, ist, dass künstliche Intelligenz im Bereich der Kommunikation an Universitäten vor allem eingesetzt wird, um die Prozesseffizienz zu steigern, also etwa die Prozesse zu beschleunigen und mehr Dinge in kürzerer Zeit zu erledigen“, erklärt Henke.
Was sich zudem, vor allem in einigen offenen Antworten, zeigt, ist eine gewisse Vorsicht und ein wachsendes Bewusstsein für ethische Aspekte. Ein Beispiel ist der Datenschutz. „Man fragt sich beispielsweise, ob es klug oder richtig ist, diese Intelligenzen – die privaten Unternehmen gehören – mit Universitätsdaten zu füttern. Auch das Thema Privatsphäre ist wichtig“, sagt der Forscher.
In diesem Sinne „veröffentlichen immer mehr Universitäten in Deutschland ihre eigenen Instanzen generativer KI-Chatbots auf dedizierten Servern“, um genau zu versuchen, die Kontrolle über diese heiklen Aspekte zu behalten.
„Es ist nicht nur ein technologischer, sondern auch ein kultureller Wandel im Gange“, fügt Henke hinzu. „Normalerweise sind die Early Adopters jünger und unerfahrener im Beruf und offener für Veränderungen.“
Das Problem besteht jedoch darin, dass es keine Politik gibt, die für alle funktioniert. Viele sind auch besorgt über die Möglichkeit, dass diese Technologien Arbeitsplätze vernichten könnten. „Man muss den sozialen Aspekt der Technologieeinführung ernst nehmen“, sagt Henke.
Henke, der derzeit an einer neuen Umfrage arbeitet, um die Situation ein Jahr nach der ersten zu bewerten, geht davon aus, dass er eine weitere Entwicklung der Situation beobachten wird: „Ich weiß, dass der Einsatz von generativen KI-Tools zwangsläufig zunehmen wird“, sagt er.
„Letztes Jahr haben die Leute experimentiert, aber in den Kommentaren erklärten sie auch, dass sie manchmal mit den Ergebnissen nicht zufrieden waren. Es war wahrscheinlich eine Frage der Kompetenz. Sie wussten zum Beispiel nicht, wie sie ihre Ziele effektiv aufzeigen konnten.
„Wahrscheinlich hat sich dieser Aspekt heute verbessert. Wir müssen jetzt den Kopf umdrehen und uns auf einen strategischeren und integrierteren KI-Ansatz konzentrieren“, insbesondere angesichts der kontinuierlichen Aktualisierungen und Weiterentwicklungen dieser Tools (ChatGPT-4o wurde kürzlich eingeführt und löste neue Kontroversen in Bezug auf die Sicherheit aus, sogar unter den Mitarbeitern von Open AI, dem Unternehmen, dem Chat GPT gehört).
Für Henke ist es wichtig, dass die Hochschulen lernen, diese neuen Instrumente zu nutzen, ohne ihre bisherige Arbeit und ihre geplanten Zukunftsziele in Frage zu stellen.
„Bei der Kommunikation geht es darum, Beziehungen und Vertrauen aufzubauen. Insbesondere die Wissenschaftskommunikation (und hier ist die Universitätskommunikation ein besonderer Fall) dient dazu, Vertrauen und Beziehungen zwischen der Öffentlichkeit und der wissenschaftlichen Forschung aufzubauen.
„Wenn man diese Beziehungen durch ‚automatisierte‘ Pressemitteilungen gefährdet oder vorwiegend Bots nutzt, um mit der Öffentlichkeit zu kommunizieren, verliert diese irgendwann das Interesse oder, schlimmer noch, sie beginnt, an der Institution selbst zu zweifeln.“
„Wichtig ist, dass der Mensch weiterhin Teil des Prozesses bleibt. Künstliche Intelligenz soll die Kommunikation ergänzen, nicht ersetzen“, sagt Henke.
Die Ergebnisse sind veröffentlicht im Zeitschrift für Wissenschaftskommunikation.
Mehr Informationen:
Justus Henke, Navigieren im KI-Zeitalter: universitäre Kommunikationsstrategien und Perspektiven zu generativen KI-Tools, Zeitschrift für Wissenschaftskommunikation (2024). DOI: 10.22323/2.23030205