Der Start von ChatGPT wurde eingeläutet im Zeitalter großer Sprachmodelle. Zusätzlich zu den Angeboten von OpenAI gehören zu den weiteren LLMs die LaMDA-LLM-Familie von Google (einschließlich Bard), das BLOOM-Projekt (eine Zusammenarbeit zwischen Gruppen bei Microsoft, Nvidia und anderen Organisationen), LLaMA von Meta und Claude von Anthropic.
Es werden zweifellos noch mehr geschaffen werden. Tatsächlich ein April 2023 Arize-Umfrage fanden heraus, dass 53 % der Befragten planten, LLMs innerhalb des nächsten Jahres oder früher einzuführen. Ein Ansatz hierzu besteht darin, ein „vertikales“ LLM zu erstellen, das mit einem bestehenden LLM beginnt und dieses sorgfältig auf das für einen bestimmten Bereich spezifische Wissen umschult. Diese Taktik kann für Biowissenschaften, Pharmazeutika, Versicherungen, Finanzen und andere Geschäftsbereiche funktionieren.
Der Einsatz eines LLM kann einen großen Wettbewerbsvorteil verschaffen – aber nur, wenn er gut gemacht wird.
LLMs haben bereits zu berichtenswerten Problemen geführt, beispielsweise zu ihrer Tendenz, falsche Informationen zu „halluzinieren“. Das ist ein ernstes Problem und kann die Führung von wesentlichen Bedenken hinsichtlich der Prozesse ablenken, die diese Ergebnisse generieren, was ähnlich problematisch sein kann.
Die Herausforderungen bei der Schulung und Bereitstellung eines LLM
Ein Problem bei der Verwendung von LLMs sind ihre enormen Betriebskosten, da der Rechenaufwand für das Training und den Betrieb so hoch ist (sie werden nicht umsonst als große Sprachmodelle bezeichnet).
LLMs sind spannend, aber ihre Entwicklung und Einführung erfordert die Überwindung mehrerer Machbarkeitshürden.
Erstens ist die Hardware, auf der die Modelle laufen, kostspielig. Die H100-GPU von Nvidia, eine beliebte Wahl für LLMs, wird auf dem Sekundärmarkt für etwa 40.000 US-Dollar pro Chip verkauft. Eine Quelle schätzte, dass es ungefähr dauern würde 6.000 Chips um ein LLM vergleichbar mit ChatGPT-3.5 zu trainieren. Das sind allein für GPUs etwa 240 Millionen US-Dollar.
Ein weiterer erheblicher Kostenfaktor ist die Stromversorgung dieser Chips. Es wird geschätzt, dass allein das Training eines Modells etwa erfordert 10 Gigawattstunden (GWh) an Strom, was dem jährlichen Stromverbrauch von 1.000 US-Haushalten entspricht. Sobald das Modell trainiert ist, variieren die Stromkosten, können jedoch exorbitant werden. Diese Quelle schätzt, dass der Stromverbrauch für den Betrieb von ChatGPT-3.5 etwa 1 GWh pro Tag beträgt, was dem kombinierten täglichen Energieverbrauch von 33.000 Haushalten entspricht.
Auch beim Ausführen von LLMs auf tragbaren Geräten kann der Stromverbrauch eine potenzielle Hürde für das Benutzererlebnis darstellen. Das liegt daran, dass bei starker Beanspruchung eines Geräts der Akku sehr schnell entladen werden kann, was ein erhebliches Hindernis für die Akzeptanz durch den Verbraucher darstellen würde.