Wieviel Strom verbraucht Künstliche Intelligenz?
ChatGPT, Google Bard, Chatsonic oder moinAI haben im letzten Jahr unsere digitale Welt verändert. Nahezu jeder von uns hat sich schon mit generativer KI beschäftigt und diese ausprobiert – teils mit überraschenden Ergebnissen. Zielgerichtet eingesetzt, können uns Künstliche Intelligenzen das Leben und die Arbeit erleichtern. Aber nicht jede Anfrage führt zum gewünschten Ziel. Manche Resultate sind eher ernüchternd. Die Gründe sind vielschichtig: Entweder ist die Suchanfrage nicht optimal formuliert oder der kleine Alltagshelfer weiß es schlichtweg nicht. Denn nur durch permanentes Lernen kann er zu Höchstformen auflaufen und seine Arbeit zufriedenstellend verrichten. Doch all das macht ihn auch zu einem riesigen Stromfresser.
Künstliche Intelligenzen
Nicht nur Sprachmodelle sind Künstliche Intelligenzen, KI kommt auch bei Suchmaschinen, Smartphones, Streamingdiensten, Smart-Home-Anwendungen, Chatbots, beim autonomen Fahren oder bei intelligenten Netzen zum Einsatz. Wir alle kennen Alexa und Siri seit vielen Jahren. KI ist nicht neu. Jedoch erlebt die generative KI seit der Einführung von ChatGPT im Jahr 2022 einen massiven Boom. Ihre Hauptaufgabe ist es, Texte, Bilder oder andere Daten zu erzeugen.
Trainieren verbraucht Energie
Doch bevor diese KI-Tools uns das gewünschte Ergebnis liefern, müssen sie trainiert – das heißt, mit großen Datenmengen gefüttert – werden. Dieser Prozess ist extrem energieintensiv. Alex de Vries, Doktorand an der VU Amsterdam School of Business and Economics berichtet in der Zeitschrift Joule, dass große Sprachmodelle, darunter GPT-3, Gopher und Open Pretrained Transformer (OPT), 1.287, 1.066 bzw. 324 Megawattstunden für ihr Training verbrauchten.
Damit nicht genug: Auf das Training folgt die so genannte Inferenzphase. In dieser werden die Modelle in die Praxis überführt, um auf neue Daten zu reagieren und entsprechende Ergebnisse zu generieren. Auch diese Phase ist mit einem hohen Energieverbrauch verbunden. Generative KI-Systeme benötigen enorme Rechenleistung und leistungsstarke Prozessoren. Laut einer Untersuchung von SemiAnalysis sind für den Betrieb von ChatGPT in der Inferenzphase 3.617 Server nötig, die 28.936 Grafikprozessoren umfassen, was wiederum einem täglichen Energiebedarf von 564 Megawattstunden entspricht. Für das Training von GPT-3 waren insgesamt 1.287 Megawattstunden nötig.
Von wegen: Fragen kostet nichts
Jede Anfrage bei ChatGPT und Co. kostet aktuell zwischen drei und neun Wattstunden Strom. Jedes Mal, wenn eine KI einen Text oder ein Bild erstellt, verbraucht sie eine Menge an Rechenleistung und damit an Energie. Allein ChatGPT hatte in den letzten Monaten mehr als 195 Millionen Anfragen pro Tag. Google verarbeitet täglich neun Milliarden Suchanfragen. De Vries beschreibt, wenn jede dieser Anfragen über die KI Bard laufen würde, läge der jährliche Energieverbrauch der Google-Rechenzentren bei 29,3 Terawattstunden.
Prognosen gehen durch weiter steigende Nutzerzahlen von einem Stromverbrauch der weltweiten KI-Systeme von über 80 Terawattstunden pro Jahr aus. Dies entspricht dem Elektrizitätsbedarf von Ländern wie den Niederlanden, Schweden oder Argentinien. Rechenzentren verursachen heute vier bis fünf Prozent des weltweiten Energieverbrauchs. Schätzungen zufolge könnte dieser in den nächsten Jahren sogar auf 30 Prozent ansteigen.
Problematik Wasserknappheit
Jedoch verbrauchen die Sprachmodelle nicht nur Unmengen an Strom, sondern auch an Wasser. Der Supercomputer von GPT-Entwickler OpenAI besteht aus 10.000 Grafikkarten und 285.000 Prozessorkernen. Der Kühlbedarf in den Rechenzentren ist extrem hoch, so dass Wissenschaftler bereits jetzt vor Wassermangel warnen. Um die Anlagen vor Korrosion und Bakterien zu schützen, kommt meist wertvolles Trinkwasser zum Einsatz, welches in den Kühltürmen verdampft.
Futurezone aus Wien hat analysiert, dass ChatGPT einen halben Liter Wasser pro Gespräch benötigt. Sein Training verschlang laut einer Studie von US-Forschern 700.000 Liter Wasser.
Effizienzsteigerung mündet in erhöhtem Ressourcenverbrauch
Forscher und Unternehmen arbeiten daran, die Effizienz von KI-Hardware und -Software zu verbessern, um den Energieverbrauch zu senken. Nach de Vries führt eine Steigerung der Effizienz häufig aber zu einer höheren Nachfrage und damit zu einem Anstieg des Ressourcenverbrauchs. Der so genannte Rebound-Effekt tritt ein. Denn wenn KI-Systeme sparsamer werden, macht sie dies günstiger und damit attraktiver.
Effiziente Nutzung im Fokus
Alex de Vries warnt vor einem wahllosen Einsatz von KI: Wer zum Beispiel ChatGPT eine Rechenaufgabe stellt, anstatt den Taschenrechner zu benutzen, erhöht den Energieverbrauch unnötig. So kann jeder Internetnutzer zur Ressourcenschonung beitragen, indem er genau überlegt, ob er ein Sprachmodell befragt oder doch ‚einfach nur‘ die Suchmaschine – welche übrigens auch schon eine Menge Energie verbraucht. Denn der Dialog mit einer KI kostet etwa das Zehnfache im Vergleich zu einer Standard-Suche.
Wie sich der Energieverbrauch in den letzten Jahren hierzulande entwickelt hat, erfährst du in unserem ABC der Energiewirtschaft.