Anwendungen Künstlicher Intelligenz (KI) sollen künftig auch beim Klimaschutz helfen, doch Forscher warnen vor einem stark steigenden Energieverbrauch der KI-Rechenzentren. «Werkzeuge der KI verbrauchen viel Strom, und die Tendenz ist steigend», sagte der Geschäftsführer des Hasso-Plattner-Instituts (HPI) in Potsdam und Leiter des Fachgebiets Künstliche Intelligenz und Nachhaltigkeit, Ralf Herbrich, der Deutschen Presse-Agentur. Allein das Training eines einzigen KI-Modells sei mit aufwendigen Vorhersage-Berechnungen ein energieintensiver Prozess.
Der Datenwissenschaftler Alex de Vries aus Amsterdam vergleicht den Energieverbrauch durch die Nutzung einer Suchmaschine, die KI nutzt, mit dem ganzer Länder. Wissenschaftler und Internet-Konzerne arbeiten daran, den ökologischen Fußabdruck der KI zu verbessern.
Das Thema Künstliche Intelligenz hatte unter anderem durch den Textroboter ChatGPT des kalifornischen Start-ups OpenAI große Aufmerksamkeit erfahren. Auch Sicherheitstechnik in Autos ist KI-gesteuert, Heizungen sollen dadurch effizienter werden. KI-Systeme gibt es auch in der Gesundheitsversorgung und für Unternehmen.
«Rechenzentren verbrauchen heute 4 bis 5 Prozent des weltweiten Energieverbrauchs», sagte Herbrich. Nehme man die Nutzung digitaler Technologien wie Laptops und Smartphones dazu, seien 8 Prozent erreicht. «Es gibt Schätzungen, dass der Verbrauch in den nächsten Jahren auf 30 Prozent ansteigen wird.»
KI-Experte Herbrich stellt den Vergleich mit einem Backofen an: Für das Training eines KI-Modells liefen Prozessoren hunderter Grafikkarten, die jeweils etwa 1000 Watt verbrauchten, für mehrere Wochen. «1000 Watt ist so viel wie ein Backofen.»
Die Forschung zielt laut Herbrich darauf ab, dass Berechnungen mit weniger Parametern und damit weniger Energieeinsatz gelingen können und zugleich die Genauigkeit der Vorhersagen nur minimal sinkt. Auch die Technologieunternehmen trieben die Forschung zu Energieeinsparungen bei KI voran. Es dauere aber einige Jahre, Lösungen zu entwickeln.
Forscher de Vries, der vor kurzem einen Kommentar in der Fachzeitschrift «Joule» veröffentlichte, will aufzeigen, dass nicht nur das Training der KI eine große Menge Energie verbraucht. Der Strombedarf entstehe auch jedes Mal, wenn das Tool einen Text oder ein Bild erzeugt. «Der Betrieb von ChatGPT könnte beispielsweise 564 Megawattstunden Strom pro Tag kosten», so de Vries. Allerdings sei die Zukunft des KI-Stromverbrauchs schwer vorherzusagen.
De Vries schätzte, dass Google derzeit bis zu 9 Milliarden Suchanfragen pro Tag verarbeitet. Wenn jede Google-Suche KI nutze, würden nach seinen Berechnungen etwa 29,2 Terawattstunden Strom pro Jahr benötigt – das entspreche dem jährlichen Stromverbrauch Irlands. Allerdings: De Vries spricht zugleich von einem Extremszenario, das kurzfristig nicht eintreten werde. Er verwies auf hohe Kosten durch zusätzlich benötigte KI-Server und Engpässe in der Lieferkette. Zum Vergleich: Der Stromverbrauch in Deutschland hatte 2022 nach Angaben der Bundesnetzagentur bei rund 484 Terawattstunden gelegen.
Der Internet-Konzern Google, der in diesem Jahr den Chatbot Bard startete, teilte auf Anfrage mit, nach Untersuchungen und eigenen Erfahrungen nehme der Energiebedarf für den Betrieb der Technologie viel langsamer zu als viele Prognosen vorhergesagt hätten. Google habe erprobte Verfahren eingesetzt, um den Energieverbrauch für das Training eines Modells stark zu reduzieren. Zudem verweist Google darauf, dass das Unternehmen KI für den Klimaschutz einsetze und nennt etwa eine «kraftstoffeffiziente Routenplanung» mit Google Maps und eine Vorhersage von Flussüberschwemmungen.
Das Hasso-Plattner-Institut richtet am 25. und 26. Oktober eine «Clean-IT»-Konferenz aus, bei der Vertreter aus Wissenschaft, Wirtschaft und Politik in Potsdam über Künstliche Intelligenz und den Kampf gegen den Klimawandel diskutieren wollen.
dpa