Künstliche Intelligenz (KI) bietet zahlreiche Vorteile für die ökologische Nachhaltigkeit: Sie hilft, Emissionen zu senken, Ressourceneffizienz zu verbessern, den Klimaschutz zu unterstützen, die Kreislaufwirtschaft und nachhaltige Produkte zu fördern sowie deren Qualität und Lebensdauer zu erhöhen.
Gleichzeitig verbraucht der Einsatz von KI viel Energie. Der steigende Rechenbedarf durch schnelle Fortschritte in der generativen KI führt zu Milliardeninvestitionen in neue Rechenzentren. Unternehmen aus verschiedenen Branchen nutzen diese Technologie in der Cloud, was den Energieverbrauch erheblich erhöht. Rechenzentren tragen bereits jetzt zu vier bis fünf Prozent des globalen Energieverbrauchs bei.
Viele Unternehmen haben KI-Modelle bereits in ihren täglichen Arbeitsabläufen integriert. Der Einsatz von KI entwickelt sich zunehmend von der Trainings- zur Anwendungsphase (KI-Inferenz), was bedeutet, dass KI-Modelle einen signifikanten Teil der Ressourcen eines Unternehmens verbrauchen können.
Bisher konzentrierten sich Forscher und Kritiker vor allem auf die Trainingsphase der Modelle – zum Beispiel durch Informationen, dass eine 20-minütige Sitzung mit ChatGPT 500 ml Wasser oder das Training von ChatGPT 600 kg CO2 pro Training verbrauchen. Doch vor allem die Inferenzphase, also die Anwendung von KI, verbraucht für die meisten Modelle die meiste Energie. In der Inferenzphase nutzen die Modelle das erlernte Wissen, um präzise Entscheidungen zu treffen oder Vorhersagen auf Basis neuer Daten zu machen. Dieser Prozess ermöglicht es KI, in Echtzeit auf Anfragen zu reagieren und fundierte Entscheidungen zu treffen.
Die Notwendigkeit zur Energieeinsparung ist auch darauf zurückzuführen, dass selbst große Tech-Unternehmen möglicherweise Schwierigkeiten haben, die erforderliche Energiemenge aus den bestehenden Stromnetzen zu beziehen. Microsoft plant beispielsweise pro Halbjahr ein Kernkraftwerk an Strom für KI aufzubauen und es gibt mindestens vier bis fünf weitere KI-Anbieter mit ähnlichen Ambitionen, darunter Google, Facebook, OpenAI und Mistral.
Eine mögliche Lösung: Modell-Vorauswahl und Prompt-Klassifizierung
Viele Anbieter und die Open-Source-Community bieten mehrere Modelle an. OpenAI hat verschiedene Versionen seines ChatGPT-Modells (3.5 Turbo, 4, 4o etc.), Google hat Bard und Gemini, und im Open-Source-Bereich gibt es Modelle wie LLama 3, LLama 2, Mistral, Gemma und CodeLLama.
Die Energiekosten für das Training dieser Modelle variieren erheblich, was vor allem an der Anzahl der Parameter liegt. Unternehmen und Nutzer können durch die Wahl des richtigen Modells erhebliche Energie- und CO2-Einsparungen erzielen. Dies ist besonders relevant in Europa, wo Energie teuer ist, und in vielen anderen Ländern, in denen sie überwiegend aus fossilen Energieträgern erzeugt wird.
Die Grundidee besteht darin, Klassifizierungsalgorithmen mit KI zu kombinieren, um das für den aktuellen Prompt beste Modell auszuwählen. Je nach Typ des Prompts, z. B. für eine Textzusammenfassung, eine mathematische Aufgabe oder eine Recherche, wird ein spezialisiertes und optimiertes KI-Modell gewählt, anstatt ein allgemeines und energieintensives Modell zu verwenden.
Es gibt bereits Ansätze, um den Ressourcenbedarf des Trainings deutlich zu reduzieren, wie etwa 1-bit KI Modelle, Standardisierung auf 8-Bit Integer, Power-Capping der GPUs oder die Reduktion der Modellparameter.
Auch für die Inferenzphase gibt es Modelle, die z. B. für Textzusammenfassungen oder Kategorisierungen ebenso gute Ergebnisse liefern wie die Konkurrenz, aber einen niedrigeren Energieverbrauch haben.
Maßnahmen zur Energieeinsparung bei KI für Unternehmen
Unternehmen sollten die typischen Anwendungsfälle der Modelle identifizieren, darunter Übersetzungen, Zusammenfassungen, Kategorisierungen und Codeerstellungen. Aktuelle KI-Modelle haben je nach Art der Anfrage deutliche Unterschiede im Energieverbrauch. Einige Modelle sind beispielsweise zehnmal effizienter für Rechenaufgaben, während andere hier sehr ineffizient arbeiten. Ein Modell wie StarCoder kann Programmieraufgaben besser bewältigen als ein sprachoptimiertes Modell.
Beispiel wie man für ein LLM die Energie-Kosten direkt mit jeder Abfrage sichtbar machen kann, Quelle: Green Cding Solutions GmbH
Für den praktischen Einsatz sollten Unternehmen die Anforderungen den entsprechenden KI-Modellen zuordnen. Dadurch lassen sich sowohl die Antwortzeiten verkürzen als auch Kosten, Energie und CO2 einsparen. Zudem wird die Abhängigkeit von einem bestimmten Modell verringert und die KI-Strategie diversifiziert.
Details zu diesem Ansatz sind in einem akademischen Paper für die Konferenz HotCarbon 2024 zu finden, auf der speziell Lösungen zur Energie- und CO2-Einsparung bei digitalen Produkten vorgestellt werden.
Embeddings
Um eine spezialisierte Lösung für ein Unternehmen zu erhalten, z. B. ein Modell, das die interne Wissens- oder Codebasis kennt, eignen sich für viele Modelle sogenannte Embeddings. Dabei wird einem bestehenden Modell neues Wissen hinzugefügt, ohne das Modell komplett neu zu trainieren.
Auch wenn ein Modell für Programmierung nicht optimal geeignet ist, kann diese Lücke mit einem zusätzlichen Embedding geschlossen werden. So kann man sich von Anfang an für ein kleineres und effizienteres Modell entscheiden und dann nur die notwendige Menge an Wissen über das Embedding ergänzen, um die optimale Kombination aus Leistungsfähigkeit und Kosteneffizienz zu erreichen.