Die Schattenseite von KI: Wie ChatGPT die Umwelt belastet
Die Begeisterung über die potenziellen Vorteile generativer KI – von der Steigerung der Arbeitsproduktivität bis hin zu Fortschritten in der wissenschaftlichen Forschung – ist nicht zu übersehen. Doch während das explosive Wachstum dieser Technologie eine schnelle Einführung in vielen Branchen ermöglicht hat, bleiben die ökologischen Folgen dieses KI-Goldrauschs schwer fassbar und noch schwieriger zu mildern.
Die Rechenleistung, die zum Trainieren generativer KI-Modelle erforderlich ist – oft mit Milliarden von Parametern, wie beispielsweise bei OpenAI's GPT-4 – kann eine enorme Menge an Strom verlangen. Dies führt zu einem Anstieg der Kohlendioxidemissionen und einer Belastung der Stromnetze.
Darüber hinaus zieht der Einsatz dieser Modelle in realen Anwendungen, die es Millionen von Menschen ermöglichen, generative KI im Alltag zu nutzen, sowie das anschließende Feinabstimmen der Modelle, um deren Leistung zu verbessern, noch lange nach der Entwicklung erhebliche Energiemengen nach sich.
Jenseits des Strombedarfs wird auch eine große Menge Wasser benötigt, um die Hardware zu kühlen, die für das Training, den Einsatz und die Feinabstimmung generativer KI-Modelle genutzt wird. Dies kann kommunale Wasserversorgungen belasten und lokale Ökosysteme stören. Die wachsende Zahl generativer KI-Anwendungen hat zudem die Nachfrage nach Hochleistungsrechnern gesteigert, was indirekte ökologische Auswirkungen durch deren Herstellung und Transport mit sich bringt.
KI WEEKLY
Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!
Jeden Sonntag neu!
„Wenn wir über die ökologischen Auswirkungen generativer KI nachdenken, geht es nicht nur um den Stromverbrauch, wenn man den Computer einsteckt. Es gibt viel weitreichendere Konsequenzen auf Systemebene, die durch unser Handeln entstehen und bestehen bleiben“, sagt Elsa A. Olivetti, Professorin am Department of Materials Science and Engineering und Leiterin der Dekarbonisierungsmission des neuen Klimaprojekts am MIT.
Olivetti ist Hauptautorin einer 2024 veröffentlichten Studie mit dem Titel „Die Klima- und Nachhaltigkeitsimplikationen von Generativer KI“, die gemeinsam mit MIT-Kollegen im Rahmen eines institutsweiten Aufrufs für Arbeiten zur transformativen Rolle generativer KI erstellt wurde – sowohl in positiver als auch negativer Hinsicht.
Datenzentren unter hoher Belastung
Ein Hauptfaktor für die ökologischen Auswirkungen generativer KI ist der Strombedarf von Datenzentren. Diese Zentren dienen dazu, die Deep-Learning-Modelle hinter beliebten Tools wie ChatGPT und DALL-E zu trainieren und auszuführen.
Ein Datenzentrum ist ein temperaturgeregeltes Gebäude, das Computerinfrastruktur wie Server, Datenspeicher und Netzwerkausrüstung beherbergt. Amazon beispielsweise betreibt weltweit über 100 Datenzentren, von denen jedes etwa 50.000 Server enthält, um Cloud-Computing-Dienste zu unterstützen.
Obwohl Datenzentren seit den 1940er-Jahren existieren – das erste wurde 1945 an der University of Pennsylvania gebaut, um den ersten universellen digitalen Computer, ENIAC, zu unterstützen – hat der Aufstieg generativer KI die Geschwindigkeit des Datenzentrumsbaus erheblich erhöht.
„Was generative KI unterscheidet, ist die benötigte Leistungsdichte. Im Grunde handelt es sich um Rechenarbeit, aber ein Cluster zum Trainieren generativer KI könnte sieben- oder achtmal mehr Energie verbrauchen als ein typischer Rechenauftrag“, erklärt Noman Bashir, Hauptautor der Studie und Fellow für Computer- und Klimaauswirkungen am MIT Climate and Sustainability Consortium.
Wissenschaftler schätzen, dass der Strombedarf von Datenzentren in Nordamerika von 2.688 Megawatt Ende 2022 auf 5.341 Megawatt Ende 2023 gestiegen ist, teilweise angetrieben durch die Anforderungen generativer KI. Weltweit stieg der Stromverbrauch von Datenzentren 2022 auf 460 Terawatt, was sie laut der OECD zum elftgrößten Stromverbraucher der Welt machen würde – zwischen Saudi-Arabien (371 Terawatt) und Frankreich (463 Terawatt).
Bis 2026 wird erwartet, dass der Stromverbrauch von Datenzentren auf 1.050 Terawatt ansteigt, was sie auf den fünften Platz der globalen Liste katapultieren würde, zwischen Japan und Russland.
„Die Nachfrage nach neuen Datenzentren kann nicht auf nachhaltige Weise gedeckt werden. Die Geschwindigkeit, mit der Unternehmen neue Datenzentren bauen, bedeutet, dass der Großteil des benötigten Stroms von fossilen Kraftwerken stammt“, warnt Bashir.
KI WEEKLY
Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!
Jeden Sonntag neu!
Das Training eines Modells wie OpenAIs GPT-3 ist schwer zu beziffern. Eine 2021 veröffentlichte Studie von Wissenschaftlern von Google und der University of California in Berkeley schätzte, dass der Trainingsprozess allein 1.287 Megawattstunden Strom verbrauchte – genug, um etwa 120 durchschnittliche US-Haushalte ein Jahr lang mit Strom zu versorgen – und etwa 552 Tonnen CO₂-Emissionen verursachte.
Ein einzigartiges Problem generativer KI ist der schnelle Wechsel im Energieverbrauch während verschiedener Phasen des Trainingsprozesses. Netzbetreiber müssen diese Schwankungen auffangen können, was oft mit dieselbetriebenen Generatoren geschieht.
Wachsende Belastung durch Inferenz
Auch nach dem Training eines Modells verschwinden die Energieanforderungen nicht. Jedes Mal, wenn ein Modell genutzt wird, beispielsweise wenn eine Person ChatGPT bittet, eine E-Mail zusammenzufassen, verbraucht die Hardware, die diese Berechnungen durchführt, Energie. Forscher schätzen, dass eine Anfrage an ChatGPT etwa fünfmal mehr Strom benötigt als eine einfache Websuche.
„Aber ein durchschnittlicher Nutzer denkt kaum darüber nach“, sagt Bashir. „Die Benutzerfreundlichkeit von generativen KI-Schnittstellen und das Fehlen von Informationen über die ökologischen Auswirkungen meines Handelns bedeuten, dass ich als Nutzer kaum einen Anreiz habe, meine Nutzung zu reduzieren.“
Zudem haben generative KI-Modelle eine besonders kurze Lebensdauer. Unternehmen veröffentlichen alle paar Wochen neue Modelle, wodurch der Energieverbrauch für das Training älterer Versionen verschwendet wird. Neue Modelle haben oft mehr Parameter und erfordern daher mehr Energie.
KI WEEKLY
Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!
Jeden Sonntag neu!
Der Wasserverbrauch von Datenzentren bleibt ebenfalls ein Thema. Für jede Kilowattstunde Energie, die ein Datenzentrum verbraucht, werden schätzungsweise zwei Liter Wasser zur Kühlung benötigt. „Nur weil das als ‚Cloud Computing‘ bezeichnet wird, heißt das nicht, dass die Hardware in der Cloud lebt. Datenzentren existieren in unserer physischen Welt, und durch ihren Wasserverbrauch haben sie direkte und indirekte Auswirkungen auf die Biodiversität“, erklärt Bashir.
Dringender Handlungsbedarf
Die Branche befindet sich auf einem nicht nachhaltigen Weg, aber es gibt Ansätze, um eine verantwortungsvolle Entwicklung generativer KI zu fördern, die ökologische Ziele unterstützt, so Bashir.
Er und seine Kollegen fordern eine umfassende Betrachtung aller ökologischen und gesellschaftlichen Kosten sowie eine detaillierte Bewertung der wahrgenommenen Vorteile generativer KI.
„Wir brauchen eine kontextbezogene, systematische und umfassende Art, die Auswirkungen neuer Entwicklungen in diesem Bereich zu verstehen“, betont Olivetti.