Nachrichten - 15. Juni 2025
Geschrieben von Solar Impulse Foundation 9 Minimale Lesezeit
Info
Das Aufkommen von KI-spezifischen Datenzentren
Seit Beginn des21. Jahrhunderts hat die künstliche Intelligenz einen tiefgreifenden Einfluss auf die Entwicklung der Informations- und Kommunikationstechnologien ( IKT) und in letzter Zeit auch auf unsere alltäglichen Gewohnheiten gehabt. Ob es darum geht, Quellen für eine Bachelorarbeit zu finden, Bilder für soziale Medien zu generieren oder sogar bei der Interpretation eines Röntgenbildes zu helfen - die KI-Technologie kann heute mit bemerkenswerter Effizienz schnelle und zuverlässige Antworten liefern.
Wir sind Zeugen enormer öffentlicher und privater Investitionen, die darauf abzielen, den Einsatz von KI weltweit weiter voranzutreiben: Im Februar startete die Europäische Union das Programm InvestAI, mit dem 200 Milliarden Euro für KI-Anwendungen mobilisiert werden sollen. Saudi-Arabien hat außerdem das Projekt Transcendence angekündigt, ein 100-Milliarden-Dollar-Projekt, mit dem sich das Land als weltweiter KI-Führer positionieren will.
KI könnte Lösungen für die globale Erwärmung verbessern und die Entwicklung von Maßnahmen zur Eindämmung und Anpassung an den Klimawandel unterstützen. Netcarbon Farming beispielsweise nutzt Satellitendaten und KI-Algorithmen, um die Kohlenstoffbindung für ländliche und städtische Sektoren genau zu messen und so eine Nachverfolgung von Projekten zur Kohlenstoffspeicherung überall auf der Erde zu ermöglichen. KI stellt uns jedoch auch vor neue Herausforderungen bei unseren Bemühungen, dieCO2-Emissionen und die Energieverschwendung durch den Energieverbrauch von Rechenzentren zu verringern. Schätzungen des Lawrence Berkeley National Laboratory zufolge könnte der Strombedarf für KI-spezifische Zwecke bis 2028 auf 165 bis 326 Terawattstunden pro Jahr ansteigen - mehr als der gesamte Strom, der derzeit von US-Rechenzentren verbraucht wird. Da die Einführung von KI in einem noch nie dagewesenen Tempo voranschreitet, müssen wir eine wichtige Frage sorgfältig prüfen: Wie können wir die Entwicklung der KI fortsetzen und gleichzeitig unsere Umweltziele respektieren?
Wie KI funktioniert und warum sie Auswirkungen auf die Umwelt hat
Ein umfassendes Verständnis der notwendigen Schritte zur Entwicklung von KI-Modellen kann den Einfluss von KI auf die Nutzung unserer Ressourcen und den Klimawandel erklären.
Zuallererst muss das Ziel einer KI definiert werden: Soll sie eher menschliche Sprache verstehen und generieren oder meteorologische Vorhersagen machen? Je nach Ziel der KI werden dann Milliarden bis Billionen von Wörtern oder Texten aus Büchern, Websites oder öffentlichem Code gesammelt. Diese Datensätze bestimmen zusammen mit der Architektur des Modells (Anzahl der Schichten, Parameter), wie tief und komplex das neuronale Netz sein wird (GPT-3 enthält 175 Milliarden Parameter, GPT-4 ist wahrscheinlich viel größer, wobei einige Schätzungen davon ausgehen, dass es fast eine Billion Parameter enthält)1.
Dann kommt der teuerste und energieintensivste Schritt: das Training des Modells. Mit Hilfe von GPUs (Graphics Processing Unit) wie NVIDIA A100 und Supercomputing-Clustern (Microsoft Azure für Open AI) werden riesige Textmengen in das Modell eingespeist, das lernt, indem es das nächste Wort vorhersagt und die Vorhersagen mit dem tatsächlichen Text vergleicht, um seine Parameter anzupassen. Dieser Vorgang wird über Wochen oder Monate hinweg wiederholt.
Anschließend wird das Modell feinabgestimmt: Giftige oder voreingenommene Inhalte werden herausgefiltert, spezifischere Datensätze werden eingeführt, und einige Modelle verwenden RLHF (Reinforcement Learning from Human Feedback), bei dem sie lernen, Antworten zu geben, die auf der Grundlage des menschlichen Feedbacks besser abgestimmt und sicherer sind. Das Modell wird dann für eine schnellere Nutzung optimiert und auf Cloud-Servern (Microsoft Azure) bereitgestellt. Es wird den Nutzern über APIs oder eine Webschnittstelle zur Verfügung gestellt. Die Modelle werden auch kontinuierlich verbessert, indem Feedback gesammelt, Fehler behoben, neues Wissen hinzugefügt und die Effizienz und Sicherheit verbessert werden.
Wie bereits erwähnt, ist es die Ausbildung des Modells, die die meisten finanziellen, ökologischen und energetischen Kosten verursacht. Tausende von Grafikprozessoren, die monatelang rund um die Uhr parallel laufen, haben einen gigantischen Energiebedarf, und die Rechenzentren, also die temperaturgeregelten Gebäude, in denen die Recheninfrastruktur untergebracht ist, benötigen große Mengen an Wasser zur Kühlung. Der Betrieb des Modells an sich ist weniger anspruchsvoll, aber aufgrund der Anzahl der Nutzer, die derzeit KI verwenden, sind die Energiekosten enorm und werden nur noch weiter steigen, wenn der aktuelle Trend anhält.
Diese Energiekosten schlagen sich direkt inCO2-Emissionen nieder. Wenn KI-Modelle von Netzen betrieben werden, die mit fossilen Brennstoffen oder Kohle betrieben werden, kann ihr Betrieb zu erheblichen Kohlenstoffemissionen führen. Eine Auswirkung auf die Umwelt, die mit dem weiteren Anstieg der KI-Beschäftigung nur noch zunehmen wird.
KI-Workloads verbrauchten im Jahr 2024 bis zu 20 % des weltweiten Stroms in Rechenzentren. Fachleute sagen voraus, dass diese Zahl bis zum Ende des Jahres auf fast 50 % ansteigen wird.2
Zahlen
Bevor wir uns mit den Zahlen im Zusammenhang mit der Implementierung von KI-Modellen beschäftigen, muss man bedenken, dass Unternehmen wie OpenAI, Google und Anthropic den Energieverbrauch ihrer Modelle bis heute nicht öffentlich bekannt geben. Uns fehlen genaue Informationen darüber, wie viele GPU-Stunden verwendet wurden, wie viele Trainingsläufe durchgeführt wurden oder wie effizient ein Rechenzentrum ist. Wir können jedoch auf der Grundlage von Forschungsberichten, undichten Stellen oder Expertenanalysen fundierte Schätzungen vornehmen. Wir wissen zum Beispiel, dass ChatGPT auf NVIDIA A100-GPUs trainiert wurde. Außerdem wissen wir, wie viel Rechenleistung das Modell benötigt. Mit diesem Wissen können wir FLOPs (Anzahl der Operationen) in GPU-Zeit und schließlich in Kilowattstunden (kWh) umrechnen, um eine Bandbreite des für KI benötigten Stroms zu erhalten. Die folgenden Daten veranschaulichen den Ressourcenverbrauch und die Umweltauswirkungen von KI:
51.772.500-62.318.750 kWh für das Training von GPT-4, was etwa 40-48 Mal höher ist als der für GPT-3 benötigte Strom (1.287.000 kWh), was dem Jahresverbrauch von etwa 3.600 US-Haushalten entspricht.3
Jede Interaktion mit KI-Modellen wie GPT kann bis zu 10 Mal mehr Strom verbrauchen als eine normale Google-Suche.4
Trotz des Versprechens, bis 2030 kohlenstoffnegativ zu werden, sind die Gesamtemissionen von Microsoft um 23,4 % gestiegen, wobei ein erheblicher Anstieg der Scope-3-Emissionen auf den Ausbau der KI-Infrastruktur zurückzuführen ist.5
Bis 2027 wird der weltweite KI-Bedarf voraussichtlich 4,2 bis 6,6 Milliarden Kubikmeter Wasserentnahme pro Jahr ausmachen und damit die gesamte jährliche Wasserentnahme von Ländern wie Dänemark übertreffen.6
Der Lebenszyklus von KI-Modellen, von der Chip-Herstellung bis zum Betrieb von Rechenzentren, verschlechtert die Luftqualität durch die Emission von Schadstoffen wie Feinstaub und beeinträchtigt die öffentliche Gesundheit.7
Im Jahr 2024 nutzten weltweit etwa 315 Millionen Menschen KI-Tools (Schreiben, Bild&Design, Video&Audio, Business&Produktivität), und Prognosen gehen davon aus, dass sich diese Zahl bis 2030 auf über 700 Millionen Nutzer mehr als verdoppeln wird.8
Nachdem wir die zahlreichen Vorteile der KI für unsere Gesellschaft gesehen haben, können wir uns nicht vorstellen, ihre Anwendung einzuschränken. Die Art und Weise, wie wir KI-Technologien und -Einrichtungen entwickeln, kann sich jedoch weiterentwickeln und sauberer und nachhaltiger werden. Lassen Sie uns die Möglichkeiten erkunden.
Verringerung der Auswirkungen von KI auf natürliche Ressourcen und die Umwelt
Verschiedene Methoden zur Verringerung des Energieverbrauchs und des Abfalls sowie des durch KI-Technologien verursachten CO2-Fußabdrucks sind bereits weltweit verfügbar und werden umgesetzt. Einige dieser Lösungen haben das Solar Impulse Efficient Solution Label erhalten. Hier sind konkrete Maßnahmen, die ergriffen wurden:
Rechenzentren, die mit erneuerbaren Energien wie Sonne, Wasser und Wind betrieben werden:
Seit 2017 hat Meta (ehemals Facebook) seine betrieblichen Emissionen um 94% reduziert, indem es seine Rechenzentren und Büros zu 100% mit erneuerbarer Energie versorgt.
Steigerung der Energieeffizienz von Computerhardware:
Die H100-GPUs von NVIDIA bieten Leistungs- und Effizienzverbesserungen gegenüber den A100-GPUs für KI-Workloads. Aufgrund der um 67 % höheren Speicherbandbreite, die die Datenübertragung erleichtert, und einer neuen Transformer-Engine, die das Training von transformatorbasierten Modellen beschleunigt, könnte dies eine sehr effiziente Lösung sein.
Optimierung von Rechenzentren durch Verbesserung der Stromverbrauchseffektivität (PUE) und Entwicklung von Rechenzentren in kälteren Gebieten, um den Kühlungsbedarf zu reduzieren:
Die Papillon-Lösung von Beeyon, die seit 2019 von der Stiftung Solar Impulse ausgezeichnet ist, identifiziert Energiesparmaßnahmen für jeden Servertyp und jedes Betriebssystem und reduziert die Kapitalkosten um bis zu 30 %.
In ähnlicher Weise bieten die Smart Data Management Services von Heex Technologies eine Plattform für Unternehmen, um von Big Data zu Smart Data überzugehen. Dies bietet die Möglichkeit, den durch die Datenverarbeitung verursachten Energieverbrauch um 30 % zu senken.
Das Verne Global Data Centre in Keflavik, Island, arbeitet mit einem sehr niedrigen PUE-Wert, da es mit natürlicher Kaltluft betrieben wird und daher keine mechanischen Kältemaschinen benötigt. Darüber hinaus hat es einen minimalen CO2-Fußabdruck, da es mit erneuerbaren Energien betrieben wird. Zu den Kunden gehören NVIDIA und DELL Technologies, Unternehmen, die in der Welt der KI eine wichtige Rolle spielen.
Recyceln Sie Wärme und Wasser für Kühlzwecke oder zum Heizen von Gebäuden:
Die Deutsche Telekom und Cloud&Heat haben eine Lösung entwickelt, um die CO2-Emissionen von Rechenzentren um 41 % zu reduzieren. Durch die Entwicklung eines Kühlsystems mit direkter Heißwasserkühlung und Abwärmerückgewinnung werden 78 % der Wärme abgeführt und dem Heißwasserkreislauf des Gebäudes zur Wiederverwendung zugeführt. Dadurch können die Energiekosten um bis zu 40 % gesenkt werden.
Die Eintauchkühlungslösung von Hyperion für Rechenzentren besteht aus Servern, die als eintauchbare, zu 100 % biologisch abbaubare Wärmeübertragungsflüssigkeit konfiguriert sind. Diese Cloud-Technologie macht dank der Eintauchkühlung den Einsatz von Klimaanlagen überflüssig. Letztes Jahr wurde sie in Frankreich von der Gemeinde Ernée eingeführt, um den durch das Datenhosting verursachten Stromverbrauch zu senken und die von den Computerservern erzeugte Wärme wiederzuverwenden.
Qarnot (QH-1) von Qarnot Computing reduziert den CO2-Fußabdruck von Berechnungen um schätzungsweise 70-75 %! QH-1 macht sich die Abwärme von Rechenzentren zunutze und nutzt sie als Wärmequelle zur Beheizung von Räumen. Die Qarnot-Technologien wurden vor 6 Jahren vom Département de la Gironde in Bordeaux eingeführt und vom französischen Gesetz als erneuerbare Energie anerkannt! In Bordeaux werden 6000 m2 Gebäude vollständig mit dem QH-1 beheizt und versorgen die Nutzer mit erneuerbarer, kostenloser Wärme. Das Gebäude war das erste in der Welt, das vollständig mit Computern beheizt wurde.
Die KI-Plattform der Stiftung Solar Impulse
Bei der Stiftung Solar Impulse wollen wir von den Vorteilen der KI profitieren, ohne unsere Mission der Nachhaltigkeit aus den Augen zu verlieren. Deshalb haben wir einige Maßnahmen ergriffen, um den ökologischen Fußabdruck unserer KI zu reduzieren.
Unsere KI- und Plattform-Infrastruktur wird auf Microsoft Azure gehostet, einem Cloud-Anbieter, der sich zur Klimaneutralität verpflichtet hat. Azure gleicht dieCO2-Emissionen seiner Rechenzentren aus, um sicherzustellen, dass unser Betrieb zu einer nachhaltigeren Zukunft beiträgt.
Wir verwenden den GPT-4o-mini von Open AI, ein kleineres, weniger ressourcenintensives Modell, das den Energieverbrauch während des Betriebs reduziert, aber dennoch effiziente Antworten liefert und uns ein Gleichgewicht zwischen Qualität und Umweltverantwortung bietet.
Unsere Token wurden durch die Zusammenfassung von Interaktionen und die Straffung von Abfragen optimiert. Indem wir die Verwendung von Token begrenzen, den Bedarf an Rechenressourcen reduzieren und Interaktionen so effizient wie möglich gestalten, können wir unseren ökologischen Fußabdruck verringern.
Darüber hinaus prüfen wir Möglichkeiten, quelloffene Sprachmodelle (LLMs) einzusetzen, die eine bessere Transparenz und Umweltverträglichkeitskennzahlen bieten, die eine praktikable Alternative zu proprietären Modellen wie OpenAI darstellen und uns auf unserem Weg zu einer nachhaltigen Entwicklung unterstützen könnten.
Die Ausweitung der KI als Beispiel für eine nachhaltige Entwicklung
Die führenden Köpfe der KI-Industrie haben die Möglichkeit zu beweisen, dass die Ausweitung und Weiterentwicklung einer der aufregendsten Innovationen unseres Jahrhunderts nicht auf Kosten von Umweltzerstörung und -verschmutzung gehen muss. Eine auf Effizienz und saubere Produktion ausgerichtete Denkweise könnte die Kosten sowohl in finanzieller als auch in ökologischer Hinsicht senken, ohne die Kapazitäten der KI zu beeinträchtigen. Sie könnte auch als globales Beispiel dafür dienen, wie Innovation und Nachhaltigkeit Hand in Hand gehen können und dass wir wirklich aus den vergangenen Fehlern der Massenproduktion um jeden Preis gelernt haben!
Referenzen:
2. https://medium.com/data-science/the-carbon-footprint-of-gpt-4-d6c676eb21ae
3. https://www.wired.com/story/new-research-energy-electricity-artificial-intelligence-ai
4. https://www.polytechnique-insights.com/en/columns/energy/generative-ai-energy-consumption-soars
5. https://blogs.microsoft.com/on-the-issues/2025/05/29/environmental-sustainability-report
6. https://www.noemamag.com/thirsty-bots-are-drinking-our-scarce-water/
7. https://news.ucr.edu/articles/2024/12/09/ais-deadly-air-pollution-toll
8. https://altindex.com/news/million-people-use-ai-growth
Geschrieben von Solar Impulse Foundation an 15. Juni 2025