KI-Boom erfordert neue Konzepte
Mit Flüssigkeit kühlen, mit Servern heizen

Ein Gastbeitrag von Malte Matthies, Business Development Lead for Modular Data Center, HPE 5 min Lesedauer

Anbieter zum Thema

Der KI-Boom treibt den Stromverbrauch der Rechenzentren in die Höhe. Deshalb müssen jetzt Verfahren wie direkte Flüssigkeitskühlung und Abwärmenutzung zum Standard werden. Container-Rechenzentren können den Wandel beschleunigen.

In Zusammenarbeit mit Danfoss liefert HPE Rechenzentren im Containerformat mit eingebauter Flüssigkeitskühlung. Dieses Konzept verkürzt die Bauzeit, erlaubt eine flexible Platzierung und erleichtert die Verwertung der Abwärme.(Bild:  HPE)
In Zusammenarbeit mit Danfoss liefert HPE Rechenzentren im Containerformat mit eingebauter Flüssigkeitskühlung. Dieses Konzept verkürzt die Bauzeit, erlaubt eine flexible Platzierung und erleichtert die Verwertung der Abwärme.
(Bild: HPE)

Das Gehirn zeichnet für ein Fünftel des Energieverbrauchs des menschlichen Körpers verantwortlich [1]. Das klingt nach viel, doch unsere kleinen grauen Zellen arbeiten unglaublich energieeffizient: Unser Gehirn braucht nicht mehr Energie als eine Glühbirne – es ist eine „20-Watt-Serverfarm“ [2].

KI scheint mit dem menschlichen Gehirn in immer mehr Disziplinen gleichzuziehen – allerdings ist KI im Vergleich dazu ein echter Hitzkopf. Laut einer Studie benötigte OpenAI für das Training von GPT-3 (das Basismodell, das ChatGPT anfangs nutzte) 1.287 Megawattstunden [3]. So viel Strom verbrauchen rund 450 deutsche Vier-Personen-Haushalte im ganzen Jahr [4].