Künstliche Intelligenz: Die neuen Stromfresser

Mehr als drei Billionen Suchen verarbeitet Google in einem Jahr. Mit dem dafür nötigen Strom könnte man etwa 340.000 Haushalte mit vier Personen ein Jahr lang versorgen. Mal angenommen, Google würde alle Anfragen zukünftig von künstlicher Intelligenz beantworten lassen: Dann bräuchte das zehnmal so viel Strom (PDF) – und entspräche dem Bedarf von rund 3,4 Millionen Vierpersonenhaushalten.

Die Google-Suche mit KI ist bisher nur ein Gedankenspiel, doch es zeigt: Künstliche Intelligenz braucht extrem viel Strom. Vielerorts wird der noch aus fossilen Energieträgern gewonnen. Das verschärft die Klimakrise und schadet der gesellschaftlichen Akzeptanz von KI. Dabei sollen KI-Systeme die Menschheit voranbringen – das autonome Fahren ermöglichen, Hautkrebs erkennen oder Baustoffe recyceln. Zugleich gibt es Sorgen, dass sie die Energiewende torpedieren. 

Eine einzelne Google-Suche benötigt vergleichsweise wenig Strom, weil die Suchmaschine zwar auf eine extrem große, aber endliche Zahl an Antworten zugreift. Der Chatbot ChatGPT dagegen generiert auf jede Frage eine neue Antwort. Dafür laufen in den Rechenzentren von ChatGPT-Betreiber OpenAI wohl mehr als 3.600 leistungsstarke Server. Das sind Schätzungen der Forschungsgesellschaft SemiAnalysis, die sich auf KI-Industrie spezialisiert hat.

„Der Bedarf wird sich in den nächsten Jahren verdoppeln“

Der Datenwissenschaftler Alexander de Vries von der Freien Universität Amsterdam hat auf dieser Grundlage den Strombedarf des Chatbots berechnet. Demnach braucht ChatGPT derzeit etwa 205.860.000 Kilowattstunden Strom im Jahr. Damit ließen sich im gleichen Zeitraum mehr als 70.000 Vierpersonenhaushalte mit Strom versorgen. Und das ist erst der Anfang. „Durch den Einsatz von künstlicher Intelligenz wird sich der Bedarf an zukünftiger Rechenzentrumsleistung in den kommenden Jahren verdoppeln“, sagt Heike Brugger, Leiterin des Geschäftsfelds Energiepolitik am Fraunhofer-Institut für System- und Innovationsforschung. „Wenn sich die Effizienz der Rechenzentren nicht in ähnlichem Maße verbessert, wird dies zu einem erheblichen zusätzlichen Energiebedarf führen.“

Datenwissenschaftler de Vries schätzt, dass allein die Server, die Chiphersteller Nvidia bis 2027 verkaufen wird, bis zu 134 Terawattstunden Strom pro Jahr brauchen werden. Das wäre etwa ein Drittel des deutschen Stromverbrauchs im vergangenen Jahr, und Nvidia ist nicht der einzige Chiphersteller. Das könnte nicht nur den KI-Boom bremsen, sondern auch gesellschaftliche Probleme hervorrufen. „Wir sind aber in so einem frühen Stadium, dass die Unternehmen diesen hohen Energiebedarf noch nicht komplett durchdacht haben“, sagt Energieexpertin Brugger.

Viele große KI-Unternehmen geben sich immerhin problembewusst: Auf ZEIT ONLINE-Anfrage nennt Chiphersteller Intel den Stromverbrauch und die Umweltfolgen „eine zentrale Herausforderung für die gesamte Industrie“. Für Microsoft, der ein Neuling auf dem Chipmarkt ist, sind es „neue Herausforderungen für die Einhaltung der Nachhaltigkeitsverpflichtungen“.

Die Unternehmen wollen diesen Herausforderungen unter anderem mit effizienterer Hardware begegnen. Mitte März stellte Nvidia einen neuen KI-Chip vor,
der viermal leistungsstärker sein soll als sein Vorgänger: Um einen
Chatbot innerhalb von drei Monaten zu trainieren, brauche es nur noch
2.000 statt wie zuvor 8.000 Chips. Der Stromverbrauch sinke von 15 auf 4
Megawatt. Intel kündigt an,
dass die fünfte Generation der Xeon-Prozessoren pro Watt Strom bis 36
Prozent mehr Leistung bringen soll. „Bei Intel haben wir es uns zur
Aufgabe gemacht, Lösungen zu entwickeln, die den Energiebedarf
minimieren, ohne dabei die Leistung einzuschränken“, schreibt das
Unternehmen.