Gerne werden Tools mit künstlicher Intelligenz (KI) damit beworben, sie wären durch das Fehlen physischer Vorgänge besonders ressourcenschonend und damit nachhaltig. Doch eine neue Studie zeichnet ein ganz anderes Bild.
Millionen Menschen weltweit testen seit dem Hype um ChatGPT und Dall-E, zwei KI-Tools aus dem Hause OpenAI, diese neuen Werkzeuge, um herauszufinden, was man damit (mehr oder weniger) Sinnvolles tun kann oder auch nur einfach "zum Spaß". Nur ganz wenige machen sich Gedanken darüber, welche Infrastruktur dafür notwendig ist - vom globalen Internet bis zu den Serverfarmen -, um diese Tests zu ermöglichen.
Forscher der Carnegie Mellon Universität gingen nun der Frage nach, wieviel Energie wirklich dafür verbraucht wird. Das Ergebnis lautet:
Ein KI-Bild = einmal Handy aufladen
Die Herstellung eines einzigen Bildes mit einem leistungsfähigen KI-Modell benötigt ähnlich viel Energie wie das vollständige Aufladen eines Smartphones! Dabei errechnen die meisten Grafiktools immer gleich mehrere Varianten eines Bildes in einem Durchlauf - der Energieverbrauch für jeden Test "aus Spaß" ist also immens. Es zeigt sich damit: Nicht nur das rechenintensive Training von KI-Modellen verbraucht Unmengen Energie, erst Recht aber die Nutzung durch hunderte Millionen Menschen weltweit. Dazu kommen noch Unmengen an Wasser, das die hochgetakteten Grafikprozessoren der KI-Tools kühlt.
Als Lösung wird gerne angepriesen, dass man die neuen KI-Tools ja mit erneuerbaren Energien betreiben könne. Dabei geht diese Lösung am eigentlichen Problem vorbei: denn sogenannte "generative Mehrzweck-Tools" (die mit reinen Textvorgaben aus Ihren Datenbeständen "neue" Ergebnisse in verschiedenen Formaten zusammenstellen können), sind um Dimensionen energiehungriger als Systeme, deren Einsatz sich auf spezifische Aufgaben beschränkt. So ist zB. die künstliche Erzeugung von Text tendenziell weniger energieintensiv: Die Generierung eines einzigen Texts durch ein KI-Modell verbraucht "nur" etwa das Doppelte einer Google-Suche (ca. 0,3W).
Eine ChatGPT-Anfrage kostet bis zu 100 Milliliter Wasser
Nur 5 ChatGPT-Anfragen können für die Kühlung der Server und anderer elektronischer Komponenten einen Wasserverbrauch von zusammengerechnet etwa einem halben Liter zur Folge haben. Das geht aus einer anderen Studie hervor, in der Forscher der Universität von Kalifornien die Auswirkungen künstlicher Intelligenz auf die Umwelt analysierten. Untersucht wurde dabei ein Microsoft-Rechenzentrum im US-Bundesstaat Iowa, in dem mehr als 285.000 CPUs und 10.000 Grafikprozessoren OpenAIs neustes Sprachmodell GPT-4 antreiben.
Auch Google soll aufgrund des zunehmenden Einsatzes künstlicher Intelligenz mehr Wasser verbrauchen. In einem Google-Rechenzentrum nahe Las Vegas, das ohnedies bereits unter massiven Wasserproblemen leidet, soll Google 2022 doppelt so viel Wasser verbraucht haben wie im Jahr davor.
Die Nutzung von KI-Modellen sollte daher bewusst gegen die hohen Kosten in Form von Energie und Emissionen abgewogen werden – insbesondere dann, wenn man "nur zum Spaß" Dall-E, StableDiffusion, Midjourney & Co. Bilder generieren lässt, um einen schnelllebigen Trend mitzumachen.
Studie zum KI-Energieverbrauch
Wasserverbrauch von Google-Rechenzentren