AI-generierte Bilder brauchen so viel Strom wie ganzer Smartphone-Akku
Wenn wir heute ChatGPT/Dall-E, Stable Diffusion oder Midjourney darum bitten, uns doch ein Bild nach Wunschvorstellung zu generieren, dann laufen im Hintergrund die Prozessoren in den Cloud-Diensten heiß. Denn AI-generierte Bilder benötigen sehr viel Rechenkraft, und dementsprechend viel Energie. Wie viel Energie, das hat jetzt jetzt Forscher:innen des AI-Startups Hugging Face und derCarnegie Mellon University herausgefunden.
Fazit der Studie: Die Erstellung eines Bildes mithilfe eines leistungsstarken KI-Modells benötigt ähnlich viel Energie wie das vollständige Aufladen eines Smartphones. Die Forscher:innen fanden auch heraus, dass die Verwendung eines AI-Modells zur Texterstellung deutlich weniger energieintensiv ist. Die 1.000-malige Texterstellung verbrauche nur so viel Energie wie 16 % einer vollen Smartphone-Ladung, heißt es in der Studie. Das bedeutet, dass nicht bloß das rechenintensive Trainging von AI-Modellen sehr viel Energie verbraucht, sondern auch die tägliche Nutzung durch weltweit hunderte Millionen Menschen.
Getestet wurden 88 verschiedene Modelle, und zwar mit Hilfe einer NVIDIA-GPU (A100-SXM4-80GB), die bei Amazon Web Services gehostet wurde, und zur Messung des Stromverbrauchs wurde ein eigenes Tool namens „Code Carbon“ verwendet. Der Name der Software sagt schon, worauf die Forscher:innen hinauswollen. Denn sie rechnen auch vor: Die Generierung von 1.000 Bildern mit einem leistungsstarken KI-Modell wie Stable Diffusion XL würde ungefähr so viel CO2 verursachen wie die Fahrt von 6,6 Kilometern (4,1 Meilen) mit einem durchschnittlichen Benziner.
Hier die entscheidende Stelle aus der Studie:
„Charging the average smartphone requires 0.012 kWh of energy 4 , which means that the most efficient text generation model uses as much energy as 16% of a full smartphone charge for 1,000 inferences, whereas the least efficient image generation model uses as much energy as 950 smartphone charges (11.49 kWh), or nearly 1 charge per image generation, although there is also a large variation between image generation models, depending on the size of image that they generate.“
Textgenerierung doppelt so energiehungrig wie Gogle-Suchanfrage
Die Generierung von Text verursacht viel weniger CO2 – das am wenigsten CO2-intensive Textgenerierungsmodell, das untersucht wurde, war nur für so viel CO2 verantwortlich wie eine Fahrt von 0,0006 Meilen – das entspricht knapp einem Meter. Zum Vergleich: Google hat einmal geschätzt, dass eine durchschnittliche Online-Sucheanfrage 0,3 Wattstunden Strom verbraucht, was einer Autofahrt von 0,0003 Meilen entspricht, also einem halben Meter. Damit ist die Generierung von Texten durch AI-Modelle also doppelt so CO2-intensiv wie eine Google-Suche.
„Wir haben festgestellt, dass generative Mehrzweck-Architekturen um Größenordnungen teurer sind als aufgabenspezifische Systeme, selbst wenn man die Anzahl der Modellparameter berücksichtigt“, schreiben die Forscher:innen. Sie weisen darauf hin, dass der Nutzen dieser AI-Modelle bewusst gegen die erhöhten Kosten in Form von Energie und Emissionen abgewogen werden sollten – also etwa dann, wenn man zum Spaß Dall-E Bilder („Make it More“) generieren lässt, nur um einen schnelllebigen Trend mitzumachen.
Dass AI-Modelle große defizite beim Energieverbrauch haben, ist bekannt. Für die Anbieter wie OpenAI, Google und stellt sich da nun die Frage, wie sie die Modelle effizienter gestalten können, um weniger Rechenleistung hineinpumpen zu müssen – und auch, wie und ob sie die GPUs mit erneuerbaren Energien betreiben können.
AI Foundation Models haben große Defizite bei Urheberrecht & Energieverbrauch