Kapitalistische Intelligentie? AI is een ecologische ramp (deel 3)

AI genereerde dit beeld met de woorden “Water energy waste racist AI dirty environment”

Een vertaling in vijf delen van een artikel van het Duitse Wildcat over Artificial Intelligence (AI), oftewel Kunstmatige Intelligentie (KI) in het Nederlands. Het werd eerder al in het Engels vertaald door onze vrienden van de Angry Workers uit het Verenigd Koninkrijk. Lees ook deel 1 en deel 2.

Verbruik van hulpbronnen

Misschien wel het grootste probleem met de huidige verspreiding van generatieve AI in chatbots en beeldgeneratoren is hun enorme verbruik van hulpbronnen. In 2010 was het nog mogelijk om een AI te trainen op een standaard notebook, terwijl hiervoor tegenwoordig speciale computers met vele duizenden grafische kaarten (GPU’s) worden gebruikt.

Energie

Twaalf procent van het wereldwijde energieverbruik is toe te schrijven aan digitale toepassingen; iets meer dan de helft hiervan (zes tot acht procent) komt voor rekening van grote datacenters. Die kunnen nauwelijks gelijke tred houden met de AI-hausse. Volgens het hoofd van HPE kunnen datacenters over vijf jaar twintig procent van alle energie ter wereld verbruiken. Het trainen van AI-modellen verbruikt meer energie dan elk ander computerwerk. Deze ontwikkeling is pas echt van de grond gekomen sinds 2019, toen GPT-2 werd gepubliceerd; dat werkte met zes miljard parameters. Het algoritme van GPT-3 omvat 175 miljard parameters. GPT-4 werkt met 1,7 biljoen parameters. Elk nieuw model verhoogt de parameters met een factor 10, maar het energieverbruik groeit exponentieel met de hoeveelheid verwerkte gegevens. Alleen al de laatste trainingsronde van GPT-3 verbruikte 189 megawattuur energie, wat overeenkomt met ongeveer negen keer de jaarlijkse CO₂-uitstoot per hoofd van de bevolking van Duitsland. En voor elk model dat daadwerkelijk online gaat, waren er honderden die van tevoren werden weggegooid.

Maar het is niet alleen de AI-training – het daadwerkelijk gebruiken van deze programma’s vereist veel meer vermogen. Voor één verzoek van ongeveer 230 woorden is 581 wattuur nodig. De één miljard verzoeken aan ChatGPT in februari 2023 zouden dus 581 gigawattuur hebben verbruikt. In mei was het al 1,9 miljard alleen voor ChatGPT. Dat komt overeen met bijna 464.000 ton CO₂. En de energiehonger van de opvolger GPT-4 is nog groter. AI verbruikt nu meer elektriciteit dan cryptomining (de elektriciteitsbehoefte van Bitcoin werd geschat op 120 terawattuur in 2021).

Vroeger – in 2016 – berekende Google dat het verwerken van een zoekopdracht evenveel energie kostte als het 17 seconden laten branden van een gloeilamp van 60 watt. Google verbruikte dus ongeveer 900 gigawattuur elektriciteit voor de ongeveer 3,3 biljoen zoekopdrachten per jaar op dat moment. Dit kwam overeen met het stroomverbruik van 300.000 huishoudens met elk twee mensen, maar was schamel vergeleken met het stroomverbruik van AI.

Op een conferentie een jaar geleden werd gesteld dat de energie die nodig is om een AI te trainen in de afgelopen twee jaar 18.000 keer zo hoog is geworden – hierbij is al rekening gehouden met de energiebesparingen van nieuwe chips. (4) Op 25 september berichtte het Duitse dagblad FAZ: “Vanwege AI-strategie: kernenergie gaat datacenter van Microsoft aanleveren”. “Een vloot van kleine kernreactoren” moet de datacenters van het bedrijf voorzien van “veilige elektriciteit”. Bill Gates richtte ook het bedrijf Terrapower op, dat momenteel een kerncentrale bouwt in de staat Wyoming.

Maar het is niet alleen een gebrek aan elektriciteit; de ontwikkeling van rekenkracht bereikt ook zijn grenzen. De rekenkracht die wordt gebruikt om AI te trainen is tussen 2015 en 2021 al 300.000 keer zo groot geworden. Volgens de Wet van Moore verdubbelt het aantal rekenbewerkingen dat computers per seconde kunnen uitvoeren ongeveer elke twintig maanden. De vraag naar computerbewerkingen door machine learning verdubbelt momenteel elke drie tot vier maanden.

Water

Water kan een nog groter probleem zijn. Het is nodig om de chips te produceren en de datacenters te koelen. “De productie van een chip van twee gram (…) verbruikt 35 liter water. Een moderne chipfabriek heeft tot 45 miljoen liter water per dag nodig, waarvan een groot deel ‘ultrazuiver water’.” (“The Summer of Semis”, Wildcat 110).

Chipfabrieken en datacenters worden overal gebouwd waar overheden dom genoeg zijn om de bedrijven niet alleen miljarden aan subsidies en goedkope elektriciteit te geven, maar ook water praktisch gratis (net als de Tesla-fabriek midden in een gebied dat drinkwater levert in het Duitse Brandenburg). In 2021 begon Google met de bouw van een enorm datacenter in Uruguay dat dagelijks zeven miljoen liter zoet water nodig heeft om de computers te koelen. In de zomer was er een watercrisis in Uruguay, en meer dan een miljoen mensen hebben geen toegang tot schoon drinkwater. (5) Zelfs de Taiwanese Taipei Times, die normaal gesproken niet bijzonder vijandig staat tegenover technologie, waarschuwde half september voor de “zware ecologische kosten van ChatGPT”. Microsoft haalt in een hete zomermaand 43,5 miljoen liter water uit de rivieren voor een supercomputer in de Amerikaanse staat Iowa (10.000 GPU’s) waarop het GPT-4 traint – wat een probleem wordt voor de landbouw in de buurt. Volgens de eigen cijfers was het wereldwijde waterverbruik van Microsoft in 2022 alweer 34 procent hoger dan in 2021, terwijl Google een stijging van 20 procent rapporteerde. Voor beide is de sterke stijging bijna uitsluitend te wijten aan AI. (6)

In Iowa zijn nieuwe datacenters nu alleen toegestaan als ze zuiniger omgaan met water. In het Duitse Saksen en Saksen-Anhalt is het nog niet zover. De chipindustrie in Saksen heeft zoveel water nodig dat het grondwater niet meer toereikend is. “Geen probleem”, zeggen de politici, ”we halen het wel uit de Elbe”. Nu er 200 kilometer stroomafwaarts een chipfabriek van TSMC bijkomt, beginnen mensen zich na de aanvankelijke euforie zorgen te maken. Volgens eerste officiële schattingen zal de Intel-fabriek in Maagdenburg recordhoeveelheden water gebruiken voor de productie. De staat schat 6,5 miljoen kubieke meter water per jaar. Dit betekent dat de Intel-fabriek meer zou verbruiken dan de Tesla-fabriek in Brandenburg. Het is nog niet duidelijk uit welke bronnen dat water zal worden gehaald. Er wordt gedacht aan een Elbe-waterleiding. ChatGPT verbruikt trouwens niet alleen water tijdens de training, het slurpt ook een halve liter tijdens het gebruik, als iemand het vijf tot vijftig vragen stelt in een sessie.

Zoekmachines en bedrijfsmodellen

Bing is gebaseerd op AI, dus verrassingen en fouten zijn mogelijk”
(Microsoft, vanaf de homepage van zijn zoekmachine)

Op 30 april 1993 werd het world wide web (www) gratis opengesteld voor het publiek. Op 15 september 1997 ging de zoekmachine Google online. Die heeft het www gevormd en zal het nog verder transformeren. Een aanzienlijk deel van het www werkt volgens de formule: sites creëren inhoud, Google leidt mensen naar die inhoud, iedereen plaatst advertenties. Zelfs grote sites krijgen tot veertig procent van hun clicks via de zoekmachine, en je positie in de zoekresultaten heeft een grote invloed op hoeveel je er krijgt. Websites gebruiken zoekmachine-optimalisatie om zo hoog mogelijk te komen. Het internet ziet eruit zoals we het kennen omdat Google dat vereist – tot en met specifieke standaarden voor paginadesign, technologie en inhoud. Reclame financiert bijna het hele internet. Het zet aandacht (clicks) om in geld (deze “aandachtseconomie” beloont sensationele krantenkoppen en nepnieuws, maar dat is een ander verhaal).

De afgelopen jaren heeft Google zich verder ontwikkeld van een zoekmachine tot een antwoordmachine. Bepaalde vragen worden direct beantwoord in plaats van een lange lijst met websitelinks weer te geven. In antwoord op een zoekopdracht worden passende resultaten geleverd en de bijbehorende advertenties getoond. Amazon beveelt ook al lange tijd boeken en andere producten aan op basis van je eerdere aankopen of surfgeschiedenis. Andere websites suggereren vrienden, voorspellen griepepidemieën, signaleren veranderende consumentengewoonten en kennen je muzieksmaak (YouTube, Facebook, Netflix, Spotify, enzovoorts.). Miljoenen en miljoenen mensen gebruiken deze diensten elke dag. Tweederde van de mensen googelt wat hun symptomen zouden kunnen betekenen voordat ze naar de dokter gaan, en er zijn wereldwijd duizenden gezondheidsapps. En er zijn nu 300 miljoen patiëntgegevens ingevoerd in Google’s medische AI, Med Palm2, in de VS.

Tijdens deze ontwikkeling werd Google steeds slechter als zoekmachine: de zoekresultaten werden irrelevanter, de zoekopdrachten vruchtelozer. Pogingen om machine learning te gebruiken om Google te laten “begrijpen” wat mensen “echt” zoeken, hebben soms het tegenovergestelde effect. Dit komt deels door het algoritme, dat resultaten die vaak worden aangeklikt interpreteert als relevanter dan andere (ook zelfversterkend!). Veel mensen gebruiken Google nu alleen nog maar om hun favoriete websites te doorzoeken door /github, /reddit of /wiki toe te voegen.

Met de integratie van zijn chatbot Bard in het zoekproces verandert Google opnieuw fundamenteel het www en zijn bedrijfsmodellen. Bard moet de zoekresultaten lezen en vervolgens samenvatten. Voor velen zullen deze samenvattingen voldoende zijn. Waarom zou je blijven klikken als je alle antwoorden al hebt? Maar als Google niet langer hetzelfde aantal clicks naar hun websites stuurt, zal dat voor veel bedrijven het einde betekenen. Als bedrijven zichzelf niet langer kunnen financieren door middel van advertenties, dan moeten ze overschakelen op betalingssystemen en hun inhoud afschermen van AI. Dat zou het internet zoals we het kennen aanzienlijk veranderen.

Het papegaaien-artikel

In maart 2021 publiceerden Timnit Gebru, Margaret Mitchell en vier andere collega’s van de afdeling AI-ethiek van Google, in samenwerking met computationeel linguïst Emily Bender, het artikel “Over de gevaren van stochastische papegaaien: kunnen taalmodellen te groot zijn?”. Ze waren in 2020 aan hun artikel begonnen te werken, net toen de voorlopers van ChatGPT de aandacht trokken omdat ze teksten produceerden die op het eerste gezicht foutloos en betrouwbaar leken. Tegen de tijd dat het artikel openbaar werd, waren Gebru en Mitchell al ontslagen. De beide Google-medewerkers hadden geweigerd om hun handtekeningen onder het stuk te verwijderen na dreigementen van hun baas. In de laatste hoofdstukken doen ze weliswaar suggesties voor de “bedachtzame ontwikkeling” van AI, maar desondanks is het artikel een frontale aanval. Het bekritiseert precies datgene van chatbots wat hun winstmodel vormt: ze zijn groot (zodat niemand ze kan bijhouden); ze zuigen alles op als een zwart gat: rekenkracht, elektriciteit, water, onderzoeksgelden; en om ze aan de mens te brengen wordt een irrationele hype gecreëerd en wordt een rationele discussie over de mogelijkheden van AI opzettelijk uit de weg gegaan.

Het papegaaien-artikel bekritiseert ook – “in een tijd van ongekende ecologische veranderingen wereldwijd” – de enorme verspilling van hulpbronnen veroorzaakt door chatbots (elektriciteit, CO₂, water, enzovoorts). Het grootste deel van de elektriciteit die nodig is voor AI komt van fossiele brandstoffen. Hoewel de techindustrie erop gokt dat alles binnenkort uit hernieuwbare energiebronnen zal komen, is dit onrealistisch en daarbij is hernieuwbare energie niet “gratis”. Het mondiale zuiden betaalt voor de ontwikkeling van Engelstalige modellen voor veelverdieners met alle ecologische gevolgen van dien.

Chatbots hebben geleid tot een enorme verkeerde toewijzing van onderzoeksgelden en wetenschappelijke middelen. Uiteindelijk verhinderen ze echte taalkundige vooruitgang en het werken aan echte “kunstmatige intelligentie”.

De taalmodellen zijn racistisch en tegen minderheden omdat ze de heersende opinie “oververtegenwoordigen”. AI versterkt vooroordelen in een zichzelf versterkende cyclus. In de praktijk reproduceert AI racistische en andere patronen (zwarte mensen worden rechtmatige verzekeringsclaims, medische diensten en sociale uitkeringen van de staat geweigerd). In de VS zijn AI-systemen betrokken bij de opsluiting van minderheden voor relatief langere straffen.

De taalgeneratoren begrijpen of produceren geen “taal”. Taal heeft altijd vorm en betekenis, maar chatbots hebben alleen “vorm”. Ze zijn alleen succesvol in taken die benaderd kunnen worden via het manipuleren van linguïstische vormen. Omdat ze echter grammaticaal grotendeels foutloze, echt klinkende teksten produceren, maken ze gebruik van de neiging van mensen om betekenis te vinden in taal en om reeksen tekens te interpreteren als betekenisvolle communicatieve handelingen. Vanwege dit manipulatiepotentieel is het werk aan “synthetisch menselijk gedrag” een “verblindende rode lijn” in de ontwikkeling van AI. “Synthetisch” kan vertaald worden als “kunstmatig”, maar dat slaat de spijker niet helemaal op zijn kop. De auteurs van het artikel (deze secties zijn waarschijnlijk terug te voeren op de computationele taalkundige Emily Bender) bekritiseren de aanpak waarbij kunstmatige taal wordt gebruikt om menselijke spraak na te bootsen om gebruikers opzettelijk en doelgericht in verwarring te brengen.

Lees verder in deel 4.

Wildcat

(Dit artikel verscheen oorspronkelijk in het herfstnummer van 2023 van Wildcat onder de titel: “Kapitalistische Intelligenz – Was steckt hinter dem Hype um KI?”)

Noten

  • 4. Brian Bailey: “AI Power Consumption Exploding”. 15 augustus 2022, https://semiengineering.com.
  • 5. Het hoofd van de Saksische staatskanselarij, Oliver Schenk (CDU), die verantwoordelijk is voor de miljarden euro’s aan subsidies voor de chipindustrie, vierde de aangekondigde investering door TSMC. “TSMC is een van de belangrijkste bedrijven ter wereld.(…) Deze bedrijven verbinden hun investeringsbeslissingen aan drie voorwaarden: overheidsfinanciering is essentieel in de concurrentiestrijd met andere landen, er moet voldoende personeel beschikbaar zijn en de watervoorziening moet gegarandeerd zijn.” Duits tijdschrift Zeit op 4 oktober 2023, “Watertekort in Saksen: gewoon de Elbe aanboren”.
  • 6. Matt O’Brian, “Hannah Fingerhut: AI technology behind ChatGPT carries hefty costs”. Taipei Times, 14 september 2023.