SAMFUND

I CO2-sporet af ChatGPT

Illustration: Pixabay

Med ChatGPT blussede diskussionen om potentialet for kunstig intelligens op igen. Men vi glemmer ofte, at de kræfter, der står bag AI efterlader sig spor af CO2.   

Det er ikke mere end to måneder siden, at det var på alles læber: ChatGPT. Og selvom det ikke altid var nemt at huske de otte bogstaver, var det svært at glemme, hvad denne AI-model kan gøre: Til ethvert spørgsmål har ChatGPT’en et svar. 

Men hvad størstedelen måske ikke tænker at spørge ind til, er hvad der også følger med det svar.

For de maskiner, der driver den avancerede chatbot, bruger store mængder af strøm, og det betyder, at ChatGPT’en efterlader et uønsket aftryk. Et CO2-aftryk. 

Teknologien bag ChatGPT er det, man kalder machine learning modeller, og denne type for kunstig intelligens bygger på, at modellen skal kunne blive ved med at lære af sig selv, baseret på de erfaringer, den gør sig.

»En machine learning model bliver til ved, at du har en masse data, som du viser til din computer samtidig med, at du fortæller computeren, hvad det er, den ser«, forklarer Kasper Groes Albin Ludvigsen, der er data scientist og bestyrelsesmedlem i forening Danish Data Science Community. 

»Så hvis du gerne vil lære din computer at kende forskel på billeder af hunde og billeder af katte, så viser du den millioner af fotografier af henholdsvis hunde og katte. For hver gang du viser et billede af en kat, så siger du; det her er en kat, og hver gang du viser et billede af en hund, så siger du; det her er en hund.« 

For at denne proces overhovedet kan lade sig gøre, kræver det en computerkraft i form af mange hardwarekomponenter. Og det er netop den her hardware, der kan efterlade sig et aftryk, fortæller Kasper Groes Albin Ludvigsen.  

»De her hardwarekomponenter, de bruger strøm, og den her strøm er ikke altid produceret fra vedvarende kilder, og derfor kan der være et CO2-aftryk.«

Inde i maskinrummet 

ChatGPTs primære hardwarekomponent hedder Graphics processing unit (GPU).

Research-virksomheden Trendforce estimerer, at ChatGPT skal bruge mere end 30.000 GPU’er for at kunne fungere. Til sammenligning skal en god gamer computer bruge en enkelt.  

Leon Derczynskin er lektor i computer science ved IT-Universitetet, og for ham lyder antallet af GPU’er sandsynligt, når der er tale om modeller som ChatGPT.  

»Der er en enorm mængde af matematik involveret. Modellerne har mange parametre, og de skal alle ganges igennem, og hver  eneste forudsigelse skal udregnes.«

Derczynski tilføjer, at der er et effektivt strømforbrug pr. udregning, men at det er skalaen, der trækker i retning af et stort strømforbrug. 

GPT-4 er den model, som den ChatGPT vi kender i dag, benytter sig af. For GPT-3, altså ChatGPTs forgænger, har modellen 175 milliarder parametre. En artikel i tidsskriftet Computer fra juli 2022 regner sig frem til, at det tager omkring to uger at lære modellen op. Det et energiforbrug på 1287 MWh, svarende til 552 tons CO2.   

Den mængde CO2, er den samme som 74 danskere i 2021 udledte på et helt år. 

Men det stopper ikke nødvendigvis her. Alt det med hunde, katte og GPU’er foregår nemlig i modellens træningsproces, der ikke er tilgængelig for omverden. Efter at have trænet og blevet gjort tilgængelig går modellen i det, man kalder inferens. Nogle siger også, at modellen er gået i produktion.

I denne del er der også et strømforbrug, men modsat i træningen kan det være svært at beregne, hvor meget der bruges. 

»Modellerne bliver trænet centralt, men inferensen kan foregå alle steder. Der findes modeller næsten så gode som ChatGPT, og så sent som i går, så jeg en af dem køre på en mobiltelefon. Det betyder, at der er modeller, der kører alle steder, og det er svært at overvåge«, fortæller Leon Derczynski. 

Op fra kulkældrene 

Ifølge Leon Derczynski er der en del, der forsker i at gøre inferensfasen så energieffektiv som muligt, og man arbejder også på at skrive bedre koder, så algoritmerne skal bruge mindre strøm. 

Men her og nu er der også måder, hvor man kan mindske energiforbruget og CO2-udledninger. 

»Det vigtigste er at bruge effektive datacentre eller benytte sig af effektiv energi. Og når man ikke er opmærksom på, hvor energien kommer fra, så er den nok beskidt. Og det er der ingen undskyldning for,« siger Leon Derczynski.

Han mener heller ikke, at den samfundsværdi, modeller som ChatGPT kan give, er en undskyldning for at udlede mere. 

»De fordele, som jeg ser ved de her modeller, det er, at man kan generere algoritmer hurtigere og på den måde gøre arbejdet en smule mere effektivt. Og vi ved, at det at gøre arbejdet hurtigere betyder, at de industrielle maskiner bliver ved med at køre og ved med at udlede. Altså det er jo den forkerte vej. Hvis vi udleder mere, så gør vi det jo ikke bedre.«

Flere datacentre bruger allerede i dag blandt andet hydroelektrisk energi eller geotermisk energi, så den strøm, datacentrene skal bruge, mindsker deres CO2-aftryk. Men ifølge nogle eksperter modsvarer det ikke den hastighed internettrafikken stiger med. 

At mindske datacentrene CO2-aftryk handler lige nu om optimering og effektivisering for virksomhederne. Men det er ikke usandsynligt, at det i  fremtiden vil  handle om vores, forbrugerens, internetvaner og brug af kunstig intelligens i hverdagen.