So viel CO2 wie 126 Haushalte im Jahr

Nur schon das Training eines einfachen Sprachmodells verbraucht so viel Energie wie ein Flug von New York nach San Francisco. Das Training des grossen Sprach­modells GPT-3 (175 Milliarden Parameter), auf dem auch Chat GPT basiert, emittiert dann schon so viel CO2 wie 126 Haushalte im Jahr – dies alles abgesehen von den alltäglichen, energetischen Betriebskosten. (Republik, 11. Oktober 2023)