Nur schon das Training eines einfachen Sprachmodells verbraucht so viel Energie wie ein Flug von New York nach San Francisco. Das Training des grossen Sprachmodells GPT-3 (175 Milliarden Parameter), auf dem auch Chat GPT basiert, emittiert dann schon so viel CO2 wie 126 Haushalte im Jahr – dies alles abgesehen von den alltäglichen, energetischen Betriebskosten. (Republik, 11. Oktober 2023)