L’intelligence artificielle (IA) est une révolution technologique qui tout à la fois émerveille et effraye. Elle promet d’augmenter massivement l’efficacité d’une grande partie des activités humaines que ce soit dans les technologies de l’information, la santé mais aussi dans l’industrie ou l’agriculture. Au-delà du risque sans cesse mis en avant qu’elle porterait de voir un jour la suprématie de l’intelligence humaine menacée, elle a un autre sérieux problème. Elle a besoin pour fonctionner de quantités massives d’électricité. Car elle est construite sur la manipulation, via des puissances de calcul toujours plus grandes, de gigantesques bases de données.
Un article récent du New Yorker donne une idée des ordres de grandeur de la consommation énergétique nécessaire au développement de l’intelligence artificielle. Le magazine cite notamment abondamment Alex De Vries, un scientifique néerlandais qui a construit il y a quelques années l’indice de consommation d’énergie du bitcoin et l’a publié sur Digiconomist. Selon les derniers chiffres de l’indice, le minage de bitcoins utilise aujourd’hui cent quarante-cinq milliards de kilowattheures d’électricité par an, soit plus que la consommation des Pays-Bas.
De 85 à 134 TWh par an de consommation supplémentaire
L’an dernier, Alex de Vries a commencé à travailler sur l’intelligence artificielle et ses besoins en énergie et a publié à l’automne dernier un article dans la revue scientifique Joule. Le chercheur, qui travaille aujourd’hui pour la banque centrale des Pays-Bas, a estimé que si Google intégrait l’IA générative dans chaque recherche, sa consommation d’électricité atteindrait quelques vingt-neuf milliards de kilowattheures par an. C’est plus que ce que consomment des pays comme le Kenya, le Guatemala ou la Croatie.
Et ce n’est qu’un début. « D’ici 2027, la consommation mondiale d’électricité liée à l’IA pourrait augmenter de 85 à 134 TWh par an. Ce chiffre est comparable aux besoins annuels d’électricité de pays tels que les Pays-Bas, l’Argentine et la Suède », écrit Alex de Vries dans Joule.
« Plus ils recueillent d’informations, plus ils sont intelligents, mais plus ils recueillent d’informations pour devenir intelligents, plus ils ont besoin d’énergie ». Telle est la description faite de l’IA par Rene Haas, le directeur général d’Arm, une société de conception de puces électroniques. « Cette quantité d’énergie, au total, pourrait représenter entre un cinquième et un quart de la demande totale d’électricité aux États-Unis d’ici 2030 », affirme-t-il au Wall Street Journal. « Ce n’est pas très durable, pour être honnête avec vous ». Aux États-Unis aujourd’hui, les « data centers » utilisent environ 4% de la production d’électricité. Un chiffre qui devrait atteindre 6% d’ici 2026… dans seulement deux ans.
Les besoins énergétiques de cette technologie ne sont pas compris
« Il y a une inadéquation fondamentale entre cette technologie et la durabilité environnementale », reconnait Alex de Vries dans le New Yorker. Sam Altman, directeur général de l’OpenAI, l’un des plus grands promoteurs de l’IA au monde, fait le même constat. « Je pense que nous ne mesurons toujours pas les besoins énergétiques de cette technologie », a-t-il déclaré l’an dernier lors du World Economic Forum à Davos. Et plus préoccupant encore, il ne voit pas comment ses besoins pourraient être satisfaits « sans une percée ». « Nous avons besoin de la fusion nucléaire ou nous avons besoin, par exemple, d’une énergie solaire radicalement moins chère et d’un système de stockage, ou de quelque chose d’autre, à une échelle massive, une échelle que personne ne prévoit vraiment ».
L’ancien Secrétaire américain à l’énergie, Ernest Moniz, tire également la sonnette d’alarme. « Nous n’allons pas construire 100 gigawatts de nouvelles énergies renouvelables en quelques années. Nous sommes en quelque sorte dans une impasse », a-t-il déclaré en parlant des besoins énergétiques de l’IA, cité par le Wall Street Journal.
Incompatible avec la décroissance et même la baisse de consommation d’énergie
Le type d’apprentissage automatique qui a produit par exemple ChatGPT s’appuie sur des modèles qui traitent énormément d’informations. On estime que ChatGPT répond à quelque 200 millions de demandes par jour et qu’il consomme ainsi plus d’un demi-million de kilowattheures d’électricité. En fait, l’essor de l’IA est totalement incompatible avec les idées de décroissance et même de baisse de consommation d’énergie devenues à la mode en Europe. Cela ne peut pas fonctionner avec les bases de données construites pour développer l’intelligence artificielle.