Intelligence artificielle et climat : mesurer l’empreinte environnementale pour concilier innovation et objectifs climatiques
A l’occasion des Journées de l’economie, qui s’ouvrent le 4 novembre à Lyon, les economistes Mathias Abitbol, Philippe Aghion et Celine Antonin ont signé une tribune dans Le Monde appelant a une evaluation independante de l’empreinte environnementale de l’intelligence artificielle (IA).
L’IA, une revolution a haute intensite energetique
L’essor fulgurant de l’IA est souvent compare aux grandes revolutions technologiques du passe – machine a vapeur au XIXe siecle, electricite et technologies de l’information au XXe siecle. Mais, a la difference de ces precedents, l’avantage climatique n’est plus acquis: la reduction des emissions de gaz a effet de serre est devenue une priorite mondiale que la diffusion de l’IA devra prendre en compte.
Pour l’heure, l’explosion des usages se traduit par une hausse rapide et préoccupante de la consommation d’energie. Une etude publiee en septembre par le Center for Economic Policy Research (CEPR) suggere qu’aux Etats-Unis l’insuffisante adaptation des infrastructures electriques a conduit a un recours accru aux energies fossiles pour alimenter les centres de donnees.
Le role particulier des grands modeles de langage
Les grands modeles de langage (LLM), qui alimentent l’IA generative, contribuent de maniere disproportionnee a cette hausse de consommation. L’entrainement d’un seul modele de pointe peut necessiter plusieurs gigawattheures, et chaque requete peut consommer jusqu’a dix fois plus d’electricite qu’une recherche classique sur Google. Par ailleurs, les LLM restent dans une phase de developpement tres active: la puissance de calcul investie dans les modeles double, selon les observations, tous les cent jours, sous l’effet de la course a la performance.
Pas de fatalite: des leviers pour limiter l’impact
Faut-il pour autant renoncer a concilier IA et objectifs environnementaux? Les auteurs de la tribune repondent non. Ils rappellent que, durant la decennie 2010, la consommation liee aux centres de donnees a ete contenue grâce a des gains d’efficacite energetique importants au niveau des serveurs et des infrastructures.
Selon eux, il est possible d’inverser la dynamique actuelle en adoptant un cadre institutionnel ambitieux qui valorise l’efficacite energetique et le dimensionnement raisonne des modeles d’IA en fonction des usages reels. Les premieres recherches sur le sujet vont dans ce sens:
- Une etude de l’UNESCO publiee en 2025 montre que la compression des modeles conduit a des economies d’energie considereables.
- L’adoption de petits modeles de langage (SLM) pour des applications spécifiques reduirait la consommation energetique d’un facteur 10 tout en maintenant un niveau eleve de precision.
Vers une evaluation independante
Les economistes appellent donc a la mise en place d’evaluations independantes et transparentes de l’empreinte environnementale des technologies d’IA, ainsi qu’a des regles incitatives pour privilegier l’efficacite et le bon dimensionnement. Ces propositions seront au coeur des echanges lors des Journees de l’economie, ou se discutent les politiques publiques permettant de concilier innovation technologique et transition climatique.




