IA qu’à algorithmiser le climat - Algorithmique 4/6

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : IA qu’à algorithmiser le climat ?

Intervenant·e·s : Anne-Laure Ligozat - Clément Marquet - Mathilde Saliou

Lieu : Podcast Algorithmique - Next

Date : 6 novembre 2024

Durée : 33 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description[modifier]

Depuis l'émergence des modèles d'IA générative, les besoins en énergie des principaux constructeurs ont explosé, au point que Microsoft, Google puis Amazon aient successivement annoncé se tourner vers le nucléaire pour y répondre. Mais concrètement, quels sont les effets de l'intelligence artificielle sur le climat ? Dans quelle mesure ces technologies aident-elles à lutter contre le dérèglement climatique ? Ont-elles plutôt tendance à le renforcer ?

Transcription[modifier]

Voix off : Next, Next, Next, Next.

Mathilde Saliou : Salut, c’est Mathilde Saliou.
Avant l’été, on a appris que le bilan carbone de Microsoft et Google était remonté en flèche. Je dis « remonté », parce qu’au fil de la dernière décennie, ces entreprises ont travaillé pour réduire les émissions de gaz à effet de serre que leurs activités produisaient. En 2020, Microsoft s’était engagée à atteindre une empreinte carbone négative d’ici 2030, et même à effacer l’ensemble de son empreinte carbone depuis sa création d’ici 2050. L’année suivante, c’est Google qui a pris l’engagement d’atteindre un bilan carbone neutre à horizon 2030. Sauf que, si on lit leurs propres rapports environnementaux, en 2023, Google a émis moitié plus de CO2 que ce qu’elle avait rejeté en 2019. Du côté de Microsoft, le document indique une augmentation de près de 30 % des émissions de CO2 entre 2020 et 2023. Qu’est ce qui explique ce retournement ? Un élément que vous aurez certainement deviné, l’intelligence artificielle.
Forcément, ces actualités m’ont fait me poser des questions. Par exemple, quel rôle joue l’intelligence artificielle dans l’impact global du numérique sur l’environnement ? Est-il nécessairement négatif ? Peut-il être positif ?

Clément Marquet : Quand on investit autant dans les datacenters, ce qui a été fait sur les deux dernières années, il y a un moment où la trajectoire du numérique s’envole, alors qu’elle n’était déjà pas soutenable du point de vue environnemental.

Anne-Laure Ligozat : À force de basculer sur des solutions numériques pour un petit peu tout, on se retrouve dans une société qui est très dépendante du numérique.

Mathilde Saliou : Je suis Mathilde Saliou et vous écoutez Algorithmique, un podcast produit par Next.

Épisode 4 : IA qu’à algorithmiser le climat ?[modifier]

Mathilde Saliou : Quand on parle d’intelligences artificielles, après tout, il arrive d’entendre qu’elles sont nécessaires pour opérer la transition environnementale qui permettrait de sauver la planète. Pour décortiquer un peu ces questions, je suis allée discuter avec Anne-Laure Ligozat, qui est professeure en informatique et chercheuse au LISN [Laboratoire interdisciplinaire des sciences du numérique], un laboratoire multidisciplinaire sur le plateau de Saclay.

Anne-Laure Ligozat : Je viens du traitement automatique des langues en recherche, j’ai fait ma thèse en traitement automatique des langues qui est sous discipline de l’intelligence artificielle. L’évolution du domaine fait qu’on a eu des modèles qui étaient de plus en plus gros, de plus en plus longs à entraîner, etc., ce qui a commencé à poser des questions d’un point de vue environnemental. Par ailleurs, il se trouve que les problèmes environnementaux sont des sujets auxquels j’ai toujours été sensible. Il y a quelques années, j’ai donc décidé de changer complètement de sujet de recherche pour m’intéresser aux impacts environnementaux du numérique, pas spécifiquement en lien au départ, mais comme c’est de là que je viens et qu’une grosse partie de mon laboratoire continue à faire de l’IA, du coup, c’était assez logique de travailler là-dessus.

Mathilde Saliou : Anne-Laure Ligozat, à l’origine, est donc une spécialiste des modèles d’intelligence artificielle. Mais comme parler de leurs impacts environnementaux ne se réduit pas à parler que de codes et de matériel, je suis aussi allée voir Clément Marquet.

Clément Marquet : Je suis Clément Marquet, je suis chargé de recherche et d’enseignement au Centre de sociologie de l’innovation de l’innovation de l’école des Mines de Paris – PSL [Université Paris Sciences et Lettres]. Je suis donc sociologue et je pratique une sous branche de la sociologie qui est un peu particulière, qui s’appelle science and technology studies, donc les études sur les sciences et les techniques qui s’intéressent aux dimensions politiques des savoirs et des technologies, c’est-à-dire qu’on considère qu’elles ne sont pas neutres, qu’elles sont politiques à la fois parce qu’elles sont soutenues par des formes de politique qui visent à transformer la société dans certains sens, et puis qu’elles ont aussi des dimensions politiques qu’on dit « incarnées » au sens où elles transforment les relations sociales, les rapports de force, etc., dès qu’on les fait advenir dans le monde.

Mathilde Saliou : Avant de parler de la dimension politique incarnée de l’intelligence artificielle, je demande à Clément Marquet de m’expliquer dans quelle mesure les évolutions récentes du champ ont joué sur les impacts environnementaux du numérique au sens large. Il me répond en détaillant rapidement le cycle de vie de ces technologies à partir de la construction des machines qui permettent de les faire tourner.

Clément Marquet : Ce qui soulève des enjeux bien spécifiques, ce sont les technologies d’intelligence artificielle qui sont développées aujourd’hui, en particulier les intelligences artificielles génératives et ce qu’on appelle les large language models, ces façons de traiter des données massives pour générer du texte, des images, voire du son ou des films.
Ces modèles-là ont pour spécificité d’avoir besoin de très grandes bases de données et d’avoir besoin de beaucoup de puissance électrique pour les serveurs qui vont calculer si on veut que ces calculs ne durent pas des jours. Ils soulèvent donc déjà un enjeu sur le type de matériel dont ils ont besoin. On a vu, au cours de la dernière année, un changement, un basculement matériel au sein des datacenters qui supportent le développement des IA génératives, le fait d’utiliser de plus en plus de cartes Nvidia à la place des serveurs qui étaient classiquement utilisés pour du <em<cloud ou d’autres services web. Ces cartes Nvidia augmentent ce qu’on appelle la densité électrique, c’est-à-dire la quantité d’électricité dont on a besoin par mètre carré pour un datacenter.
Ça pourrait ne pas être un problème très particulier, puisque l’histoire des datacenters est l’histoire de ce qu’on appelle la densification électrique, c’est-à-dire de mettre de plus en plus de serveurs qui consomment de plus en plus par mètre carré et de réussir à optimiser, d’une façon ou d’une autre, ces enjeux de consommation pour limiter la croissance, même s’il y a quand même une croissance des conséquences des datacenters au fil es vingt dernières années. La spécificité de l’IA, c’est l’engouement en très peu de temps. S’il y a des alertes environnementales fortes sur l’intelligence artificielle générative, c’est parce que, à la différence des autres types d’intelligence artificielle ou de ce qui pouvait exister il y a dix ans, tout à coup on diffuse, de façon internationale, ces technologies avec un soutien très fort des politiques publiques, du coup on veut les mettre partout, ce qui veut dire qu’on a besoin d’énormément de matériels et de transformer les datacenters pour que ça fonctionne.
Les impacts que cela a sont d’ordres multiples : sur la consommation électrique des infrastructures de fait, on y reviendra peut-être plus dans le détail, sur leur consommation d’eau, car une partie des datacenters dans lesquels on fait de l’IA générative va utiliser de l’eau pour refroidir ses serveurs et ça a également des conséquences en termes d’extraction. Tout à coup, on a besoin de produire énormément de matériels. L’entreprise Nvidia est en production maximale depuis quelques mois ou plus, on a des délais d’attente de plus en plus importants sur les cartes Nvidia, parce que tout le monde en veut, ce qui veut dire qu’il faut extraire des matériaux des mines, il faut produire les matériaux et il faut les assembler, etc.
Aujourd’hui, des estimations annoncent que pour fournir les besoins de l’intelligence artificielle à l’horizon 2030, tels qu’ils se dessinent aujourd’hui, il faudrait extraire un million de tonnes de plus de cuivre que prévu, ce qui est relativement important étant donné qu’il y a déjà des tensions sur l’extraction du cuivre pour les véhicules électriques, etc. On voit donc qu’il y a une part très physique, très matérielle, et que l’extraction du cuivre est nécessairement polluante, on ne peut rien y faire.
On va donc ajouter des désordres au monde, quelque part, par cet engouement, dans la phase d’usage et dans la phase de production, et puis, après, il y a toujours la question de ce que deviennent les serveurs en fin de vie, mais c’est peut-être la partie la moins documentée ou la moins facile à suivre du cycle de vie du numérique.

Mathilde Saliou : Pour résumer grossièrement, la généralisation des technologies d’apprentissage machine, ça décuple les besoins en temps de calcul, donc les besoins en énergie. OK, mais dans quelle mesure est-ce que tout cela augmente ? Pour essayer de le détailler, Anne-Laure Ligozat s’est penchée sur l’impact environnemental concret d’un modèle de langage très similaire à ceux qui gagnent en succès ces deux dernières années. Elle a étudié le cas du modèle Bloom.

Anne-Laure Ligozat : Bloom est un modèle de langue qui a été entraîné il y a quelques années dans le cadre d’un grand projet international. Énormément d’équipes, dans le monde, ont travaillé dessus. C’est un modèle de langue qui est multi-langues, multitâches, etc., bref !, il fait tout. La raison pour laquelle nous avons décidé de travailler là-dessus, c’est parce que c’est un modèle de langue qui a été entraîné sur le supercalculateur qui s’appelle Jean Zay, un supercalculateur public, contrairement à beaucoup de modèles qui ont été entraînés chez Google, pour ne pas le nommer, et là on n’a pas du tout accès aux conditions matérielles dans lesquelles ça a été entraîné. Jean Zay est une infrastructure gérée par le CNRS, donc on avait accès à toutes les informations matérielles dont on avait besoin, c’est-à-dire sur quelle machine ça a été entraîné, quelle a été la consommation, combien de temps ça a tourné, etc.

Mathilde Saliou : Un supercalculateur, pour le dire autrement, c’est un superordinateur, une machine dont la puissance de calcul est optimisée pour pouvoir faire tourner des programmes très gourmands.

Anne-Laure Ligozat : Ça permettait donc de calculer une empreinte carbone très complète, ce qui n’avait pas été fait avant. Très complète, c’est-à-dire que jusque-là, par exemple, si vous entraîniez un modèle sur les serveurs de Google, Google va vous dire quel a été votre consommation supplémentaire due à l’entraînement de votre modèle. Une partie des serveurs de Google est tout le temps allumée, et quand vous entraînez votre modèle, ça va entraîner une surconsommation, les serveurs vont consommer un peu plus, puisqu’ils font tourner votre programme. Ce sont des informations qu’on peut avoir à peu près n’importe où, maintenant, quand on entraîne des modèles. On peut savoir quelle est la consommation d’électricité supplémentaire et on peut convertir cette consommation d’électricité supplémentaire en empreinte carbone. Si on sait où c’était, on sait quelles sont les émissions de gaz à effet de serre qui sont associées à la consommation d’un kilowatt-heure, par exemple, d’électricité, ça permet donc de convertir la consommation d’électricité en empreinte carbone.
Pour Bloom, nous sommes allés beaucoup plus loin, c’est-à-dire que nous n’avons pas pris en compte que cette consommation-là, nous avions aussi accès à tout le reste. Par exemple, quand tout est allumé et qu’il n’y a rien qui tourne dessus, Jean Zay consomme déjà à peu près la moitié de l’électricité totale qu’il consomme quand il y a des programmes qui tournent dessus. Donc juste le fait que les serveurs soient allumés, les équipements réseau soient allumés, les serveurs de stockage soient allumés, etc., ça consomme de l’électricité et c’est en partie attribuable aux programmes qui tournent, puisque s’il n’y avait pas de programmes qui tournent, on n’aurait pas besoin d’allumer les serveurs.
On a donc pu prendre en compte notamment cette partie statique de la consommation électrique.
On a pu prendre en compte aussi la fabrication des serveurs. Comme on savait exactement sur quels serveurs ça avait tourné, on a pu essayer de calculer l’empreinte carbone qui était liée à la fabrication des serveurs et attribuer ça, du coup, à l’entraînement de Bloom.
Nous avons donc pu aller beaucoup plus loin, sur le calcul de l’empreinte carbone, que ce qui avait été fait jusque-là.

Mathilde Saliou : Un point vraiment intéressant de Bloom et du supercalculateur sur lequel il tourne, c’est donc de montrer qu’un système ouvert permet de faire des calculs beaucoup plus précis et détaillés que ce qu’il est possible de faire du côté des entreprises privées.

Anne-Laure Ligozat : Globalement, le fait de prendre en compte la consommation de l’infrastructure, même quand rien ne tourne, plus la climatisation, etc., ça fait à peu près multiplier par deux l’empreinte carbone d’un modèle par rapport à prendre juste la consommation qu’on appelle dynamique, c’est-à-dire la consommation supplémentaire parce qu’on fait tourner le programme.
On a pu montrer aussi que la partie liée à la fabrication n’est pas du tout négligeable non plus.
Ce qui était un petit peu particulier dans le cas de Bloom, c’est que ça a tourné en France où, vous le savez, on a une énergie qui est très bas carbone, ce qui fait que la partie utilisation est plus basse. Par rapport à un modèle qui serait entraîné autre part, ça donne une empreinte carbone beaucoup plus basse. On le savait, mais c’est quand même intéressant de pouvoir calculer ce que ça donne, même dans ce cas-là.
L’utilisation est quand même majoritaire par rapport à la fabrication, mais plus on réduit l’empreinte de l’utilisation en optimisant, en utilisant des énergies qui sont moins carbonées, etc., plus la part de la fabrication est grande. Or, actuellement, les matériels qui sont utilisés pour les calculs sont renouvelés assez régulièrement. Par exemple, à Jean Zay, la durée de vie est de six ans, ce qui est quand même pas mal, sauf qu’en réalité, un peu partout, les chercheurs vont avoir tendance à vouloir utiliser les derniers matériels, qui sont les plus efficaces, qui vont faire que les calculs vont pouvoir tourner plus vite. Du coup, le fait d’avoir montré l’empreinte de la fabrication, alors qu’on a considéré que la durée de vie était de six ans, ce qui est quand même assez grand, montre bien que le fait de renouveler le matériel régulièrement est vraiment problématique.

Mathilde Saliou : Ce que dit Anne-Laure Ligozat est important, parce que la consommation énergétique, c’est souvent la question sur laquelle on se focalise quand on réfléchit à l’impact environnemental du numérique en général et de l’IA en particulier. Ça permet de comparer les usages. En 2024, un article des chercheuses Sasha Luccioni, Yacine Jernite et Emma Strubell a montré qu’à l’usage, les modèles d’IA générative consommaient beaucoup plus que les modèles d’intelligence artificielle spécialisée. Elles donnaient différents points de comparaison, comme le fait que produire 1000 images avec le modèle <em<stable-diffusion émettait autant de CO2 que la conduite d’une voiture américaine moyenne sur six kilomètres et demi. En 2019, Emma Strubell avait signé un autre article sur l’entraînement de grands modèles de langage. En l’occurrence, elle avait travaillé sur un modèle précédent, le transformer, celui qui fait le T » de ChatGPT. À l’époque, elle avait estimé que l’entraînement d’un de ces modèles pouvait mettre autant de CO2 que cinq voitures américaines sur l’ensemble de leur durée de vie. Or, depuis, la taille des modèles n’a fait qu’augmenter.
Mais si on écoute Clément Marquet, cette question de la consommation électrique n’a pas émergé du jour au lendemain.

Clément Marquet : Au milieu des années 2000, même plutôt 2008, on a le rapport Gartner, une entreprise de consultants, qui annonce que le numérique, c’est 2 % des émissions de gaz à effet de serre, donc l’équivalent du secteur aérien, que cela croît et que, du coup, il faut s’inquiéter de cette croissance. Une des réactions dans le monde du datacenter, a été notamment de développer un indicateur qui s’appelle le Power Usage Effectiveness, le PUE, qui vise à évaluer la quantité d’électricité qui est dépensée sur l’ensemble de l’infrastructure et la quantité d’électricité qui est consommée juste par l’informatique. On va diviser le total par l’informatique et le but, c’est que le chiffre soit le plus proche de 1. Ça veut dire qu’on utilise de l’électricité uniquement pour la chose qui est utile et commerciale d’informatique.
Au moment où ce PUE est mis en place, plein d’infrastructures ont des PUE supérieurs à 2,5, voire à 3, ce qui veut dire que, parfois, on utilise trois fois plus d’électricité pour refroidir l’informatique que pour l’informatique. Quelque part, c’est un gaspillage important. Ça veut dire que ce n’est vraiment pas optimisé. Donc, au fil des années 2010, tous ces acteurs économiques vont optimiser leurs infrastructures pour baisser leur PUE et vont inventer des dispositifs. Un des plus répandus, c’est notamment le fait de diviser la salle informatique de sorte qu’il y ait des couloirs d’air froid et des couloirs d’air chaud qui soient hermétiquement construits, comme cela, on balance de l’air froid, qui est ensuite aspiré par les serveurs, qui rejettent de l’air chaud à nouveau aspiré, qui est refroidi. On fait comme ça une boucle, on gère donc des allées chaudes et des allées froides avec des températures différentes. Ça demande donc beaucoup de capteurs pour réussir à avoir tout le temps la bonne température et la bonne hygrométrie. Progressivement, on a aussi augmenté la température des salles en s’adaptant aux contraintes matérielles, donc en passant de températures autour de 20 degrés à des températures plutôt à 25, à 27, la température générale du datacenter s’est donc réchauffée.
On a aussi introduit d’autres technologies qui permettent de réutiliser l’air extérieur quand il est inférieur à une certaine température, de sorte à utiliser moins d’électricité.
Toutes ces avancées ont fait qu’au niveau de la consommation électrique, on a une certaine stabilisation, en fait, de la consommation générale des datacenters, malgré la croissance très importante du numérique entre 2010 et 2020, on va dire. Les chiffres les plus optimistes disent qu’on a augmenté la consommation des datacenters uniquement de 6 % sur cette période-là, ce qui est remarquable parce que, comme on l’a noté, le <em<cloud, l’informatique, etc., ont explosé.

Mathilde Saliou : Tout ça pour dire que quand l’intelligence artificielle connaît un nouveau boom, d’abord avec la création des modèles transformers à la fin des années 2010, ensuite avec la sortie des modèles génératifs à destination du grand public, le sujet de la consommation énergétique du numérique est déjà parfaitement connu par les plus grands acteurs de l’industrie. Cela dit, pendant un certain temps, ils ont eu tendance à chercher de l’électricité là où ils en trouvaient, notamment chez eux. Clément Marquet m’explique d’ailleurs que l’endroit où ils s’installent le plus, aux États-Unis, c’est l’État de Virginie-Occidentale. La raison ? Là-bas, l’électricité est très peu chère, notamment parce qu’elle est produite à partir d’une technique dite du mountaintop removal, c’est-à-dire qu’on extrait du charbon de la montagne non pas en creusant, mais littéralement en faisant sauter le sommet des montagnes des Appalaches.
Ce que dit Clément Marquet, c’est qu’avec la frénésie subite pour les technologies d’intelligence artificielle, les serveurs sont toujours plus mis à contribution. Mais parler de la consommation électrique que génère leur usage, on commençait à l’entendre tout à l’heure dans le discours d’Anne-Laure Ligozat, c’est loin d’être suffisant. Un autre sujet croissant, c’est la question de l’eau.

17‘ 09[modifier]

Clément Marquet : L’eau est venue d’abord comme une réponse aux enjeux du PUE que j’évoquais précédemment, c’est-à-dire qu’avoir recours à l’eau, dans les années 2010, c’est se débarrasser, en tout cas c’est réussir à obtenir un PUE très efficace, de l’ordre de 1,2/1,3, parce que, en fait, on n’utilise plus d’électricité, on utilise une ressource, l’eau, qui, à ce moment-là, n’est pas envisagée comme étant vraiment un problème. Ça veut dire qu’on peut, quelque part, rejouer le récit de la gabegie en termes de consommation, au sens où on va refroidir les datacenters avec de l’eau, en utilisant des technologies assez peu optimisées, ce qu’on appelle des tours adiabatiques qui fonctionnent sur de la pulvérisation de fines gouttelettes d’eau pour réussir à refroidir le réseau d’air. Je ne sais pas exactement comment ça fonctionne, mais, ce qui est important, c’est que ça pulvérise des fines gouttelettes et que ces gouttelettes s’évaporent. Ces infrastructures, qui fonctionnent sur ces tours adiabatiques comme système de refroidissement, consomment énormément d’eau puisque c’est de l’eau qui sort du cycle de l’eau de façon brutale, c’est-à-dire qu’on extrait de l’eau, elle s’évapore et elle repart dans les nuages avant d’arriver là où elle devrait arriver c’est-à-dire à la mer. C’est différent d’autres systèmes qui seraient sur des boucles qui rendent l’eau : on ne fait que prélever de l’eau et, ensuite, on la remet directement dans la rivière, on ne la fait pas s’évaporer en route, qui sont donc plus vertueux d’un point de vue écologique, d’un point de vue cycle de l’eau.
Dans les années 2010, pas mal d’acteurs économiques, notamment les GAFAM, se sont aussi tournés vers l’eau comme système de refroidissement en installant parfois des datacenters dans des endroits qui semblent assez aberrants aujourd’hui, quand on fait un refroidissement à l’eau, comme l’Arizona, qui est un endroit très aride, stress hydrique important, avec, aujourd’hui, des conflits d’usage sur l’eau avec les agriculteurs, notamment en raison de la consommation électrique des datacenters. Là aussi ou là encore, l’intelligence artificielle est venue accentuer les problèmes, en tout cas la visibilité des questions de consommation d’eau, d’une part, parce que – c’est contextuel, ça ne dépend pas de l’intelligence artificielle – l’eau est devenue un problème visible un peu à l’échelle mondiale, ça ne veut pas dire que ça n’était pas avant, mais, maintenant, c’est un problème que qui intéresse le public, on va dire. Et puis, par rapport à ça, les datacenters qui ont des systèmes de refroidissement à l’eau, qui sont majoritairement utilisés pour faire de l’intelligence artificielle générative, ont vu leur consommation d’eau exploser sur les deux/trois dernières années. Donc, les chiffres qui étaient sortis dans les rapports RSE [Rapports de responsabilité sociale d’entreprise] de Google et de Microsoft, c’était plus 20 % en un an, entre 2022/2023, je crois. Cela montre qu’on accroît encore la pression sur les écosystèmes par la construction de nouvelles infrastructures qui servent à faire tourner ces serveurs.
Mais que ce soit pour l’électricité ou pour l’eau, je pense qu’il est important de retenir que, malgré tous les efforts de R&D et d’optimisation qui sont sérieux et bien menés par les ingénieurs de ces boîtes, on n’a rien à redire là-dessus, on est sur des rythmes de croissance tels que la trajectoire n’est pas soutenable. Quand on investit autant dans les datacenters que ce qui a été fait sur les deux dernières années, on peut faire toutes les R&D qu’on veut sur l’optimisation, à un moment, la trajectoire du numérique s’envole, alors qu’elle n’était déjà pas soutenable du point de vue environnemental.

Mathilde Saliou : OK. Donc, pour Clément Marquet, la situation actuelle n’est pas soutenable. Cela dit, pour qu’on comprenne mieux, je lui demande de m’expliquer les tensions que le développement des infrastructures pose sur le terrain. Il me répond en résumant les travaux qu’il a menés pendant sa thèse.

Clément Marquet : Au cours des années 2000, assez tôt, le sud de Saint-Denis et d’Aubervilliers, vraiment la frontière nord de Paris, a été identifié par les acteurs de datacenters comme un terrain particulièrement intéressant pour déployer des infrastructures, parce qu’il y avait à la fois des nœuds de fibre optique, la fibre optique qui passait, qui permettait de relier Paris à Francfort, à Amsterdam à Londres, donc aux grandes place économiques européennes et mondiales, beaucoup de foncier disponible parce que, suite à la désindustrialisation, il n’y avait pas eu de reconstruction sur les friches industrielles, et puis, également grâce à la désindustrialisation, quelque part, beaucoup d’électricité disponible, c’est-à-dire que pour faire les usines d’automobiles, etc., on avait construit des postes sources, on avait tiré du câble électrique, donc cette électricité, quelque part, n’était plus employée. C’était donc une configuration idéale pour les opérateurs pour s’installer. Entre 2000 et 2012, ils ont tapissé une partie du territoire de datacenters, au début de petite taille, puis de plus en plus gros. En gros, ils ont plus ou moins saturé la disponibilité électrique du territoire. Ça ne veut pas dire qu’ils consommaient toute l’électricité du territoire, mais ils réservent des capacités, qu’après ils exploitent ou pas, mais ils sécurisent leur capacité à monter en échelle. Et, à force de faire plein de réservations comme ça, eh bien, ce n’était plus forcément possible d’ajouter de nouveaux datacenters. On pouvait peut-être encore construire certaines infrastructures publiques ou des logements, etc., mais, pour les datacenters, c’était fini.
Dans certains endroits, comme à Londres, on en est carrément venu à remettre en cause des projets de logement avec ce type d’affaire, c’est-à-dire qu’il n’y a vraiment plus d’électricité dans certains quartiers à cause des datacenters, avec des débats là-dessus, etc. Ces systèmes de réservation peuvent donc aller assez loin.
Les datacenters se sont multipliés. Ils ont une tendance à se concentrer justement à cause de leurs contraintes géographique, foncier, électricité, fibre et absence de risques naturels, par exemple. Et puis, à force de se développer, ils sont sortis des zones industrielles, notamment un qui est à La Courneuve, qui s’est installé dans un quartier d’habitations. Là, il s’est donc retrouvé en face de petites maisons individuelles. On a construit un très grand bâtiment, 9000 mètres carrés, haut comme trois étages, en face de petites maisons individuelles. Et là, il y a eu une mobilisation de la part des riveraines qui ont cherché à dénoncer l’inadéquation de ce projet avec l’endroit où elles habitaient et qui ont aussi monté leur contestation en généralité, en interrogeant la soutenabilité du système numérique en général avec tous ces datacenters qui se déployaient à Plaine Commune, etc.

Mathilde Saliou : On entend que le déploiement des infrastructures numériques, qui s’accroît encore sous la pression de l’intelligence artificielle, pose des enjeux sociaux, des questions sociopolitiques évidentes. Mais, pour Clément Marquet, il faut aussi mêler ces questions à l’approche environnementale qui nous occupe.

Clément Marquet : Il y a un sujet spécifique qui est la question des îlots de chaleur urbains : quand on a beaucoup de datacenters qui s’installent dans une zone très urbanisée, avec peu d’espaces verts, etc., il y a des risques, dans les périodes de canicule, que ces datacenters contribuent à accroître encore les effets d’îlots de chaleur urbains, qui sont des espaces urbains qui deviennent particulièrement chauds lors des canicules et qui, du coup, suscitent des risques de santé assez importants pour les populations autour. Dans certains quartiers, des quartiers plutôt populaires, on sait que ce sont aussi des quartiers avec le plus de passoires énergétiques, tout un ensemble de questions qui font que ce sont aussi les quartiers les plus fragiles ou les plus vulnérables par rapport à ces risques d’îlots de chaleur urbains. Ça pose donc aussi des questions d’aménagement relativement importants.

Mathilde Saliou : Comme on évoque la chaleur, je me dis que c’est le moment de parler de l’utilité du numérique pour l’environnement.
Sur la question spécifique des datacenters, Clément Marquet me parle de diverses initiatives qui existent pour réutiliser la chaleur produite par les serveurs, mais il souligne que c’est loin d’être la réponse à tout. La chaleur en question, par exemple, est souvent trop faible pour assurer le chauffage de logements à elle toute seule. Et puis il est très fréquent que les datacenters ne soient pas du tout localisés dans des lieux résidentiels. Bref ! Ceci nous emmène vers un sujet qui émerge facilement quand on mêle les questions d’intelligence artificielle et d’environnement : l’idée selon laquelle, sans ces technologies, la transition environnementale serait impossible.
J’en parle avec Anne-Laure Ligozat qui a travaillé sur la question avec plusieurs autres scientifiques.

Anne-Laure Ligozat : Effectivement, l’IA est souvent mobilisée comme étant un des leviers possibles de la transition écologique, par exemple, pour optimiser la consommation d’un bâtiment, pour surveiller les feux de forêt, pour faire de l’agriculture de précision pour laquelle on va vraiment regarder précisément quel est le taux d’humidité, ce qu’on a mis comme intrants, etc., pour adapter au mieux. Il y a beaucoup de travaux scientifiques sur ces types d’applications. En tout cas, l’IA est très souvent mobilisée comme levier.
Il y a quelques années, avec des collègues, nous avons regardé un article qui essayait de recenser justement les types d’applications de l’IA pour différents domaines, par exemple, pour tout ce qui est transport, pour tout ce qui est bâtiments, production et consommation d’énergie, etc. Cet article, fait par beaucoup d’auteurs, s’appelle ??? with machine learning [25 min 11]. On a étudié une cinquantaine de références qui étaient dans cet article et on voulait regarder si, déjà, les auteurs des différentes références qui étaient dedans évaluaient d’un point de vue environnemental l’intérêt de ce qu’ils proposaient. Par exemple, pour reprendre toujours ce même cas : si vous proposez une solution intelligente pour la gestion de l’énergie d’un bâtiment, donc en adaptant la climatisation, le chauffage, l’éclairage, etc., est-ce que vous avez regardé quelle était la consommation de votre application intelligente, au moins la consommation, par rapport à ce qu’elle vous permettait de gagner en consommation du bâtiment ? Et puis, même idéalement, la production de tous les capteurs dont vous avez besoin, le serveur sur lequel vous faites tourner votre application intelligente, etc., est-ce que tout cela, en prenant en compte tout le cycle de vie, est bien plus faible que ce que cela vous fait gagner en consommation d’électricité ? Sur les cinquante références qu’on a vues, aucune ne visait cette évaluation minimale, c’est-à-dire au minimum de regarder quelle est la consommation électrique des systèmes intelligents par rapport à ce que cela permet de gagner comme consommation.

Mathilde Saliou : C’est fou, non ! Ça fait des années qu’on nous dit que le numérique est essentiel à la transition environnementale. Plus récemment, on a vu le même discours transposé à la question de l’intelligence artificielle. En fait, quand on creuse, on est incapable d’estimer précisément les gains ou les éventuelles pertes que ces types de technologies provoquent quand on les utilise à des fins écologiques.
En attendant d’avoir des chiffres plus précis, Anne-Laure et ses collègues ont réfléchi aux meilleures manières de construire des intelligences artificielles qui soient plus frugales.

Anne-Laure Ligozat : Dans ce groupe de travail de l’Afnor, on a travaillé sur l’IA frugale, en particulier sur ce que signifie évaluer de façon environnementale une solution d’intelligence artificielle. Des standards existent, par exemple des standards pour l’analyse de cycles de vie de produits ou de services numériques. On a donc pu s’appuyer là-dessus, sur tous les impacts directs, qui sont vraiment liés au cycle de vie des équipements. Il y a aussi des standards sur la partie effets de deuxième et troisième ordre.

Mathilde Saliou : Les effets de premier ordre, c’est ce qui concerne directement le cycle de vie d’un outil ou d’un service numérique.
Ceux de deuxième ordre concernent d’autres secteurs, par exemple l’optimisation énergétique d’un espace a un effet positif pour le secteur du bâtiment.
Ceux de troisième ordre s’observent plus largement au niveau de la société, par exemple dans l’évolution des comportements des personnes.

Anne-Laure Ligozat : Par exemple, le covoiturage.
Si on fait une application de covoiturage, on va avoir des effets de premier ordre qui sont liés, par exemple, au fait qu’on va avoir besoin de déployer cette application sur un serveur, etc., qu’on va avoir besoin d’utiliser nos smartphones pour l’utiliser, ce sont les effets de premier ordre.
On va avoir des effets de deuxième ordre qui vont être, par exemple, le fait que ça va diminuer les émissions de gaz à effet de serre qui sont liés aux déplacements.
Et puis on va avoir des effets de troisième ordre qui font que si tout le monde covoiture, le trafic va être plus fluide, du coup, comme on va mettre moins de temps, peut-être qu’on va s’autoriser à habiter plus loin.
L’idée c’est donc vraiment, au minimum, de lister toutes les conséquences que cela peut avoir d’introduire cette application et puis, éventuellement, de les quantifier si on peut.

Mathilde Saliou : Cette réflexion sur l’intégration de l’intelligence artificielle dans la société, sur son utilité concrète dans chacune de ses applications, permet d’envisager le lien entre ce champ technologique et celui de la transition écologique.

Anne-Laure Ligozat : Ce qui est sûr, le numérique étant sur une trajectoire qui est peu soutenable, ce n’est clairement pas la solution pour la transition écologique. En fait, à force de basculer sur des solutions numériques pour un petit peu tout, on se retrouve dans une société qui est très dépendante du numérique, ce qui pose des problèmes à la fois de soutenabilité, parce que, par exemple, la consommation des datacenters peut poser problème, et puis d’un point de vue résilience, parce que, s’il fait 45 degrés, les datacenters ne peuvent plus fonctionner, que se passe-t-il pour l’hôpital, qui fonctionne principalement de façon numérique ? Ça pose donc des questions importantes qui sont très peu prises en compte pour l’instant.

Mathilde Saliou : Clément Marquet va exactement dans le même sens.

Clément Marquet : Si on regarde le numérique dans sa globalité, en fait, c’est un accélérateur de tout. Le numérique aujourd’hui, l’intelligence artificielle générative permettent aussi bien d’extraire plus de tonnes de charbon et de pétrole que de faire des trucs peut-être cool pour l’environnement. Le grand problème, c’est que ça fait tout en même temps et comme la trajectoire de la société, c’est quand même, globalement, d’accroître la consommation, eh bien le numérique participe allègrement à avoir plus d’efficacité et plus d’efficacité dans la consommation en général, dans l’extraction des ressources d’une façon générale.
Un opérateur de datacenter disait que parmi les clients qu’il avait sur l’ouverture de salles prêtes pour l’intelligence artificielle, avec tout ce qu’il faut pour réussir à les refroidir correctement, etc., il y avait les banques, les assurances et des entreprises de l’industrie du gaz et du pétrole. On voit qu’elles sont déjà sur le sujet pour réussir à en faire des trucs utiles pour elles.
Ça veut dire que pour qu’on ait un numérique qui serve à la transition écologique, il faudrait faire quelque chose qui paraît complètement impossible compte-tenu de la politique actuelle qui serait de dire : à quoi sert le numérique ? Et faire un truc de contraintes, ce qui est presque antinomique, même avec l’idéologie qu’on a autour du numérique qui doit servir tout, tout le monde, etc., de façon parfaitement libre et neutre, etc., et qui serait de dire que les technologies ne servent que des projets ambitieux sur les transformations des pratiques. Si on dit que le télétravail – ce qui resterait à démontrer – est intéressant d’un point de vue environnemental, ça veut dire qu’il faut réorganiser aussi l’aménagement urbain, tout un ensemble de questions, pour que le numérique soit un outil efficace dans le télétravail et pas uniquement une consommation de plus qui s’ajoute à plein de trucs.
Ça aurait pour conséquences que ça soit intégré dans une politique plus générale, avec des contraintes sur ce à quoi sert le numérique. Tant qu’il sert à tout, de mon point de vue, il sert juste à accélérer la crise.

Mathilde Saliou : Tout ce dont on a parlé ici, on l’a beaucoup fait, et à dessin, au prisme français et européen. Mais vous vous en doutez, les implications écologiques de l’explosion de l’intelligence artificielle sont beaucoup plus larges. Les métaux rares qui permettent de construire les puces et les machines sur lesquelles on fait tourner les programmes viennent de partout sur la planète. Ce sera un sujet pour une saison 2 d’Algorithmique. Qui sait ?
Cela dit, à ce stade de notre série, on voit toutes sortes de débats émerger. Il y a ce qui concerne la manière dont les systèmes algorithmiques sont construits, les données qui les entraînent, d’autres qui touchent les raisons mêmes pour lesquelles on déploie ces technologies. Or, s’il est un lieu dans l’espace public où ces débats sont nécessaires pour avancer, c’est l’arène réglementaire. Étant donné que les États de l’Union européenne ont approuvé un règlement sur l’intelligence artificielle en mai 2024, il m’a paru nécessaire qu’on se penche sur sa fabrication.
Je vous le dis tout de suite, les questions environnementales ont largement manqué aux discussions. En revanche, la dimension politique était bien présente, et c’est exactement ce que je vous propose d’explorer dans notre prochain épisode.

Si les sujets que j’aborde dans Algorithmique vous intéressent, abonnez-vous au podcast. Dans la description de chaque épisode, vous trouverez des liens vers plusieurs articles qui vous permettront d’aller plus loin.
Abonnez-vous aussi à Next. Cela vous permettra d’avoir accès à tous nos travaux et vous y trouverez les entretiens que j’ai menés avec les intervenants d'Algorithmique sous forme de discussions au long cours, sans interruption.

Pour que nous puissions continuer de vous informer avec nuance sur les transformations numériques en cours, abonnez-vous. Votre soutien est essentiel.
Algorithmique est un podcast produit par Next. Il est réalisé par Clarice Horn et il est écrit et tourné par moi, Mathilde Saliou.
Pour me retrouver rendez-vous sur la plupart de vos réseaux favoris où je suis présente sous mon nom. Et puis sur le site de Next, next.ink.