Les systèmes d’intelligence artificielle « consomment beaucoup d’énergie et peuvent générer des volumes importants d’émissions de carbone contribuant au changement climatique ». A titre d’exemple, une étude a montré que les expériences nécessaires à la construction et à l’apprentissage d’un système de traitement du langage par intelligence artificielle peut générer plus de 35 tonnes d’émissions de CO2, soit « deux fois les émissions d’un Américain moyen pendant toute sa vie ». Face à ces enjeux, une équipe de chercheurs de l’université de Stanford, Facebook AI Research, et de l’université McGill « a mis au point un outil facile à utiliser qui mesure rapidement la quantité d’électricité utilisée par un projet d’apprentissage machine et la quantité d’émissions de carbone que cela représente ».
« Il y a une forte poussée pour augmenter l’apprentissage machine afin de résoudre des problèmes de plus en plus importants, en utilisant plus de puissance de calcul et plus de données », déclare Dan Jurafsky, titulaire de la chaire de linguistique et professeur d’informatique à Stanford. « Dans ce contexte, nous devons nous demander si les avantages de ces modèles de calcul intensif valent le coût de l’impact sur l’environnement ». Ainsi, « les systèmes d’apprentissage machine développent leurs compétences en exécutant des millions d’expériences statistiques 24 heures sur 24, en affinant constamment leurs modèles pour effectuer des tâches. Ces sessions de formation, qui peuvent durer des semaines, voire des mois, sont de plus en plus gourmandes en énergie ». « Et comme les coûts ont chuté tant pour la puissance de calcul que pour la gestion de quantités massives de données, l’apprentissage machine est de plus en plus répandu dans les entreprises, les gouvernements, les universités et la vie personnelle. »
Afin d’obtenir une mesure précise de ce que cela signifie en termes d’émissions de carbone, « les chercheurs ont commencé par mesurer la consommation d’énergie d’un modèle d’intelligence artificielle particulier ». Une tâche « plus compliquée qu’il n’y paraît, car une seule machine entraîne souvent plusieurs modèles en même temps, de sorte que chaque session d’apprentissage doit être démêlée des autres. Chaque session d’apprentissage consomme également de l’énergie pour les fonctions communes, telles que le stockage des données et le refroidissement, qui doivent être correctement réparties. » Puis, il faut traduire la consommation d’énergie en émissions de carbone, qui dépendent du mix énergétique utilisé pour produire l’électricité. Un mix qui « varie considérablement en fonction du lieu et du moment de la journée ». Les chercheurs ont estimé que « la tenue d’une session en Estonie, qui dépend en grande partie de l’huile de schiste, produira 30 fois plus de carbone que la même session au Québec, qui dépend principalement de l’hydroélectricité ». Ce qui conduit les chercheurs à recommander de « déplacer les sessions d’apprentissage vers un lieu alimenté principalement par des sources renouvelables ».
Et « les chercheurs ont constaté que certains algorithmes d’apprentissage machine sont plus gourmands en énergie que d’autres ». Quand il n’est pas pertinent de déplacer le travail pour réduire les émissions, « comme pour la navigation en voiture, car de longues distances entraînent des retards de communication, de la “latence” », il serait néanmoins possible « de définir le programme le plus efficace comme paramètre par défaut lors du choix de celui à utiliser ».
« Avec le temps il est probable que les systèmes d’apprentissage machine consomment encore plus d’énergie en production que pendant la phase d’apprentissage, juge Peter Henderson, doctorant en informatique à l’université de Stanford et auteur principal de l’étude. Mieux nous comprenons nos options, plus nous pouvons limiter les impacts potentiels sur l’environnement. »
Pour aller plus loin :
Intelligence artificielle : la conquête d’un marché du corps humain
Tech Xplore, Stanford University (03/07/2020)
Photo : Free-Photos, Pixabay