Le défi énergétique de l'intelligence artificielle
Les progrès spectaculaires du « deep learning » ont une contrepartie : la course à la puissance de calcul fait exploser le coût énergétique. Mais des solutions commencent à apparaître.
Par Benoît Georges
L'intelligence artificielle est-elle dangereuse pour le climat ? Les avancées récentes de l'apprentissage automatique profond (« deep learning ») ont permis aux machines de battre les meilleurs humains au jeu de go, d'effectuer des traductions dans toutes les langues courantes ou d'analyser des images et des conversations avec des résultats spectaculaires. Mais ces progrès ont une contrepartie : la quantité d'électricité nécessaire pour entraîner et utiliser ces algorithmes ne cesse d'augmenter.
Prenons l'exemple de GPT-3, un modèle de langue dévoilé cet été par le laboratoire californien OpenAI (« Les Echos » du 8 septembre 2021). Certes, GPT-3 peut produire des textes incroyablement proches de ceux rédigés par les humains. Mais son entraînement a nécessité l'équivalent de 355 années de calcul sur un processeur, pour un coût estimé à 4,6 millions de dollars .
Ce contenu est réservé aux abonnés