Home ActualitéScienceEnvironnement et développement durableGPT-5 : un impact environnemental catastrophique en France et mondial

GPT-5 : un impact environnemental catastrophique en France et mondial

by Sara
France, États-Unis

Intelligence Artificielle, consommation énergétique, GPT-5, environnement : de nouvelles mesures universitaires montrent une hausse spectaculaire de la consommation électrique de la dernière génération de modèles, relançant le débat sur l’impact environnemental de ces systèmes à l’échelle nationale et mondiale.

Intelligence Artificielle, consommation énergétique, GPT-5, environnement : mesures universitaires et comparaisons

Des chercheurs de l’Université de Rhode Island ont analysé la consommation électrique de GPT-5 et conclu que le modèle utilise jusqu’à 40 Wh pour générer une réponse de longueur moyenne (environ 1 000 tokens). Leur étude estime une consommation moyenne de 18 Wh par réponse, soit bien au‑dessus des modèles testés précédemment, hormis o3 (également d’OpenAI) et R1 de DeepSeek.

Illustration de ChatGPT et consommation énergétique

Pour mettre ces chiffres en perspective, en 2023 une requête pour une recette à ChatGPT demandait environ 2 Wh d’électricité, l’équivalent d’une ampoule incandescente allumée pendant 2 minutes. Avec GPT-5, la consommation peut être jusqu’à 20 fois plus élevée selon les experts cités par la presse spécialisée.

Chiffres clés : consommation moyenne, pics et impact global

L’étude de l’Université de Rhode Island indique :

  • consommation moyenne estimée : 18 Wh par réponse ;
  • consommation maximale relevée : jusqu’à 40 Wh pour une réponse de longueur moyenne ;
  • augmentation par rapport à 2023 : potentiellement jusqu’à 20 fois pour certaines requêtes.

Les auteurs rapportent que, compte tenu du volume de requêtes — ChatGPT recevrait environ 2,5 milliards de requêtes par jour — l’empreinte électrique cumulée devient considérable. L’équipe compare cette demande à l’équivalent de la consommation électrique journalière de 1,5 million de foyers américains.

Les chercheurs multiplient le temps de réponse moyen par la puissance électrique moyenne du modèle pour obtenir ces estimations, méthode dont ils rappellent les limites en l’absence de données publiques complètes sur l’infrastructure et les architectures utilisées.

Pourquoi GPT-5 consomme-t‑il autant ? Taille, architecture et traitement multimodal

Plusieurs facteurs expliquent cette hausse de la consommation. La taille du modèle est citée comme un élément majeur : GPT-4 est déjà estimé dix fois plus volumineux que GPT-3, et OpenAI ne communique plus le nombre de paramètres depuis GPT-3 (175 milliards de paramètres). Un modèle plus grand nécessite davantage de calculs tant lors de l’entraînement que lors de l’inférence.

Rakesh Kumar, professeur à l’Université de l’Illinois spécialisé dans la consommation énergétique des modèles d’IA, précise : « Un modèle plus complexe comme GPT-5 consomme plus d’énergie à la fois pendant l’entraînement et pendant l’inférence. Il est aussi orienté vers une réflexion longue. Je peux affirmer qu’il va consommer beaucoup plus d’énergie que GPT-4. »

Le caractère multimodal de GPT-5 — capacité à traiter textes, images et vidéos — augmente également l’empreinte. Shaolei Ren, professeur à l’Université de Californie à Riverside, alerte : « Sur la base de la taille du modèle, la quantité de ressources utilisées par GPT-5 devrait être plusieurs ordres de grandeur supérieure à celle de GPT-3. »

Mistral AI, dans sa propre analyse, note un « fort lien » entre la taille d’un modèle et sa consommation énergétique : un modèle dix fois plus gros peut générer des impacts d’un ordre de grandeur supérieur pour la même quantité de tokens générés.

Certains éléments d’architecture, comme le principe dit de « mixture-of-experts », peuvent limiter l’activation simultanée de tous les paramètres et atténuer partiellement la hausse de consommation. Le déploiement sur du matériel plus efficace est aussi évoqué comme levier d’optimisation.

Appels à la transparence de la communauté scientifique et implications

Face au manque de visibilité sur les architectures matérielles et logicielles, les chercheurs demandent davantage de transparence de la part des entreprises développant ces modèles. Abdeltawab Hendawi, professeur de sciences des données, juge qu’il y a « beaucoup de travail » à faire pour quantifier précisément l’impact énergétique lorsque les acteurs privés ne publient pas leurs données.

Les chercheurs insistent sur l’importance d’une divulgation publique des impacts environnementaux des grands modèles. Ils déclarent : « Il est plus crucial que jamais d’aborder le véritable coût environnemental de l’IA. Nous appelons OpenAI et les autres développeurs à s’engager vers une transparence totale en divulguant publiquement l’impact environnemental de GPT-5 ».

La course à la performance pousse les entreprises à proposer des modèles toujours plus volumineux, ce qui, selon les experts cités, conduit à une augmentation corrélée des émissions et de la consommation d’électricité. Ces constats réouvrent le débat sur le compromis entre gains fonctionnels et coût environnemental à l’heure de la transition énergétique.

source:https://www.lesnumeriques.com/intelligence-artificielle/gpt-5-les-consequences-environnementales-sont-enormes-et-c-est-pire-que-les-precedents-modeles-n241070.html

You may also like

Leave a Comment