https://www.lifegate.it/impatto-ambientale-ia
- |
Le coût quotidien de ChatGpt, le chatbot d'OpenAI, serait d'environ 700 mille dollars, selon un estime de l'année dernière.Alors que d’autres analyses montent jusqu’à un million par jour.Ce qui est sûr, c'est que la maintenance et l'exploitation de produits similaires sont très cher et les factures ne peuvent qu’augmenter à mesure que les services se propagent.OpenAI, et les autres entreprises du secteur, seraient donc piégées dans un cercle vicieux : toucher de nouveaux utilisateurs pour augmenter le chiffre d'affaires, sachant que chaque utilisateur ne peut qu'augmenter ses coûts.
Une avancée technologique est nécessaire pour rendre l’IA plus durable
C'est aussi pourquoi Microsoft, investisseur et partenaire commercial d'OpenAI, travaille sur un nouveau type de puce qui devrait rendre ces systèmes plus efficaces et moins énergivores, et donc plus durables.Sam Altman, co-fondateur et directeur d'OpenAI, a lui-même déclaré récemment que la seule façon de résoudre le problème est un «avancée technologique« capable de permettre le développement de IA moins cher.Prenons-le Gpt-4, le grand modèle linguistique qui sous-tend ChatGpt, c'est-à-dire celui qui permet de comprendre et de générer des textes et des images :en plus de l'énorme coût initial de ce qu'on appelle la "formation", chaque demande et interaction avec Gpt marque une consommation d'énergie inoubliable.Mais jusqu’à présent, aucun signe de ce type ne se profile à l’horizon.
Les alternatives durables disponibles sur le marché
Ainsi, alors que Microsoft investit dans les puces, Altman tente de contourner le problème et rêve de sources d'énergie à très faible coût.En effet, l'entrepreneur investit depuis quelque temps dans Helion, une startup expérimentale sur le fusion nucléaire dont le but est de créer des « soleils artificiels », sources d’énergie propre infinies et très puissantes.La fusion nucléaire est désormais le Saint Graal des énergies renouvelables mais, grâce à la pression d'Altman, Microsoft a signé un accord acheter et vendre l'énergie d'Hélion à partir de 2028.En attendant, il existe aujourd’hui des alternatives durables sur lesquelles nous pourrions nous concentrer.
+775%
Le problème est appelé à s’aggraver avec la diffusion de l’IA dans les années à venir.Selon un recherche Selon l'Université de Washington, la gestion de centaines de millions de requêtes vers ChatGpt consommerait environ un gigawattheure, "soit l'équivalent de l'énergie consommée par 33 mille foyers américains". Selon Arijit Sengupta, PDG d'une entreprise du secteur de l'IA, nous sommes actuellement à environ 1 pour cent de l'adoption de systèmes similaires dans les années à venir, une perspective rose pour le secteur qui cache cependant un énorme risque environnemental et la possibilité de " une crise énergétique assez grave."
L’intelligence artificielle ne représente qu’une partie de la consommation énergétique et des émissions de CO2 de l’ensemble du secteur numérique, dont l’impact environnemental est voué à croître de façon exponentielle dans les années à venir.D'ici 2040, selon une étude récemment publiée par la revue Nature, le émissions des CO2 liés au numérique sont destiné devrait croître de 775 pour cent, passant de 1,6 pour cent du total enregistré en 2017 à 14 pour cent.Pour mettre ces données en perspective, si le numérique était une nation, il serait le cinquième émetteur de dioxyde de carbone à l’échelle mondiale, avec 3,8 pour cent des émissions totales.C'est une valeur quatre fois supérieure à celle d'une puissance industrielle comme la Chine. France.