- Quelques statistiques troublantes sur le nombre d’images générées par l’IA. En gros, sur 18 mois, l’IA génère 15 milliards d’images (données de 2023, cela a sûrement beaucoup augmenté depuis). Cela a pris 149 ans à la photo argentique pour atteindre le même nombre…
- Comment faire face à la crise de l’énergie de l’IA ?
- On me demande comment l’IA et le cloud contribuent au changement climatique. Prenons l’exemple de l’Irlande, dont le réseau électrique est saturé. Du coup, les datacentres ont plus recours aux groupes électrogènes de secours qui fonctionnent au diesel. Coté pollution et émissions de GES, c’est une horreur : Ireland’s data centres turning to fossil fuels after maxing out country’s electricity grid. Dans le même genre, on se souviendra de l’article de Reuters : Data-center reliance on fossil fuels may delay clean-energy transition. Bref, si votre entreprise utilise du Cloud, il est impératif d’avoir une approche GreenOps, en plus d’EROOM.
- Je suis un grand fan du travail de la très prolixe Mathilde Saliou, qui travaille chez les copains et copines de Next.ink (ex Next-INpact). On connaissait ses articles, sa newsletter Technoculture. Mes collègues d’Octo et moi l’avons même invitée à notre podcast Frugarilla, épisode 12. Mais là, je viens d’écouter l’épisode 4 : IA qu’à algorithmiser le climat ? de son podcast Algorithmique sur l’empreinte climatique de l’IA, et autant le dire directement : c’est vraiment un boulot génial, fouillé et très pédagogique. Bref, je suis encore plus fan !
- 54 % des articles anglophones de plus de 100 mots sur LinkedIn sont écrits par une IA ;
- À quoi pourrait ressembler de l’IA essentielle, (on pourrait aussi l’appeler Right AI) ? Utile aux gens, surtout ceux qui éprouvent des difficultés à cet instant, ne nécessitant pas de nouveau matériel, utilisable en local, sans perte de données personnelles… J’ai peut-être un bon exemple : l’ajout de texte alternatif aux images des PDF dans Firefox 130. C’est encore à l’état expérimental et chacun peut aider. Bravo à l’ami Tarek Ziadé et son équipe pour cette belle avancée !
- JM Jancovici se demande si l’IA va sauver le climat puis répond sur sa consommation d’énergie. C’est punchy, comme toujours. En deux formats : Audio sur RTL (3 mn 23 sec) et format texte (coucou Thierry !) sur LinkedIn ;
- Article d’Alain Lefèbvre : IA, comment s’est-on fait berner encore une fois ? qui compare l’IA aux voitures autonomes, cryptomonnaies et métavers. Je le trouve un peu sévère, mais il lève deux points importants : 1 - Les retours décroissants, à savoir qu’augmenter la quantité de données donne de moins bons résultats qu’avant. 2 - les IA s’entrainent de plus en plus sur des données… générées par des IA. Ce qui ne va pas aider à améliorer la qualité des résultats. Il écrit “On se retrouve dans le syndrome de la photocopieuse qui recopie ses propres pages jusqu’à ce que ces dernières soient complètement illisibles (pour en savoir plus à ce sujet)” (voir le lien “statistiques troublantes” dans ce billet).
- Les pénuries d’électricité menacent 40 % des centres de données d’IA d’ici 2027, selon Gartner. “Les analystes prédisent parallèlement une croissance exponentielle de la consommation énergétique des IA de 160% au cours des deux prochaines années ! […] l’énergie requise pour faire fonctionner les serveurs optimisés pour l’IA atteindra 500 térawattheures (TWh) par an en 2027, soit 2,6 fois le niveau enregistré en 2023.”
- C’est vieux (2021) mais très bon car très didactique : Faire de l’IA avec des circuits analogiques pour réduire drastiquement la consommation électrique. “The most basic computation in an artificial neural network is called multiply and accumulate. The output of artificial neurons are multiplied by the weight values connecting them to the next neuron. That neuron sums its inputs and applies an output function. In analog AI, the multiply function is performed by Ohm’s Law, where the neuron’s output voltage is multiplied by the conductance representing the weight value. The summation at the neuron is done by Kirchhoff’s Current Law, which simply adds all the currents entering a single node”. Traduction en français par mes soins : “L’opération de base dans un réseau de neurones consiste à multiplier puis ajouter. La sortie des neurones est multipliée par les poids les connectant au prochain neurone. Ce neurone additionne ses entrées et les applique une fonction de sortie. En IA analogique, la multiplication est faite par la Loi d’Ohm (U=R.i), où le voltage de sortir du neurone est multiplié par la conductivité, qui représente le poids. L’addition se fait elle grâce à la loi des noeuds de Kirchhoff, qui permet d’additionner tous les courants qui entrent dans un seul noeud. Cela commence à devenir une réalité industrielle ;
- Dans une veine comparable à celle ci-dessus, on explore aussi comment faire de l’IA avec des circuits faisant circuler des photons plutôt que des électrons. Le photon : la solution pour une IA ultrarapide et économe en énergie ?. Papier scientifique (nécessite un abonnement) : Single-chip photonic deep neural network with forward-only training ;
- Interview d’Yves Citton, théoricien de la littérature et des médias à propos de l’IA et du philosophe des techniques Vilém Flusser (1920–1991) ;
- sur LinkedIn, plus de la moitié des publications sont désormais dues à une IA ;
- Introducing ChatGPT Pro, pour la bagatelle de 200$ par mois. Ca commence à ressembler au vrai prix de la chose. On parie que les versions gratuites ou à 20$ vont se dégrader en qualité dès que la concurrence sera jugée comme étant suffisamment loin derrière ? J’imagine assez bien qu’il sera possible pour des annonceurs de faire que leur marque ou leurs produits soient cités dans les réponses gratuites moyennant finance. Et des modèles moins cher et moins rapides dans la version à 20$ par mois…
- Ah justement, le Financial Times dévoile le pot aux roses : OpenAI explores advertising as it steps up revenue drive? OpenAI envisage la pub. Vous auriez plus confiance dans les propos d’un ami ou dans ceux d’un inconnu payé pour vous vendre des trucs ?
- L’intelligence artificielle : une révolution technologique aux lourdes conséquences environnementales. C’est toujours bien d’avoir ce genre d’article, mais le problème c’est qu’il aborde le problème d’un point de vue strictement énergétique, qui n’est qu’une toute petite partie du problème. La conso d’eau pour produire les semiconducteurs (GPU et CPU) ? Rien. Les mines pour produire le hardware ? Rien.
- Le (vrai) coût climatique de l’IA qui cite par exemple The Environmental Impacts of AI — Primer de l’excellente Sasha Luccioni (Hugging Face) ;
- Thinking about using AI? Here’s what you can and (probably) can’t change about its environmental impact. par Hannah Smith et Chris Adams de la Green Web Foundation (ça date du 25/10/2024) ;
- Start at the end la transcription d’une conférence très inspirante, par Hannah Smith (la même qu’au dessus, toujours de la Green Web Foundation) ;
- Une solution de Google pour détecter le contenu généré par IA ? ;
- Interview de Quentin Sombsthay sur les travailleurs du clic, ces personnes sous-payées pour faire un travail abrutissant d’annotation de données utilisées pour entraîner l’Intelligence artificielle. Il y rapporte les propos d’un de ces précaires : « Il n’y a pas d’intelligence artificielle, seulement l’intelligence africaine. » ;
- j’ai enfin vu la présentation TED de Sasha Luccioni ‘L’IA est dangereuse mais pas pour les raisons auxquelles vous pensez’ . Aborder les relations entre l’IA et le changement climatique, le copyright et les biais en 11 minutes sans perdre tout le monde, c’est quand même une sacrée réussite ! Bon, évidemment, on n’a pas le temps de creuser le problème en profondeur, mais c’est lié au format, pas au talent de la personne.
- Toujours de Sasha Luccioni, sur l’empreinte environnementale des LLM (les algos d’IA générative façon ChatGPT) Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model, qui est un des très rares papiers scientifiques sur le sujet ;
- “Une courte conversation (quelques interactions) avec le dernier modèle de ChatGPT émet environ 0,27 kilogramme d’équivalent CO2 (eqCO2), soit près d’une tonne de CO2 par an pour dix échanges par jour. C’est la moitié de ce que l’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.” ;
- Pourquoi la bulle de l’IA ne devrait pas éclater… malgré des inquiétudes légitimes. Mouais. Le raisonnement de la fin me paraît discutable : certes, aucun investisseur n’a intérêt de voir la bulle de l’IA exploser. Mais si le retour sur investissement de l’IA n’est pas au rendez-vous, alors les entreprises clientes vont réduire leurs dépenses, les gains promis risquent de ne pas se concrétiser et alors la bulle éclatera, que les investisseurs le veuillent ou non !
- C’est vieux (juillet 2024), mais c’est précieux et à conserver dans le dossier marqué “Elon est un dangereux fumier” : Il fait tourner son méga datacentre d’IA… au Diesel. Quelques chiffres qui donnent le tournis : chaque GPU H100 consomme 700 W. Il en a 100 000. Plus tout le matériel autour. Donc 70 megawatts juste pour les GPU. Tout ça au Diesel. J’ai vomi.
- Sur LinkedIn, le journaliste Benoit Raphael utilise l’IA Sora d’OpenAI pour générer une vidéo très ratée. C’est fascinant de monstruosité. Et la mention “je l’ai essayée depuis Bali” n’apporte pas de réconfort (l’accès n’est pas encore autorisé depuis la France).
- Les projets de datacentres pour l’IA filent le tournis tellement les chiffres sont monstrueux. Is Microsoft & OpenAI’s 5GW Stargate supercomputer feasible? Microsoft prépare un datacentre géant pour l’IA. Consommation prévue : 5 GW. Soit 5 réacteurs nucléaires. Coût estimé : 30 à 40 milliards de dollars. Temps estimé : 10 ans de construction. Rien que pour l’électricité. D’aucun pensent que c’est un projet trop gros, même pour Microsoft. Un autre projet de datacentre, à Mount Pleasant, dans le Wisconsin, couvrirait plus de 400 hectares à lui tout seul. (Ça fait un carré de 2 km de coté).
- Vidéo de la Quadrature du Net : Ce n’est pas de l’IA, c’est une immense infrastructure écocide, avec une visite de Marseille et comment les datacentres qui s’y trouvent monopolisent les ressources : l’eau fraîche de qualité potable, l’électricité qui pourrait être utilisée pour électrifier le port de Marseille et réduire la pollution des navires à quai, et le littoral.
Mot-clé - IA
mercredi 18 décembre 2024
En vrac de décembre sur l'IA
mercredi 18 décembre 2024. En vrac
Les limites planétaires et l'IA
mercredi 18 décembre 2024. Environnement
Il y a quelques jours, on me disait sur LinkedIn “Avec l’IA, la seule limite, c’est notre curiosité”.
Sauf que non.
Le problème, c’est que l’IA n’existe pas dans le vide, mais sur une planète. Et la notion de limites planétaires, ça existe. On en a recensé 9, dont 6 sont déjà largement dépassées et la 7e est en cours.
Le recours à l’IA pose problème dans plusieurs d’entre elles, dont :
- le climat (pour alimenter les datacentres, on émet massivement des gaz à effet de serre, on prolonge la vie des centrales à charbon) ;
- la pollution (pour fabriquer les fameux GPU et autres équipements) ;
- la consommation d’eau pour fabriquer le matériel (par exemple TSMC consomme 100 millions de tonnes d’eau par an) et refroidir les datacentres ;
- le changement d’usage des sols (en creusant des mines et en construisant des datacentres) ;
- l’effondrement de la biodiversité, qui est le plus préoccupant avec le climat, pour toutes les raisons ci-dessus.
La planète est dans un sale état, et accélérer l’IA c’est accélérer la destruction du vivant.
Cela m’ennuie beaucoup, car le numérique me passionne et l’IA une innovation impressionnante.
Mais faut lever le nez du guidon de nos activités polluantes et regarder le mur qui approche.
Alors, on prend le virage et on ralentit, ou on se laisse hypnotiser par d’impressionnants gadgets ?
De la même façon, le patron de Palantir déclare sur Instagram “Les USA sont les seuls à mener la révolution de l’IA” je paraphrase. Et les entrepreneurs français de crier au loup et qu’il faut qu’on fasse la même chose en Europe. Sauf que non.
On peut considérer qu’il y a une compétition entre la Chine, les US et l’Europe, et qu’il faut à tout prix éviter de se faire distancer, mais il y a un problème majeur : entre les concurrents au taquet et la ligne d’arrivée, il y a un gouffre mortel : les limites planétaires.
On l’a vu ci-dessus : cette compétition est mortifère.
IL faudrait aussi ne pas oublier que le rôle de l’économie, c’est d’organiser la société pour que chacun puisse vivre correctement, pas de faire crever de faim les plus faibles, les moins adaptables et ceux qui ne sont pas nés du bon coté d’une frontière et vue d’enrichir ceux qui sont déjà riches à crever.
Il va falloir enlever les lunettes datées du XXe S. et lever le nez du guidon. On fait quoi pour prendre le virage et éviter le massacre ?
Parce que je n’ai rien contre une bonne compétition (moi aussi j’ai des cicatrices pour le prouver) ou la préservation de la souveraineté, mais “we need to get our priorities straight”, comme on dit dans la Valley. Dans le terroir, on dit plutôt qu’il faut remettre l’église au centre du village…
(Ça va mieux en l’écrivant : ce billet est garanti sans IA.)
mardi 16 juillet 2024
En vrac de juillet 2024
mardi 16 juillet 2024. En vrac
Bombage de torse
Cette semaine, le Standblog fête ses 22 ans ! ! Est-ce un hasard ou une démonstration que la persistance paye, je l’ignore, mais Le Technical Architecture Group du W3C nomme Tristan Nitot et Jeffrey Yasskin, et c’est assez classe.
erooM et numérique responsable
- La loi de Moore est morte et c’est une bonne nouvelle, un nouvel article publié sur le site de mon employeur.
- La suite, sur LinkedIn, est devenu viral et a dépassé les 700 000 vues en quelques jours. Ça n’est pas tant la viralité qui compte (c’est presque un défaut à mon sens), mais l’intérêt d’avoir un discours qui pousse une solution pour faire du numérique responsable, solution qui semble acceptable par ceux qui sont concernés (par opposition aux discours que j’ai pu tenir par le passé) ;
- Je découvre — Merci Patrick Chanezon — cet article d’Herb Sutter sur le changement d’architecture des ordinateurs qui a déjà 12 ans et aborde le fait que l’architecture des ordinateurs et smartphones va devenir massivement parallèle (nombreux coeurs) et hétérogène (CPU et GPU). Ses prédictions se réalisent, y compris la fin de la loi de Moore pour les processeurs x86… Malheureusement, il est complètement aveugle sur le fait qu’il faut d’une part réduire drastiquement réduire l’empreinte du numérique (comme toutes les activités humaines) et d’autre part que la fabrication du matériel représente l’essentiel de cette empreinte !
IA, numérique et limites planétaires
- Après Microsoft, Google voit ses émissions de CO₂ bondir à cause de l’IA ; “En raison des besoins en calcul informatique de l’intelligence artificielle, le groupe a vu ses émissions de gaz à effet de serre augmenter de 13 % en un an et de 48 % en cinq ans.” Pour des gens qui voulaient arriver à zéro émissions nettes, augmenter de 48 % doit faire bizarre.
- L’insoutenable coût écologique du boom de l’IA ;
- Bill Gates says not to worry about AI gobbling up energy, tech will adapt. Rappelons que rien qu’avec ses voyages en jet privé, il émet 3000 tonnes de CO2 par an. En 2022, il a pris 392 vols, soit plus d’un par jour en moyenne. Source : AI will be help rather than hindrance in hitting climate targets, Bill Gates says ;
- Après l’euphorie, les craintes d’une bulle autour de l’intelligence artificielle générative (malheureusement réservé aux abonnés). On notera que certains redoutent que l’IA générative ne décolle pas car elle coûte plus cher qu’elle ne va rapporter. Et encore, ils ne se placent que sur le plan financier, mais c’est déjà une quasi-certitude sur les plans environnemental et énergétique !
- The AI bubble is reaching a tipping point par Sequoia Capital ;
- Le marché du PC se stabilise… en attendant mieux. Deux facteurs peuvent re-accélérer le marché du PC :
- la fin du support de Windows 10, (besoin de changer de PC compatible Windows 11) va mécaniquement accélérer l’achat de PC
- L’exigence de PC dits Copilot+ équipés d’une puce dite “IA”. Dans les deux cas, c’est une très mauvaise nouvelle pour l’environnement, dans la mesure où nous assistons à deux manœuvres d’obsolescence programmée à grande échelle.
- 90 % des contenus du Web pourraient être générés par IA d’ici 2026 et ça pourrait bien tuer le Web. C’est con, hein !
- Dans le genre con (via Ploum) : Pourquoi certains casques audio FILAIRES exigent le Bluetooth ;
- Toujours via Ploum, Les mécanismes de compensation carbone expliqués à mon hamster ;
Très en vrac
- Le lanceur d’alerte Julian Assange conclut un accord de plaider-coupable avec la justice américaine
- Alerte rouge pour la couche d’ozone : les satellites Starlink en ligne de mire. Je crois que je vais commencer une nouvelle catégorie de ce blog du genre “Elon Musk est un con dangereux, une preuve supplémentaire”. (Bonus : une autre, et encore une autre) ;
- Les utopies fondatrices de la Silicon Valley continuent d’irriguer notre écosystème, selon Olivier Alexandre, un article qui donne suite à une présentation d’Olivier Alexandre donnée à la conférence USI (par OCTO, mon employeur) ;
- Je salue la sortie de la revue EnCommuns.net, dont l’équipe fondatrice explique la mission : Être une voix pour les communs. J’y ai apprécié un article de l’anthropologue Christopher Kelty, traduit de l’anglais par l’excellent Sébastien Broca : L’Internet que nous aurions pu avoir.
- Il est assez impressionnant de constater le potentiel des Véhicules Légers du quotidien :
- En 2023, seulement 15 % des Français perçoivent la voiture électrique comme une voiture accessible financièrement.
- 94% des déplacements quotidiens font moins de 40km.
- 60% des trajets quotidiens des Français font moins de 10km et sont donc réalisables avec des véhicules finalement plus proches du vélo que de la voiture : des tricycles ou quadricycles stables, permettant d’emporter un passager et des petits “bagages”, protégeant des intempéries, et “assistés” pour pouvoir se déplacer même quand on est bien fatigué, voire malade.
- 56 voitures sur 100 sont potentiellement remplaçables par un véhicule léger, ça pourrait se faire sans se priver, en se faisant du bien, en soulageant les routes et préservant les ressources planétaires. Et en créant au passage 75 000 emplois et en divisant par 4 le prix de la mobilité du quotidien.
- Derrière la campagne de désinformation contre RSF, Progressif Media, une boîte d’influence sulfureuse hébergée par Vivendi, le groupe contrôlé par Bolloré.
- Nous y voilà. Le bruit des bottes, le silence des pantoufles, un long article qui vise à répondre à la question suivante : “Une fois que l’extrême droite a gagné, que fait-on pour résister ?”
- Aucun rapport avec le lien juste au dessus, mais Apple a retiré les meilleurs apps de VPN de son AppStore, sans rien dire…
- Près de 50 ans après sa sortie, le CPU Z80 tire (presque) sa révérence. Il équipait mon ZX81 (premier ordinateur à moi tout seul) et a ensuite été utilisé dans plein de systèmes embarqués.
« billets précédents - page 1 de 2