mercredi 29 janvier 2025
Par Tristan,
mercredi 29 janvier 2025.
En vrac
- Un web moins NUL est-il possible ? Internet Exploreuses S02E04. Une partie sur le design et le son impact commence à 50 minutes, avec l’interview de la chercheuse Nolwenn Maudet ;
- interview de Nate Hagens (The Great Simplification), qui est un type super intéressant. Économiste de formation, il a une approche systémique. Parce qu’il voit dans l’énergie une partie importante du problème auquel on fait face, il est un peu jancoviciste, dans une certaine mesure, mais comme il est économiste et pas ingénieur, et qu’il a une pensée systémique, ça en fait quelqu’un de très intéressant. Dans sa vidéo, je recommande tout particulièrement les parties sur la grande simplificationla résilience mentale, les recommandations pour les jeunes et le rôle de l’IA à l’avenir.
- L’improbable pivot de Tusimple, qui passe d’une entreprise fabriquant des camions sans chauffeurs à une boite qui fait de l’IA générative. Cette boite a pivoté tellement que ça file le tournis !
- Portrait de David Maenda Kithoko, militant écologiste né au Congo. Une des personnes qui m’a le plus touché ces derniers temps. On regardera avec intérêt sa conférence Pour une écologie décoloniale du numérique, présentée à la récente Journée de l’écoconception numérique ;
- Amusant : la loi de Moore (et sa fin) appliquées à la photographie numérique par Sylvain Lepoutre. Le passage intéressant commence à 7:37 ;
- Tests unitaires, une philosophie et une aide face à son logiciel,
- après avoir sorti un abonnement à 200$ par mois, OpenAI se rend compte qu’ils perdent aussi de l’argent sur cet abonnement : les gens s’en servent à tort et à travers.. Rappelons qu’à une époque, faire tourner ChatGPT coûtait 700 000$ par jour rien qu’en électricité. OpenAI s’attend à 5 milliards de dollars de pertes pour un chiffre d’affaire de 3,7 milliards de dollars l’année dernière.
- De Wikipédia à OpenAI, les communs numériques font de la résistance
- L’open source, l’armée de l’ombre du logiciel… et de l’Intelligence artificielle ;
- Microsoft is using Bing to trick people into thinking they’re on Google
- Créer des jeux avec du vieux Permacomputing : agriculture et jeu vidéo, même combat ?, avec des gens comme Vincent Moulinet, artiste, curateur et développeur ; Everest Pipkin, artiste du Texas, autrice du Drift Mine Satellite ; Florent Deloison ; Chloé Desmoineaux, artiste, queer et créateurice du FluidSpace ; Nikita Semenoff, artiste, développeur de jeux vidéos ;
- Resurrecting the minimalistic Dillo web browser “to force ourselves to keep the browser small and simple, the next releases will continue to fit inside a floppy disk (1.44 MB)” <3
- Living on Mars would probably suck — here’s why, une interview de deux auteurs du livre “A City On Mars”
Empreinte du numérique
- L’ADEME publie une mise à jour de son Evaluation de l’impact environnemental du numérique en France. “Cette étude vise à mettre à jour les données de l’étude menée avec l’Arcep en 2020 sur l’évaluation de l’impact environnemental du numérique en France, aujourd’hui et demain. En effet, n’avait été pris en compte dans les hypothèses de l’étude de 2020, que les data centers situés sur le territoire français. Or une partie importante des usages en France sont hébergés à l’étranger (environ 53 %) ce qui représente des impacts très loin d’être négligeables. Par ailleurs, entre 2020 et 2022, le mix entre les télévisions OLED et LCD-LED a varié au profit des télévisions OLED plus grandes et plus impactantes ainsi que les usages notamment due à l’arrivée massive de l’IA.” (mais qui aurait pu prévoir, comme disait l’autre ?) ;
- À la question fréquemment posée : “Combien d’électricité vont utiliser les datacentres ?”, Brian O’Kelley répond : “According to Lawrence Berkeley National Laboratory, in 2023, data centers consumed 4.4% of US electricity. Driven by demand for generative AI, data centers may consume as much as 12% by 2028, more than the electricity used by California, Florida, and New Jersey combined.” Dans un contexte plus européen : “The projected data center electricity use in 2028 would be enough to power Germany” d’après l’IAE ;
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI, un papier scientifique (encore un avec la participation de l’excellente Sasha Luccioni et de Gaël Varoquaux, ) sur le fait qu’un modèle de LLM avec plus de paramètre consomme plus, mais n’est pas forcément mieux. Au risque de susciter des pensées malvenues, “plus gros n’est pas forcément mieux” (oui, ça s’applique aussi à la taille des bagnoles !). Le papier évoque aussi la loi de Wirth (aka “ce qu’Intel vous donne, Microsoft vous le reprend” dans les années 2000) et explique que maintenant, en substance, “ce que Nvidia vous vend, les LLM vous le reprenne”, en consommant sans cesse plus de ressources numériques. On n’a pas l’arrière-train sorti des ronces !
- Microsoft won’t support Office apps on Windows 10 after October 14th Microsoft annonce que “refreshing an old Windows 10 PC will be more important than buying a new TV or phone this year”. Je hurle d’entendre ce mot “rafraîchir” qui signifie en fait “jeter à la benne (ou passer sous GNU/Linux) un ordinateur qui fonctionne très bien juste parce que ça arrange Microsoft et les vendeurs de PC”.
- L’IA devrait doubler sa consommation d’électricité dans les 5 années à venir, explique Deloitte. Next détaille en français et montre que ça devrait se faire principalement à partir de gaz naturel;
- Generative AI – The Power and the Glory, un très long article sur l’IA, l’énergie nécessaire pour la faire tourner, et son futur. Dans sa phrase “Which wins: Koomey’s Law or the Jevons effect?”, j’aime l’opposition entre loi de Koomey (la consommation d’énergie pour faire 1 opération informatique diminue au même rythme que la loi de Moore) et paradoxe de Jevons (moins ça coûte cher, plus on en fait), en se demandant qui va gagner. Simon Willison en a fait un très bon résumé ;
- Article de juillet 2024 par Nvidia : How AI and Accelerated Computing Are Driving Energy Efficiency où la firme explique avoir optimisé d’un facteur 45 000 sur 8 ans l’efficacité énergétique de ses puces, via ce graphe : LLM inference energy consumption plummeted 45,000x in eight years, thanks to advances in NVIDIA GPUs. . L’article ajoute qu’il y aurait un gain d’efficacité énergétique d’un facteur 25 entre les puces Nvidia Hopper (2022) et Blackwell (2024) lors d’inférence IA. Une question me taraude : dans quelles proportions ont augmenté les ventes de GPU Nvidia sur la même période ? Rien d’illogique à cela, ça s’appelle le paradoxe de Jevons ;
- L’iA o3 d’OpenAI vient d’obtenir un score incroyable au test ARC-AGI-1 en réussissant 87,5% des tests. Rappelons que GPT-3, en 2020, avait 0% de bonne réponses, GPT-4o obtenait 5% en 2024. Et là, on passe à 87,5% de bonnes réponses ! Deux points importants toutefois :
- Certains exercices sont triviaux pour des humains, mais l’IA se plante complètement alors qu’elle réussit des tests très similaires.
- Le coût des ressources mobilisées pour passer le test sont astronomiques : environ 350 000$ si mes calculs sont exacts, vu le prix des puces, des infrastructures et de l’énergie consommée pour faire tourner l’IA le temps du test. Sur la fin de l’article, on voit quels problèmes ne peuvent pas être résolus par l’IA, alors qu’un collégien y arriverait probablement.
- Le site OurWorldInData est une source très riche de données en tous genres. Je viens de découvrir (merci Maxime !) un graphe des données d’entrainement de modèles d’IA, qui donne un peu le vertige. Comparons un gros modèle de juin 2009, GPU DBNs et un autre gros modèle, Grok 2, d’août 2024. Le second a nécessité 53 milliards de fois plus de puissance de calcul que le premier, à 15 ans de différence.
- Dans le même genre, on constate que les coûts de calcul pour et donc de recherche sur l’IA augmentent tellement vite que seuls les industriels peuvent faire de la recherche, parfois en partenariat avec le monde académique. Auparavant, les labos universitaires menaient seuls la recherche en IA, mais l’explosion des coûts de calculs pour entraîner un modèle ont changé les choses.
- Sasha Luccioni - IA et Crise Climatique : Prêts pour le Choc ? dans TrenchTech S04E02 est un vrai bonheur !
- Magnifique citation d’un analyste de Morgan Stanley Research : “We think the huge step up in energy needs is not well understood by the market and hasn’t been priced into a number of stocks.” En français : “nous pensons que l’augmentation brutale des besoins énergétiques n’a pas été bien comprise par la marché et n’a pas été prise en compte dans le prix d’un certain nombre d’actions”. Comprendre : quand on va réaliser ce que ça coûte vraiment, les gens vont reconsidérer leur usage de l’IA. Et encore, il ne parle que de prix de l’énergie, pas du coût environnemental ! On notera que l’article date de mars 2024, mais reste d’actualité, plus encore même aujourd’hui !
- L’ami Simon Willison a publié un article LLMs in 2024, un récapitulatif de ce qu’il a appris en 2024 sur l’IA et les LLM. Il y a deux sections particulièrement intéressantes : The environmental impact got better (gros progrès sur l’optimisation des LLM, c’est bien) et l’impact environnemental a beaucoup empiré (on construit et prévoit de construire beaucoup plus d’infrastructures numériques pour accompagner l’hypercroissance de l’IA, bref, on optimise et ça fait un méga effet rebond). Mais c’est beaucoup vu sous deux angles classiques des techno-solutionnistes : “c’est un problème de capital” / “c’est un problème d’énergie”. Mais le problème est bien plus large à mon sens : c’est un problème de limites planétaires. Du coup j’ai fait un article en anglais qui est une traduction d’un billet LinkedIn en français ;
Mobilité
Merdification
- Vers un internet plein de vide ?, sur l’AI slop, d’Hubert Guillaud ;
- Apple reconnait que Siri a enregistré des conversations sans consentement et “a accepté de payer 95 millions de dollars pour sceller une action en justice” ;
- ‘J’ai adoré Twitter et détesté ce que c’est devenu’ explique Tristan Nitot ; une interview de votre serviteur par le journaliste belge Damien van Achter. Avec des vrais morceaux de gros mots dedans.
- Spotify, la machine à humeur, une plongée fascinante dans le business model de Spotify, par le toujours excellent Hubert Guillaud. Voir aussi « Pour les dirigeants de Spotify, l’utilisateur moyen de la plateforme ne remarquera pas si les chansons sont produites par de faux artistes » ;
- IA : le coup de gueule de Paul McCartney. D’un coté, je suis d’accord : l’IA des milliardaires pille les contenus sous Copyright alors que les ayants-droits traînent en justice les amateurs de musique. Mais je trouve l’argument de McCartney un peu faible. Finalement, c’est plus la conclusion de l’article qui m’interpelle : “Deezer, la plateforme de streaming française, a ainsi décidé d’exclure les contenus générés par l’IA. « Nos équipes ont développé en interne, pendant un an, un outil qui permet de détecter les morceaux créés par l’intelligence artificielle », - soit un titre sur dix envoyé chaque jour sur Deezer -, a indiqué dans La Tribune Dimanche, ce dimanche, Alexis Lanternier, son directeur général.”
- Je lis occasionnellement Ed Zitron, mais là, je me retrouve vraiment dans ses propos (sauf que lui explique les choses mieux que moi). La forme est amusante au début, fatigante à la fin, mais vise presque toujours juste. Deux exemples, publiés de décembre dernier :
- Meta abandons fact-checking on Facebook and Instagram in favor of Community Notes. Au passage les modérateurs de Meta sont délocalisés de Californie (démocrate) au Texas, état très conservateur : Zuckerberg says he’s moving Meta moderators to Texas because California seems too ‘biased’. Les conséquences ne tardent pas : Meta Now Lets Users Say Gay and Trans People Have ‘Mental Illness’ ;
Complètement en vrac
- Je suis assez fan de Nate Haggens, découvert via le podcast Sismique. Je vient d’écouter sa présentation Les 9 traits de caractère historiques qui desservent l’humanité, dans le cadre de son travail The great simplification, “a podcast that explores the systems science underpinning the human predicament. Conversation topics will span human behavior, monetary/economic systems, energy, ecology, geopolitics and the environment. The goal of the show is to inform more humans about the path ahead and inspire people to play a role in our collective future”. On regardera avec intérêt sa vidéo 7 philosophies on the future ;
- Les deux articles du Monde sur la pollution aux PFAS sont fascinants :
- De l’AGI à la Super-Intelligence : OpenAI redéfinit ses ambitions. Un article qui laisse un drôle de goût dans la bouche. D’un coté, l’intelligence artificielle générale (IAG, une IA aussi intelligente que l’humain) serait à portée de main, grâce à des progrès du modèle o3 d’OpenAI. De l’autre, une utilisation hallucinante d’énergie : “un coût d’exécution total du test dépassant largement plusieurs centaines de milliers de dollars” alors que… “o3 échoue encore sur des tests triviaux pour les humains”.
- ‘I spent 30 years searching for secret to happiness - the answer isn’t what I thought’. Je tombe “pasr hasard” sur cet article alors que je repensais le matin même, à vélo, à la prière de la sérénité, me disant qu’il fallait que je la publie sur le Standblog. Sauf que je l’ai déjà fait il y a déjà 9 ans : Deux astuces pour rester serein ;
- Salut nazi et conquête de Mars, une interview d’Irénée Régnault par Reporterre ;
- Bishop Mariann Edgar Budde appeals to President Trump to have mercy upon immigrants and minorities. La femme évèque Mariann Edgar Budde, dans son sermon, explique au président Trump, présent, que Dieu s’attend à ce qu’il fasse preuve de pitié envers les migrants et les minorités. ;
vendredi 20 décembre 2024
Par Tristan,
vendredi 20 décembre 2024.
En vrac
- Sortie du Raspberry Pico 2 W à 8 €. C’est là qu’on voit que la puissance d’un ordinateur du début des années 1990 sous MS-DOS vaut maintenant 8 € et mesure 21 mm x 51 mm et dispose en plus du Wifi et du Bluetooth ;
- Les propriétaires de Tesla gênés par les frasques d’Elon Musk achètent des autocollants en masse . “Je l’ai achetée avant qu’on ne découvre qu’il était cinglé” ou “Club Tesla Anti-Elon”.
- ‘Enshittification’ nommé mot de l’année par un dictionnaire australien. Mot inventé en 2022 par Cory Doctorow et désignant le fait que les plateformes massivement utilisées finissent après une période de succès auprès des citoyens par se solder auprès des marques pour augmenter leurs bénéfices avant enfin de trahir les marques pour maximiser encore plus les profits.
- Pourquoi les médias devraient créer des serveurs Mastodon maintenant, par le responsable réseaux sociaux de Médiapart (article en accès libre) ;
- Il faut respecter les limites de notre planète pour sauver nos démocraties expliquent dans une tribune plus d’une centaine de chercheurs qui veulent s’assurer que les lois à venir sont compatibles avec les limites planétaires. Brillante idée !
- Modixia, une entreprise française qui produit des PC de bureau à partir de PC portables qu’ils reconditionnent. Deux modèles : PC Restart et PC Infinity
- 101 millions de m3 d’eau par an, telle est la consommation annuelle du fabricant de semiconducteurs TSMC. Cela a doublé par rapport à 6 ans plus tôt.
- Pour ceux qui font des présentations sur l’IA, au lieu de faire faire des bouses par MidJourney ou Dall-E (des IA génératives), voici des travaux humains sous licence CC-BY BetterImagesOfAI.org. C’est très inégal, mais j’ai bien aimé Clickworker abyss by Max Gruber, GPU shot 3 Models built from Fossils et Silicon Closeup ;
- Il y a un coté jouissif à voir la différence entre ce qui nous est promis et ce qui nous est livré. Par exemple, on entend souvent des entreprises dire “on va émettre du CO2, mais c’est pas grâce, on va le capture de façon croissante, comme ça, on peut continuer comme avant”. Bref, le discours du business as usual. Et puis on tombe sur Carbon capture, utilisation and storage, de l’agence internationale de l’énergie. On nous promet des capacités de capture du CO2, avec quasiment autant de stockage du CO2 capturé. Et ça fait des années que ça dure. Sauf que l’IAE a comparé les promesses (sans cesse croissantes) à ce qui est actuellement opérationnel et tristement plat. Ça serait drôle si ça n’était pas si triste !
- Microsoft now allows Windows 11 installations on unsupported hardware, devices, but with several caveats. Il y a encore une semaine, ils proclamaient que la puce TPM 2.0 était indispensable pour installer Windows 11, et finalement non, comme l’explique la page de support ‘Installer Windows 11 sur des systèmes non supportés’. C’est tellement bizarre de voir Microsoft osciller entre la position “moi vivant, jamais” et “vous savez bien qu’on est des gentils”. Ca discrédite largement la parole de Redmond, quand même. Et changeront-ils encore d’avis pour exiger la présence de puce TPM 2.0 la semaine prochaine ou pas ? Est-ce que le fait que la popularité de Windows 10 remonte (si, si !) joue un rôle ? Aux dernières nouvelles, Windows 10 est à 62% et Windows 11 à 35% ;
- On me demande parfois si l’humanité va disparaitre avec le changement climatique et le franchissement des limites planétaires. Je pense que non, et un article l’explique bien : Quand seulement un millier d’humains peuplaient la Terre. “98,7 % de nos ancêtres auraient été balayés par cet épisode, laissant à peine quelques centaines de génomes porter l’avenir de l’humanité. « Le modèle a détecté une réduction de la taille de la population de nos ancêtres d’environ 100 000 à environ 1 000 individus », peut-on lire. Par ailleurs, au-delà du nombre d’individus surprenamment bas, ce qui intrigue le plus est la durée de ce goulot d’étranglement. L’étude suggère que nos ancêtres ont réussi à survivre en nombre précairement réduit pendant une période extrêmement longue : environ 120 000 ans.” Si 99% des terriens du XXIe S. venaient à disparaître, ça ferait quand même pas loin de 8 à 10 milliards de morts prématurés. Le moins qu’on puisse dire, c’est ça va faire une bonne dose de souffrance… Comme le dit le militaire Christophe Mangeant, “Si vis pacem, para transicum” (“si tu veux la paix, prépare la transition”).
- D’ailleurs, je recommande sa présentation du modèle World 3 (Limits to Growth) des époux Meadows (ça vous évitera la lecture de l’excellent Les Limites à la croissance) ;
- J’étais sur BFM Business pour Le débrief de la Tech du 16/12/2024 ;
- À quel climat s’adapter en France selon la TRACC ? Partie 1 Concepts et données de base pour les températures et précipitations ;
- Podcast GEO : Data centers de Seine-Saint-Denis, les lourds impacts de nos données numériques ;
- Ethical Web Principles: Building a better web par mon collègue du TAG Daniel Appelquist ;
- Taïwan, histoires mêlées et futurs orageux de la numérisation, un article long et complet de l’excellent Gauthier Roussilhe ;
- L’Arcep et l’ADEME annoncent la création de l’observatoire des impacts environnementaux du numérique ;
- Podcast L’IA est une nouvelle bombe climatique par les excellents Lou Welgryn et Théo Alves da Costa de DataForGood ;
mercredi 18 décembre 2024
Par Tristan,
mercredi 18 décembre 2024.
En vrac
- Quelques statistiques troublantes sur le nombre d’images générées par l’IA. En gros, sur 18 mois, l’IA génère 15 milliards d’images (données de 2023, cela a sûrement beaucoup augmenté depuis). Cela a pris 149 ans à la photo argentique pour atteindre le même nombre…
- Comment faire face à la crise de l’énergie de l’IA ?
- On me demande comment l’IA et le cloud contribuent au changement climatique. Prenons l’exemple de l’Irlande, dont le réseau électrique est saturé. Du coup, les datacentres ont plus recours aux groupes électrogènes de secours qui fonctionnent au diesel. Coté pollution et émissions de GES, c’est une horreur : Ireland’s data centres turning to fossil fuels after maxing out country’s electricity grid. Dans le même genre, on se souviendra de l’article de Reuters : Data-center reliance on fossil fuels may delay clean-energy transition. Bref, si votre entreprise utilise du Cloud, il est impératif d’avoir une approche GreenOps, en plus d’EROOM.
- Je suis un grand fan du travail de la très prolixe Mathilde Saliou, qui travaille chez les copains et copines de Next.ink (ex Next-INpact). On connaissait ses articles, sa newsletter Technoculture. Mes collègues d’Octo et moi l’avons même invitée à notre podcast Frugarilla, épisode 12. Mais là, je viens d’écouter l’épisode 4 : IA qu’à algorithmiser le climat ? de son podcast Algorithmique sur l’empreinte climatique de l’IA, et autant le dire directement : c’est vraiment un boulot génial, fouillé et très pédagogique. Bref, je suis encore plus fan !
- 54 % des articles anglophones de plus de 100 mots sur LinkedIn sont écrits par une IA ;
- À quoi pourrait ressembler de l’IA essentielle, (on pourrait aussi l’appeler Right AI) ? Utile aux gens, surtout ceux qui éprouvent des difficultés à cet instant, ne nécessitant pas de nouveau matériel, utilisable en local, sans perte de données personnelles… J’ai peut-être un bon exemple : l’ajout de texte alternatif aux images des PDF dans Firefox 130. C’est encore à l’état expérimental et chacun peut aider. Bravo à l’ami Tarek Ziadé et son équipe pour cette belle avancée !
- JM Jancovici se demande si l’IA va sauver le climat puis répond sur sa consommation d’énergie. C’est punchy, comme toujours. En deux formats : Audio sur RTL (3 mn 23 sec) et format texte (coucou Thierry !) sur LinkedIn ;
- Article d’Alain Lefèbvre : IA, comment s’est-on fait berner encore une fois ? qui compare l’IA aux voitures autonomes, cryptomonnaies et métavers. Je le trouve un peu sévère, mais il lève deux points importants : 1 - Les retours décroissants, à savoir qu’augmenter la quantité de données donne de moins bons résultats qu’avant. 2 - les IA s’entrainent de plus en plus sur des données… générées par des IA. Ce qui ne va pas aider à améliorer la qualité des résultats. Il écrit “On se retrouve dans le syndrome de la photocopieuse qui recopie ses propres pages jusqu’à ce que ces dernières soient complètement illisibles (pour en savoir plus à ce sujet)” (voir le lien “statistiques troublantes” dans ce billet).
- Les pénuries d’électricité menacent 40 % des centres de données d’IA d’ici 2027, selon Gartner. “Les analystes prédisent parallèlement une croissance exponentielle de la consommation énergétique des IA de 160% au cours des deux prochaines années ! […] l’énergie requise pour faire fonctionner les serveurs optimisés pour l’IA atteindra 500 térawattheures (TWh) par an en 2027, soit 2,6 fois le niveau enregistré en 2023.”
- C’est vieux (2021) mais très bon car très didactique : Faire de l’IA avec des circuits analogiques pour réduire drastiquement la consommation électrique. “The most basic computation in an artificial neural network is called multiply and accumulate. The output of artificial neurons are multiplied by the weight values connecting them to the next neuron. That neuron sums its inputs and applies an output function. In analog AI, the multiply function is performed by Ohm’s Law, where the neuron’s output voltage is multiplied by the conductance representing the weight value. The summation at the neuron is done by Kirchhoff’s Current Law, which simply adds all the currents entering a single node”. Traduction en français par mes soins : “L’opération de base dans un réseau de neurones consiste à multiplier puis ajouter. La sortie des neurones est multipliée par les poids les connectant au prochain neurone. Ce neurone additionne ses entrées et les applique une fonction de sortie. En IA analogique, la multiplication est faite par la Loi d’Ohm (U=R.i), où le voltage de sortir du neurone est multiplié par la conductivité, qui représente le poids. L’addition se fait elle grâce à la loi des noeuds de Kirchhoff, qui permet d’additionner tous les courants qui entrent dans un seul noeud. Cela commence à devenir une réalité industrielle ;
- Dans une veine comparable à celle ci-dessus, on explore aussi comment faire de l’IA avec des circuits faisant circuler des photons plutôt que des électrons. Le photon : la solution pour une IA ultrarapide et économe en énergie ?. Papier scientifique (nécessite un abonnement) : Single-chip photonic deep neural network with forward-only training ;
- Interview d’Yves Citton, théoricien de la littérature et des médias à propos de l’IA et du philosophe des techniques Vilém Flusser (1920–1991) ;
- sur LinkedIn, plus de la moitié des publications sont désormais dues à une IA ;
- Introducing ChatGPT Pro, pour la bagatelle de 200$ par mois. Ca commence à ressembler au vrai prix de la chose. On parie que les versions gratuites ou à 20$ vont se dégrader en qualité dès que la concurrence sera jugée comme étant suffisamment loin derrière ? J’imagine assez bien qu’il sera possible pour des annonceurs de faire que leur marque ou leurs produits soient cités dans les réponses gratuites moyennant finance. Et des modèles moins cher et moins rapides dans la version à 20$ par mois…
- Ah justement, le Financial Times dévoile le pot aux roses : OpenAI explores advertising as it steps up revenue drive? OpenAI envisage la pub. Vous auriez plus confiance dans les propos d’un ami ou dans ceux d’un inconnu payé pour vous vendre des trucs ?
- L’intelligence artificielle : une révolution technologique aux lourdes conséquences environnementales. C’est toujours bien d’avoir ce genre d’article, mais le problème c’est qu’il aborde le problème d’un point de vue strictement énergétique, qui n’est qu’une toute petite partie du problème. La conso d’eau pour produire les semiconducteurs (GPU et CPU) ? Rien. Les mines pour produire le hardware ? Rien.
- Le (vrai) coût climatique de l’IA qui cite par exemple The Environmental Impacts of AI — Primer de l’excellente Sasha Luccioni (Hugging Face) ;
- Thinking about using AI? Here’s what you can and (probably) can’t change about its environmental impact. par Hannah Smith et Chris Adams de la Green Web Foundation (ça date du 25/10/2024) ;
- Start at the end la transcription d’une conférence très inspirante, par Hannah Smith (la même qu’au dessus, toujours de la Green Web Foundation) ;
- Une solution de Google pour détecter le contenu généré par IA ? ;
- Interview de Quentin Sombsthay sur les travailleurs du clic, ces personnes sous-payées pour faire un travail abrutissant d’annotation de données utilisées pour entraîner l’Intelligence artificielle. Il y rapporte les propos d’un de ces précaires : « Il n’y a pas d’intelligence artificielle, seulement l’intelligence africaine. » ;
- j’ai enfin vu la présentation TED de Sasha Luccioni ‘L’IA est dangereuse mais pas pour les raisons auxquelles vous pensez’ . Aborder les relations entre l’IA et le changement climatique, le copyright et les biais en 11 minutes sans perdre tout le monde, c’est quand même une sacrée réussite ! Bon, évidemment, on n’a pas le temps de creuser le problème en profondeur, mais c’est lié au format, pas au talent de la personne.
- Toujours de Sasha Luccioni, sur l’empreinte environnementale des LLM (les algos d’IA générative façon ChatGPT) Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model, qui est un des très rares papiers scientifiques sur le sujet ;
- “Une courte conversation (quelques interactions) avec le dernier modèle de ChatGPT émet environ 0,27 kilogramme d’équivalent CO2 (eqCO2), soit près d’une tonne de CO2 par an pour dix échanges par jour. C’est la moitié de ce que l’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.” ;
- Pourquoi la bulle de l’IA ne devrait pas éclater… malgré des inquiétudes légitimes. Mouais. Le raisonnement de la fin me paraît discutable : certes, aucun investisseur n’a intérêt de voir la bulle de l’IA exploser. Mais si le retour sur investissement de l’IA n’est pas au rendez-vous, alors les entreprises clientes vont réduire leurs dépenses, les gains promis risquent de ne pas se concrétiser et alors la bulle éclatera, que les investisseurs le veuillent ou non !
- C’est vieux (juillet 2024), mais c’est précieux et à conserver dans le dossier marqué “Elon est un dangereux fumier” : Il fait tourner son méga datacentre d’IA… au Diesel. Quelques chiffres qui donnent le tournis : chaque GPU H100 consomme 700 W. Il en a 100 000. Plus tout le matériel autour. Donc 70 megawatts juste pour les GPU. Tout ça au Diesel. J’ai vomi.
- Sur LinkedIn, le journaliste Benoit Raphael utilise l’IA Sora d’OpenAI pour générer une vidéo très ratée. C’est fascinant de monstruosité. Et la mention “je l’ai essayée depuis Bali” n’apporte pas de réconfort (l’accès n’est pas encore autorisé depuis la France).
- Les projets de datacentres pour l’IA filent le tournis tellement les chiffres sont monstrueux. Is Microsoft & OpenAI’s 5GW Stargate supercomputer feasible? Microsoft prépare un datacentre géant pour l’IA. Consommation prévue : 5 GW. Soit 5 réacteurs nucléaires. Coût estimé : 30 à 40 milliards de dollars. Temps estimé : 10 ans de construction. Rien que pour l’électricité. D’aucun pensent que c’est un projet trop gros, même pour Microsoft. Un autre projet de datacentre, à Mount Pleasant, dans le Wisconsin, couvrirait plus de 400 hectares à lui tout seul. (Ça fait un carré de 2 km de coté).
- Vidéo de la Quadrature du Net : Ce n’est pas de l’IA, c’est une immense infrastructure écocide, avec une visite de Marseille et comment les datacentres qui s’y trouvent monopolisent les ressources : l’eau fraîche de qualité potable, l’électricité qui pourrait être utilisée pour électrifier le port de Marseille et réduire la pollution des navires à quai, et le littoral.