« La merdification de Twitter et des plateformes en
- Les problèmes sociétaux du déploiement massif de »
En vrac de janvier
Par Tristan,
mercredi 29 janvier 2025.
Lien permanent
En vrac
- Un web moins NUL est-il possible ? Internet Exploreuses S02E04. Une partie sur le design et le son impact commence à 50 minutes, avec l’interview de la chercheuse Nolwenn Maudet ;
- interview de Nate Hagens (The Great Simplification), qui est un type super intéressant. Économiste de formation, il a une approche systémique. Parce qu’il voit dans l’énergie une partie importante du problème auquel on fait face, il est un peu jancoviciste, dans une certaine mesure, mais comme il est économiste et pas ingénieur, et qu’il a une pensée systémique, ça en fait quelqu’un de très intéressant. Dans sa vidéo, je recommande tout particulièrement les parties sur la grande simplificationla résilience mentale, les recommandations pour les jeunes et le rôle de l’IA à l’avenir.
- L’improbable pivot de Tusimple, qui passe d’une entreprise fabriquant des camions sans chauffeurs à une boite qui fait de l’IA générative. Cette boite a pivoté tellement que ça file le tournis !
- Portrait de David Maenda Kithoko, militant écologiste né au Congo. Une des personnes qui m’a le plus touché ces derniers temps. On regardera avec intérêt sa conférence Pour une écologie décoloniale du numérique, présentée à la récente Journée de l’écoconception numérique ;
- Amusant : la loi de Moore (et sa fin) appliquées à la photographie numérique par Sylvain Lepoutre. Le passage intéressant commence à 7:37 ;
- Tests unitaires, une philosophie et une aide face à son logiciel,
- après avoir sorti un abonnement à 200$ par mois, OpenAI se rend compte qu’ils perdent aussi de l’argent sur cet abonnement : les gens s’en servent à tort et à travers.. Rappelons qu’à une époque, faire tourner ChatGPT coûtait 700 000$ par jour rien qu’en électricité. OpenAI s’attend à 5 milliards de dollars de pertes pour un chiffre d’affaire de 3,7 milliards de dollars l’année dernière.
- De Wikipédia à OpenAI, les communs numériques font de la résistance
- L’open source, l’armée de l’ombre du logiciel… et de l’Intelligence artificielle ;
- Microsoft is using Bing to trick people into thinking they’re on Google
- Créer des jeux avec du vieux Permacomputing : agriculture et jeu vidéo, même combat ?, avec des gens comme Vincent Moulinet, artiste, curateur et développeur ; Everest Pipkin, artiste du Texas, autrice du Drift Mine Satellite ; Florent Deloison ; Chloé Desmoineaux, artiste, queer et créateurice du FluidSpace ; Nikita Semenoff, artiste, développeur de jeux vidéos ;
- Resurrecting the minimalistic Dillo web browser “to force ourselves to keep the browser small and simple, the next releases will continue to fit inside a floppy disk (1.44 MB)” <3
- Living on Mars would probably suck — here’s why, une interview de deux auteurs du livre “A City On Mars”
Empreinte du numérique
- L’ADEME publie une mise à jour de son Evaluation de l’impact environnemental du numérique en France. “Cette étude vise à mettre à jour les données de l’étude menée avec l’Arcep en 2020 sur l’évaluation de l’impact environnemental du numérique en France, aujourd’hui et demain. En effet, n’avait été pris en compte dans les hypothèses de l’étude de 2020, que les data centers situés sur le territoire français. Or une partie importante des usages en France sont hébergés à l’étranger (environ 53 %) ce qui représente des impacts très loin d’être négligeables. Par ailleurs, entre 2020 et 2022, le mix entre les télévisions OLED et LCD-LED a varié au profit des télévisions OLED plus grandes et plus impactantes ainsi que les usages notamment due à l’arrivée massive de l’IA.” (mais qui aurait pu prévoir, comme disait l’autre ?) ;
- À la question fréquemment posée : “Combien d’électricité vont utiliser les datacentres ?”, Brian O’Kelley répond : “According to Lawrence Berkeley National Laboratory, in 2023, data centers consumed 4.4% of US electricity. Driven by demand for generative AI, data centers may consume as much as 12% by 2028, more than the electricity used by California, Florida, and New Jersey combined.” Dans un contexte plus européen : “The projected data center electricity use in 2028 would be enough to power Germany” d’après l’IAE ;
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI, un papier scientifique (encore un avec la participation de l’excellente Sasha Luccioni et de Gaël Varoquaux, ) sur le fait qu’un modèle de LLM avec plus de paramètre consomme plus, mais n’est pas forcément mieux. Au risque de susciter des pensées malvenues, “plus gros n’est pas forcément mieux” (oui, ça s’applique aussi à la taille des bagnoles !). Le papier évoque aussi la loi de Wirth (aka “ce qu’Intel vous donne, Microsoft vous le reprend” dans les années 2000) et explique que maintenant, en substance, “ce que Nvidia vous vend, les LLM vous le reprenne”, en consommant sans cesse plus de ressources numériques. On n’a pas l’arrière-train sorti des ronces !
- Microsoft won’t support Office apps on Windows 10 after October 14th Microsoft annonce que “refreshing an old Windows 10 PC will be more important than buying a new TV or phone this year”. Je hurle d’entendre ce mot “rafraîchir” qui signifie en fait “jeter à la benne (ou passer sous GNU/Linux) un ordinateur qui fonctionne très bien juste parce que ça arrange Microsoft et les vendeurs de PC”.
- L’IA devrait doubler sa consommation d’électricité dans les 5 années à venir, explique Deloitte. Next détaille en français et montre que ça devrait se faire principalement à partir de gaz naturel;
- Generative AI – The Power and the Glory, un très long article sur l’IA, l’énergie nécessaire pour la faire tourner, et son futur. Dans sa phrase “Which wins: Koomey’s Law or the Jevons effect?”, j’aime l’opposition entre loi de Koomey (la consommation d’énergie pour faire 1 opération informatique diminue au même rythme que la loi de Moore) et paradoxe de Jevons (moins ça coûte cher, plus on en fait), en se demandant qui va gagner. Simon Willison en a fait un très bon résumé ;
- Article de juillet 2024 par Nvidia : How AI and Accelerated Computing Are Driving Energy Efficiency où la firme explique avoir optimisé d’un facteur 45 000 sur 8 ans l’efficacité énergétique de ses puces, via ce graphe : LLM inference energy consumption plummeted 45,000x in eight years, thanks to advances in NVIDIA GPUs. . L’article ajoute qu’il y aurait un gain d’efficacité énergétique d’un facteur 25 entre les puces Nvidia Hopper (2022) et Blackwell (2024) lors d’inférence IA. Une question me taraude : dans quelles proportions ont augmenté les ventes de GPU Nvidia sur la même période ? Rien d’illogique à cela, ça s’appelle le paradoxe de Jevons ;
- L’iA o3 d’OpenAI vient d’obtenir un score incroyable au test ARC-AGI-1 en réussissant 87,5% des tests. Rappelons que GPT-3, en 2020, avait 0% de bonne réponses, GPT-4o obtenait 5% en 2024. Et là, on passe à 87,5% de bonnes réponses ! Deux points importants toutefois :
- Certains exercices sont triviaux pour des humains, mais l’IA se plante complètement alors qu’elle réussit des tests très similaires.
- Le coût des ressources mobilisées pour passer le test sont astronomiques : environ 350 000$ si mes calculs sont exacts, vu le prix des puces, des infrastructures et de l’énergie consommée pour faire tourner l’IA le temps du test. Sur la fin de l’article, on voit quels problèmes ne peuvent pas être résolus par l’IA, alors qu’un collégien y arriverait probablement.
- Le site OurWorldInData est une source très riche de données en tous genres. Je viens de découvrir (merci Maxime !) un graphe des données d’entrainement de modèles d’IA, qui donne un peu le vertige. Comparons un gros modèle de juin 2009, GPU DBNs et un autre gros modèle, Grok 2, d’août 2024. Le second a nécessité 53 milliards de fois plus de puissance de calcul que le premier, à 15 ans de différence.
- Dans le même genre, on constate que les coûts de calcul pour et donc de recherche sur l’IA augmentent tellement vite que seuls les industriels peuvent faire de la recherche, parfois en partenariat avec le monde académique. Auparavant, les labos universitaires menaient seuls la recherche en IA, mais l’explosion des coûts de calculs pour entraîner un modèle ont changé les choses.
- Sasha Luccioni - IA et Crise Climatique : Prêts pour le Choc ? dans TrenchTech S04E02 est un vrai bonheur !
- Magnifique citation d’un analyste de Morgan Stanley Research : “We think the huge step up in energy needs is not well understood by the market and hasn’t been priced into a number of stocks.” En français : “nous pensons que l’augmentation brutale des besoins énergétiques n’a pas été bien comprise par la marché et n’a pas été prise en compte dans le prix d’un certain nombre d’actions”. Comprendre : quand on va réaliser ce que ça coûte vraiment, les gens vont reconsidérer leur usage de l’IA. Et encore, il ne parle que de prix de l’énergie, pas du coût environnemental ! On notera que l’article date de mars 2024, mais reste d’actualité, plus encore même aujourd’hui !
- L’ami Simon Willison a publié un article LLMs in 2024, un récapitulatif de ce qu’il a appris en 2024 sur l’IA et les LLM. Il y a deux sections particulièrement intéressantes : The environmental impact got better (gros progrès sur l’optimisation des LLM, c’est bien) et l’impact environnemental a beaucoup empiré (on construit et prévoit de construire beaucoup plus d’infrastructures numériques pour accompagner l’hypercroissance de l’IA, bref, on optimise et ça fait un méga effet rebond). Mais c’est beaucoup vu sous deux angles classiques des techno-solutionnistes : “c’est un problème de capital” / “c’est un problème d’énergie”. Mais le problème est bien plus large à mon sens : c’est un problème de limites planétaires. Du coup j’ai fait un article en anglais qui est une traduction d’un billet LinkedIn en français ;
Mobilité
Merdification
- Vers un internet plein de vide ?, sur l’AI slop, d’Hubert Guillaud ;
- Apple reconnait que Siri a enregistré des conversations sans consentement et “a accepté de payer 95 millions de dollars pour sceller une action en justice” ;
- ‘J’ai adoré Twitter et détesté ce que c’est devenu’ explique Tristan Nitot ; une interview de votre serviteur par le journaliste belge Damien van Achter. Avec des vrais morceaux de gros mots dedans.
- Spotify, la machine à humeur, une plongée fascinante dans le business model de Spotify, par le toujours excellent Hubert Guillaud. Voir aussi « Pour les dirigeants de Spotify, l’utilisateur moyen de la plateforme ne remarquera pas si les chansons sont produites par de faux artistes » ;
- IA : le coup de gueule de Paul McCartney. D’un coté, je suis d’accord : l’IA des milliardaires pille les contenus sous Copyright alors que les ayants-droits traînent en justice les amateurs de musique. Mais je trouve l’argument de McCartney un peu faible. Finalement, c’est plus la conclusion de l’article qui m’interpelle : “Deezer, la plateforme de streaming française, a ainsi décidé d’exclure les contenus générés par l’IA. « Nos équipes ont développé en interne, pendant un an, un outil qui permet de détecter les morceaux créés par l’intelligence artificielle », - soit un titre sur dix envoyé chaque jour sur Deezer -, a indiqué dans La Tribune Dimanche, ce dimanche, Alexis Lanternier, son directeur général.”
- Je lis occasionnellement Ed Zitron, mais là, je me retrouve vraiment dans ses propos (sauf que lui explique les choses mieux que moi). La forme est amusante au début, fatigante à la fin, mais vise presque toujours juste. Deux exemples, publiés de décembre dernier :
- Meta abandons fact-checking on Facebook and Instagram in favor of Community Notes. Au passage les modérateurs de Meta sont délocalisés de Californie (démocrate) au Texas, état très conservateur : Zuckerberg says he’s moving Meta moderators to Texas because California seems too ‘biased’. Les conséquences ne tardent pas : Meta Now Lets Users Say Gay and Trans People Have ‘Mental Illness’ ;
Complètement en vrac
- Je suis assez fan de Nate Haggens, découvert via le podcast Sismique. Je vient d’écouter sa présentation Les 9 traits de caractère historiques qui desservent l’humanité, dans le cadre de son travail The great simplification, “a podcast that explores the systems science underpinning the human predicament. Conversation topics will span human behavior, monetary/economic systems, energy, ecology, geopolitics and the environment. The goal of the show is to inform more humans about the path ahead and inspire people to play a role in our collective future”. On regardera avec intérêt sa vidéo 7 philosophies on the future ;
- Les deux articles du Monde sur la pollution aux PFAS sont fascinants :
- De l’AGI à la Super-Intelligence : OpenAI redéfinit ses ambitions. Un article qui laisse un drôle de goût dans la bouche. D’un coté, l’intelligence artificielle générale (IAG, une IA aussi intelligente que l’humain) serait à portée de main, grâce à des progrès du modèle o3 d’OpenAI. De l’autre, une utilisation hallucinante d’énergie : “un coût d’exécution total du test dépassant largement plusieurs centaines de milliers de dollars” alors que… “o3 échoue encore sur des tests triviaux pour les humains”.
- ‘I spent 30 years searching for secret to happiness - the answer isn’t what I thought’. Je tombe “pasr hasard” sur cet article alors que je repensais le matin même, à vélo, à la prière de la sérénité, me disant qu’il fallait que je la publie sur le Standblog. Sauf que je l’ai déjà fait il y a déjà 9 ans : Deux astuces pour rester serein ;
- Salut nazi et conquête de Mars, une interview d’Irénée Régnault par Reporterre ;
- Bishop Mariann Edgar Budde appeals to President Trump to have mercy upon immigrants and minorities. La femme évèque Mariann Edgar Budde, dans son sermon, explique au président Trump, présent, que Dieu s’attend à ce qu’il fasse preuve de pitié envers les migrants et les minorités. ;
« La merdification de Twitter et des plateformes en
- Les problèmes sociétaux du déploiement massif de »