samedi 15 mars 2025

L'autonomie stratégique plutôt que la souveraineté technologique

J’ai écris ce texte sur LinkedIn, et j’ai ensuite réalisé qu’il serait aussi bien ici, sur mon blog. En voici donc un copier-coller pour ceux qui, comme moi, préfèrent le Web indépendant :

J’allais vous parler de souveraineté technologique, parce que c’est important en ce moment. Et puis non…

Je préfère vous parler d’autonomie stratégique. Ce revient à peu près au même, par certains aspects, me direz-vous. Certes, mais c’est très différent par d’autres. Je m’explique.

Fondamentalement, la souveraineté, ça ne peut s’appliquer au sens strict qu’à un État. Après, on peut étendre le sens à l’entreprise ou pire encore, à l’individu. Mais ça n’est pas tant ce que je reproche au terme souveraineté.

Parce que je l’ai longtemps défendu la souveraineté, dans des entreprises françaises et européennes, pour faire de la technologie qui nous donnerait, aux États, aux entreprises et aux individus, de la capacité d’agir sans demander la permission. Sauf que je me suis bien trop souvent retrouvé entouré de gens qui confondaient “Souveraineté” (technologique) et “Souverainisme”. Et le souverainisme, en France ces dernières années, est devenu un tremplin pour défendre le racisme, l’intolérance, l’isolationnisme et autres idées rances sous lesquelles on trouve trop souvent des traces de l’influence russe.

Alors que Trump et Musk font n’importe quoi aux USA en ce moment, alors que la Russie est en embuscade et l’Ukraine en sandwich, il est important d’être autonome sur les sujets stratégiques. Mais pas en se repliant sur soi-même, car nous sommes bien trop petits pour résister seuls à la Russie et aux USA.

Comment ? En coopérant avec d’autres. On sait bien que les USA peuvent couper l’accès à des ressources importantes sur lesquelles on s’appuie depuis longtemps, des avions de chasse aux logiciels connectés en passant par les services de Cloud dans lequel on a mis tellement de données stratégiques.

Alors il va falloir trouver des alternatives soit Made in France, soit Made in Europe, soit Made in logiciel libre. Et c’est là qu’on voit que l’autonomie stratégique, c’est tout autre chose que le repli sur soi. C’est le partage de la valeur du logiciel avec d’autres pays, pour rester indépendants. Oserais-je citer Lénine qui disait “La confiance n’exclut pas le contrôle” ? Ça tombe bien, l’accès au code source, à l’historique de son évolution, permet justement de faire ce contrôle. Ça n’est pas parfait, certes, mais c’est toujours mieux que de s’appuyer sur des boites noires qui peuvent être déconnectées à distance par d’anciens alliés colériques.

Laissons donc la souveraineté aux rabougris de l’identité et aux intolérants, et embrassons l’autonomie stratégique, ouverte, partageuse et basée sur la coopération !

jeudi 27 février 2025

En vrac de fin février

L’actu est tellement riche, entre la saturation médiatique de l’IA et les événements aux USA que j’ai du faire deux parutions #EnVrac ce mois-ci. Vivement un retour à la normale (et à la raison) !

IA

EROOM

  • L’excellent Rob Pike (co-inventeur d’UTF-8 et du langage Go) a publié une présentation très proche de mon discours sur la loi de Moore, pour ensuite aborder le sujet des dépendances avec les problèmes qu’elles impliquent (sécurité, lenteurs) qui donne lieu à une intéressante discussion sur Hacker News ;

Complètement en vrac

Numérique et limites planétaires

Pendant ce temps-là aux USA

Mise à jour : je découvre un excellent article mis à jour au fil de l’eau par TheVerge, Trump’s first 100 days: all the news affecting the tech industry, qui fait un bien meilleur travail que moi sur le sujet, sans surprise.

Pendant ce temps-là, ça pourrait s’améliorer aux USA

Un peu d’optimisme sur ce qui se passe aux USA ces dernières semaines :

Mobilité

Merdification

mercredi 12 février 2025

IA et consommation électrique

“L’explosion de l’IA est inéluctable”, entend-on suite au sommet de l’IA à Paris. Sauf que…

Quand on regarde la prévision de consommation électrique de l’IA (ici sur la base d’un récent document de Deloitte Global Analysis), la consommation électrique des centres de données, sous la pression de l’IA, devrait faire un bond énorme pouvant être multiplié par un facteur 9,3 entre 2023 et 2050.

À coté de ce graphique[1], sur la droite, j’ai mis quelques coupures de presse qui démontrent bien que coté électrique, on a déjà pas mal de soucis : on redémarre en France une des deux centrales à charbon pour passer l’hiver sans pénurie. En Irlande, ils font tourner les datacentres à coup de carburants fossiles pour pouvoir assurer la fourniture d’énergie. Du coup, on n’a jamais autant brûlé d’énergies fossiles qu’en 2024. Le Gartner prévoit que 40% des centres données seront menacés de pénuries d’ici 2027. Aussi, cela risque de retarder la transition énergétique. Et bien sûr Google et Microsoft, on s’en souvient, voient leurs émissions de GES bondir à cause de l’IA.

Mais on oublie quelque chose d’essentiel, c’est que pour réussir à prendre le virage climatique, il faut aussi électrifier l’industrie et aussi la mobilité (avec les fameuses voitures électriques).

Alors, puisqu’il est si difficile de fabriquer des centrales électriques (combien de temps ça a pris pour l’EPR de Flamanville, déjà ? 17 ans, de quoi décidera-t-on de se passer ? De produits issus de l’industrie ? De voitures ? D’IA ?

Sans compter que là, je vous parle d’énergie, mais ça veut dire que je passe sous silence les trois plus gros problèmes que sont les limites planétaires en général, l’effondrement de la biodiversité et le changement climatique[2].

Ça m’amène à me poser la question suivante : un monde habitable n’est-il pas plus important qu’un ami imaginaire qui ferait une partie de mon boulot à ma place ?

Notes

[1] Ce graphique est tiré d’une conférence de 30 mn titrée L’humanité a-t-elle les moyens de s’offrir l’IA, présentée en décembre 2024 à Open Source Expérience, à Paris.

[2] Je constate que je ne suis pas le seul à le dire, et c’est bien !

mardi 11 février 2025

En vrac de début février

L’actualité est tellement dense ces derniers temps (et pas de façon positive) que je ne résiste pas à partager ces liens dès le 11 du mois.

Ego trip

Où je compile quelques liens vers des présentations / interventions / interviews pour en garder la trace :

IA

Pendant ce temps là, aux États Unis

Totalement en vrac

mercredi 5 février 2025

Les problèmes sociétaux du déploiement massif de l'IA

J’ai demandé à l’IA Claude “Quels sont les problèmes sociétaux posés par le déploiement de l’IA à l’échelle ?”. Voici sa réponse (Spoiler alert : elle a plié le game), je vous la copie-colle ici pour que vous n’ayez pas à la poser à nouveau. À cause, justement, de tous les problèmes que cela pose :


Les principaux problèmes sociétaux posés par le déploiement massif de l’IA incluent :

1. Inégalités économiques

  • Automatisation massive de certains emplois
  • Concentration des richesses dans les entreprises technologiques
  • Risque de précarisation de larges segments de la population active

2. Questions éthiques

  • Biais algorithmiques reproduisant des discriminations
  • Décisions automatisées sans responsabilité claire
  • Atteintes potentielles à la vie privée
  • Risques de manipulation psychologique

3. Enjeux démocratiques

  • Propagation facilitée de désinformations
  • Influence des systèmes d’IA sur l’opinion publique
  • Capacité de profilage et de surveillance massive
  • Risque de réduction de l’autonomie individuelle

4. Problèmes juridiques

  • Cadre légal inadapté
  • Difficultés d’attribution des responsabilités
  • Problèmes de propriété intellectuelle
  • Nouveaux types de crimes numériques

5. Aspects environnementaux

  • Consommation énergétique importante des datacenters
  • Impact carbone de l’entraînement des modèles
  • Extraction massive de ressources pour les infrastructures

Ces défis nécessitent une régulation internationale et une réflexion éthique approfondie.


Note : Ce billet, par essence, a partiellement été généré par une IA, puisque l’idée était de citer l’IA en question. C’est une exception sur le Standblog et cela a vocation à le rester.

mercredi 29 janvier 2025

En vrac de janvier

Empreinte du numérique

  • L’ADEME publie une mise à jour de son Evaluation de l’impact environnemental du numérique en France. “Cette étude vise à mettre à jour les données de l’étude menée avec l’Arcep en 2020 sur l’évaluation de l’impact environnemental du numérique en France, aujourd’hui et demain. En effet, n’avait été pris en compte dans les hypothèses de l’étude de 2020, que les data centers situés sur le territoire français. Or une partie importante des usages en France sont hébergés à l’étranger (environ 53 %) ce qui représente des impacts très loin d’être négligeables. Par ailleurs, entre 2020 et 2022, le mix entre les télévisions OLED et LCD-LED a varié au profit des télévisions OLED plus grandes et plus impactantes ainsi que les usages notamment due à l’arrivée massive de l’IA.” (mais qui aurait pu prévoir, comme disait l’autre ?) ;
  • À la question fréquemment posée : “Combien d’électricité vont utiliser les datacentres ?”, Brian O’Kelley répond : “According to Lawrence Berkeley National Laboratory, in 2023, data centers consumed 4.4% of US electricity. Driven by demand for generative AI, data centers may consume as much as 12% by 2028, more than the electricity used by California, Florida, and New Jersey combined.” Dans un contexte plus européen : “The projected data center electricity use in 2028 would be enough to power Germany” d’après l’IAE ;
  • Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI, un papier scientifique (encore un avec la participation de l’excellente Sasha Luccioni et de Gaël Varoquaux, ) sur le fait qu’un modèle de LLM avec plus de paramètre consomme plus, mais n’est pas forcément mieux. Au risque de susciter des pensées malvenues, “plus gros n’est pas forcément mieux” (oui, ça s’applique aussi à la taille des bagnoles !). Le papier évoque aussi la loi de Wirth (aka “ce qu’Intel vous donne, Microsoft vous le reprend” dans les années 2000) et explique que maintenant, en substance, “ce que Nvidia vous vend, les LLM vous le reprenne”, en consommant sans cesse plus de ressources numériques. On n’a pas l’arrière-train sorti des ronces !
  • Microsoft won’t support Office apps on Windows 10 after October 14th Microsoft annonce que “refreshing an old Windows 10 PC will be more important than buying a new TV or phone this year”. Je hurle d’entendre ce mot “rafraîchir” qui signifie en fait “jeter à la benne (ou passer sous GNU/Linux) un ordinateur qui fonctionne très bien juste parce que ça arrange Microsoft et les vendeurs de PC”.
  • L’IA devrait doubler sa consommation d’électricité dans les 5 années à venir, explique Deloitte. Next détaille en français et montre que ça devrait se faire principalement à partir de gaz naturel;
  • Generative AI – The Power and the Glory, un très long article sur l’IA, l’énergie nécessaire pour la faire tourner, et son futur. Dans sa phrase “Which wins: Koomey’s Law or the Jevons effect?”, j’aime l’opposition entre loi de Koomey (la consommation d’énergie pour faire 1 opération informatique diminue au même rythme que la loi de Moore) et paradoxe de Jevons (moins ça coûte cher, plus on en fait), en se demandant qui va gagner. Simon Willison en a fait un très bon résumé ;
  • Article de juillet 2024 par Nvidia : How AI and Accelerated Computing Are Driving Energy Efficiency où la firme explique avoir optimisé d’un facteur 45 000 sur 8 ans l’efficacité énergétique de ses puces, via ce graphe : LLM inference energy consumption plummeted 45,000x in eight years, thanks to advances in NVIDIA GPUs. . L’article ajoute qu’il y aurait un gain d’efficacité énergétique d’un facteur 25 entre les puces Nvidia Hopper (2022) et Blackwell (2024) lors d’inférence IA. Une question me taraude : dans quelles proportions ont augmenté les ventes de GPU Nvidia sur la même période ? Rien d’illogique à cela, ça s’appelle le paradoxe de Jevons ;
  • L’iA o3 d’OpenAI vient d’obtenir un score incroyable au test ARC-AGI-1 en réussissant 87,5% des tests. Rappelons que GPT-3, en 2020, avait 0% de bonne réponses, GPT-4o obtenait 5% en 2024. Et là, on passe à 87,5% de bonnes réponses ! Deux points importants toutefois :
    • Certains exercices sont triviaux pour des humains, mais l’IA se plante complètement alors qu’elle réussit des tests très similaires.
    • Le coût des ressources mobilisées pour passer le test sont astronomiques : environ 350 000$ si mes calculs sont exacts, vu le prix des puces, des infrastructures et de l’énergie consommée pour faire tourner l’IA le temps du test. Sur la fin de l’article, on voit quels problèmes ne peuvent pas être résolus par l’IA, alors qu’un collégien y arriverait probablement.
  • Le site OurWorldInData est une source très riche de données en tous genres. Je viens de découvrir (merci Maxime !) un graphe des données d’entrainement de modèles d’IA, qui donne un peu le vertige. Comparons un gros modèle de juin 2009, GPU DBNs et un autre gros modèle, Grok 2, d’août 2024. Le second a nécessité 53 milliards de fois plus de puissance de calcul que le premier, à 15 ans de différence.
  • Dans le même genre, on constate que les coûts de calcul pour et donc de recherche sur l’IA augmentent tellement vite que seuls les industriels peuvent faire de la recherche, parfois en partenariat avec le monde académique. Auparavant, les labos universitaires menaient seuls la recherche en IA, mais l’explosion des coûts de calculs pour entraîner un modèle ont changé les choses.
  • Sasha Luccioni - IA et Crise Climatique : Prêts pour le Choc ? dans TrenchTech S04E02 est un vrai bonheur !
  • Magnifique citation d’un analyste de Morgan Stanley Research : “We think the huge step up in energy needs is not well understood by the market and hasn’t been priced into a number of stocks.” En français : “nous pensons que l’augmentation brutale des besoins énergétiques n’a pas été bien comprise par la marché et n’a pas été prise en compte dans le prix d’un certain nombre d’actions”. Comprendre : quand on va réaliser ce que ça coûte vraiment, les gens vont reconsidérer leur usage de l’IA. Et encore, il ne parle que de prix de l’énergie, pas du coût environnemental ! On notera que l’article date de mars 2024, mais reste d’actualité, plus encore même aujourd’hui !
  • L’ami Simon Willison a publié un article LLMs in 2024, un récapitulatif de ce qu’il a appris en 2024 sur l’IA et les LLM. Il y a deux sections particulièrement intéressantes : The environmental impact got better (gros progrès sur l’optimisation des LLM, c’est bien) et l’impact environnemental a beaucoup empiré (on construit et prévoit de construire beaucoup plus d’infrastructures numériques pour accompagner l’hypercroissance de l’IA, bref, on optimise et ça fait un méga effet rebond). Mais c’est beaucoup vu sous deux angles classiques des techno-solutionnistes : “c’est un problème de capital” / “c’est un problème d’énergie”. Mais le problème est bien plus large à mon sens : c’est un problème de limites planétaires. Du coup j’ai fait un article en anglais qui est une traduction d’un billet LinkedIn en français ;

Mobilité

Merdification

Complètement en vrac

jeudi 23 janvier 2025

La merdification de Twitter et des plateformes en général

Les gens quittent Twitter/X parce que c’est devenu un feu de poubelle. Un algo toxique, truqué par son nouveau propriétaire en sa faveur. Des scandales à répétition, des insultes envers les annonceurs, des propos nauséabonds en rafale, du racisme, de l’homophobie, de la transphobie, une modération qui part en quenouille et cerise sur le gâteau, des saluts nazis (ou mussoliniens).

Pas étonnant que les gens partent en nombre. Pour ma part, j’ai dit adieu à mes 96 000 followers il y a presque 18 mois avec soulagement. Depuis, Twitter/X n’a fait que dévisser dans l’estime des gens.

Musk récolte ce qu’il a semé. Soit.

Au delà des provocations de Musk

Mais il y a un contexte moins connu qui touche la plupart des plateformes, c’est la notion de merdification / emmerdification / enshittification théorisée par l’excellent Cory Doctorow et déjà abordée dans ces pages.

La merdification est une dégradation de la qualité qui affecte les plateformes numériques qui opèrent sur un marché biface, par exemple celles qui mobilisent à la fois des utilisateurs et des annonceurs.

Elle opère en 4 étapes :

  1. les plateformes servent les intérêts de leurs utilisateurs, qui en deviennent dépendants. Elles fournissent un produit ou service utile à perte. Les utilisateurs affluent, recommandent la plateforme, font venir d’autres utilisateurs
  2. Les plateformes utilisent ces utilisateurs pour servir les intérêts de leurs entreprises clientes, à perte. La plateforme se met à privilégier le coté entreprises de son marché. L’expérience des utilisateurs se dégrade (plus de pub, moins de respect de la vie privée), celle des entreprises s’améliore. D’autres entreprises affluent.
  3. les plateformes profitent de ces deux catégories de clients, devenus captifs, pour servir leurs propres intérêts : les surplus sont distribués aux actionnaires. Dans cette phase, les entreprises merdifiées n’ont plus aucune raison de proposer un service de bonne qualité : elles sont incontournables autant pour les utilisateurs que les entreprises, avec un coût de sortie élevé pour les deux côtés.
  4. Les plateformes finissent par mourir quand les utilisateurs trouvent une alternative à la plateforme et que les entreprises se tournent à leur tour vers d’autres plateformes.

Ce phénomène est un classique des plateformes. Comme tous les modèles, il n’est pas parfait, mais il permet de comprendre plus facilement le cycle de vie des plateformes.

Où en est votre plateforme préférée ?

  • Les plateformes les plus anciennes comme MySpace, AOL Messenger, ICQ sont en phase 4, c’est à dire mortes ou zombifiées.
  • Amazon est en phase 3 sur le e-Commerce, incontournable pour les utilisateurs comme pour les fournisseurs, mais qui voient leurs marges fondre comme beurre au soleil car ils sont obligés de commander de la publicité pour arriver à vendre. Forcément, ça fait monter les prix et c’est une moins bonne affaire qu’avant pour les individus.
  • L’offre vidéo Amazon Prime est pour sa part en phase 2. Les pubs se multiplient, maintenant qu’ils ont réussi à convaincre les individus).
  • BlueSky, probable remplacement de Twitter, est en phase 1, encore séduisant, mais pour combien de temps ?
  • Mastodon, me demanderez-vous, n’est pas concerné, n’étant pas commercial, sans algorithme de recommandation et sans publicité. Mise à jour : Mastodon n’est pas un réseau social. Tout s’explique !

mardi 21 janvier 2025

Pourquoi il faut quitter X

Pourquoi ça ne servait à rien de rester sur X en espérant faire pencher la balance du “bon coté” ?

  1. l’algorithme de recommandation favorise les discours clivants
  2. la taille des message favorisant pour sa part les messages courts donc simples.
  3. Loi de Brandolini : il est 10 fois plus facile et rapide de dire une connerie simple et méchante que de la débunker. Donc dire quelque chose d’intelligent et complexe sur X.com passe totalement inaperçu. (combinaison des 3 premiers points).
  4. Elon Musk a fait modifier l’algorithme de Twitter/X pour rendre ses messages et ses idées beaucoup plus visibles de tout le monde.

Quand on combine tout ça, on voit comment les idées simplistes, agressives et nauséabondes se répandent mécaniquement au dépens des idées plus subtiles et plus nuancées.

Alors on peut toujours s’épuiser à tenter de corriger cela, mais c’est futile : le propriétaire de la plateforme en a décidé autrement. D’où mon départ il y a presque 18 mois, malgré mes 96 000 followers là-bas. Depuis, je suis sur LinkedIn Mastodon et Bluesky. Voir aussi ma vidéo chez Damien Van Achter, où je reviens sur le sujet.

Mise à jour : Tiens, un mème fort à propos :

- page 1 de 604