- Quelques statistiques troublantes sur le nombre d’images générées par l’IA. En gros, sur 18 mois, l’IA génère 15 milliards d’images (données de 2023, cela a sûrement beaucoup augmenté depuis). Cela a pris 149 ans à la photo argentique pour atteindre le même nombre…
- Comment faire face à la crise de l’énergie de l’IA ?
- On me demande comment l’IA et le cloud contribuent au changement climatique. Prenons l’exemple de l’Irlande, dont le réseau électrique est saturé. Du coup, les datacentres ont plus recours aux groupes électrogènes de secours qui fonctionnent au diesel. Coté pollution et émissions de GES, c’est une horreur : Ireland’s data centres turning to fossil fuels after maxing out country’s electricity grid. Dans le même genre, on se souviendra de l’article de Reuters : Data-center reliance on fossil fuels may delay clean-energy transition. Bref, si votre entreprise utilise du Cloud, il est impératif d’avoir une approche GreenOps, en plus d’EROOM.
- Je suis un grand fan du travail de la très prolixe Mathilde Saliou, qui travaille chez les copains et copines de Next.ink (ex Next-INpact). On connaissait ses articles, sa newsletter Technoculture. Mes collègues d’Octo et moi l’avons même invitée à notre podcast Frugarilla, épisode 12. Mais là, je viens d’écouter l’épisode 4 : IA qu’à algorithmiser le climat ? de son podcast Algorithmique sur l’empreinte climatique de l’IA, et autant le dire directement : c’est vraiment un boulot génial, fouillé et très pédagogique. Bref, je suis encore plus fan !
- 54 % des articles anglophones de plus de 100 mots sur LinkedIn sont écrits par une IA ;
- À quoi pourrait ressembler de l’IA essentielle, (on pourrait aussi l’appeler Right AI) ? Utile aux gens, surtout ceux qui éprouvent des difficultés à cet instant, ne nécessitant pas de nouveau matériel, utilisable en local, sans perte de données personnelles… J’ai peut-être un bon exemple : l’ajout de texte alternatif aux images des PDF dans Firefox 130. C’est encore à l’état expérimental et chacun peut aider. Bravo à l’ami Tarek Ziadé et son équipe pour cette belle avancée !
- JM Jancovici se demande si l’IA va sauver le climat puis répond sur sa consommation d’énergie. C’est punchy, comme toujours. En deux formats : Audio sur RTL (3 mn 23 sec) et format texte (coucou Thierry !) sur LinkedIn ;
- Article d’Alain Lefèbvre : IA, comment s’est-on fait berner encore une fois ? qui compare l’IA aux voitures autonomes, cryptomonnaies et métavers. Je le trouve un peu sévère, mais il lève deux points importants : 1 - Les retours décroissants, à savoir qu’augmenter la quantité de données donne de moins bons résultats qu’avant. 2 - les IA s’entrainent de plus en plus sur des données… générées par des IA. Ce qui ne va pas aider à améliorer la qualité des résultats. Il écrit “On se retrouve dans le syndrome de la photocopieuse qui recopie ses propres pages jusqu’à ce que ces dernières soient complètement illisibles (pour en savoir plus à ce sujet)” (voir le lien “statistiques troublantes” dans ce billet).
- Les pénuries d’électricité menacent 40 % des centres de données d’IA d’ici 2027, selon Gartner. “Les analystes prédisent parallèlement une croissance exponentielle de la consommation énergétique des IA de 160% au cours des deux prochaines années ! […] l’énergie requise pour faire fonctionner les serveurs optimisés pour l’IA atteindra 500 térawattheures (TWh) par an en 2027, soit 2,6 fois le niveau enregistré en 2023.”
- C’est vieux (2021) mais très bon car très didactique : Faire de l’IA avec des circuits analogiques pour réduire drastiquement la consommation électrique. “The most basic computation in an artificial neural network is called multiply and accumulate. The output of artificial neurons are multiplied by the weight values connecting them to the next neuron. That neuron sums its inputs and applies an output function. In analog AI, the multiply function is performed by Ohm’s Law, where the neuron’s output voltage is multiplied by the conductance representing the weight value. The summation at the neuron is done by Kirchhoff’s Current Law, which simply adds all the currents entering a single node”. Traduction en français par mes soins : “L’opération de base dans un réseau de neurones consiste à multiplier puis ajouter. La sortie des neurones est multipliée par les poids les connectant au prochain neurone. Ce neurone additionne ses entrées et les applique une fonction de sortie. En IA analogique, la multiplication est faite par la Loi d’Ohm (U=R.i), où le voltage de sortir du neurone est multiplié par la conductivité, qui représente le poids. L’addition se fait elle grâce à la loi des noeuds de Kirchhoff, qui permet d’additionner tous les courants qui entrent dans un seul noeud. Cela commence à devenir une réalité industrielle ;
- Dans une veine comparable à celle ci-dessus, on explore aussi comment faire de l’IA avec des circuits faisant circuler des photons plutôt que des électrons. Le photon : la solution pour une IA ultrarapide et économe en énergie ?. Papier scientifique (nécessite un abonnement) : Single-chip photonic deep neural network with forward-only training ;
- Interview d’Yves Citton, théoricien de la littérature et des médias à propos de l’IA et du philosophe des techniques Vilém Flusser (1920–1991) ;
- sur LinkedIn, plus de la moitié des publications sont désormais dues à une IA ;
- Introducing ChatGPT Pro, pour la bagatelle de 200$ par mois. Ca commence à ressembler au vrai prix de la chose. On parie que les versions gratuites ou à 20$ vont se dégrader en qualité dès que la concurrence sera jugée comme étant suffisamment loin derrière ? J’imagine assez bien qu’il sera possible pour des annonceurs de faire que leur marque ou leurs produits soient cités dans les réponses gratuites moyennant finance. Et des modèles moins cher et moins rapides dans la version à 20$ par mois…
- Ah justement, le Financial Times dévoile le pot aux roses : OpenAI explores advertising as it steps up revenue drive? OpenAI envisage la pub. Vous auriez plus confiance dans les propos d’un ami ou dans ceux d’un inconnu payé pour vous vendre des trucs ?
- L’intelligence artificielle : une révolution technologique aux lourdes conséquences environnementales. C’est toujours bien d’avoir ce genre d’article, mais le problème c’est qu’il aborde le problème d’un point de vue strictement énergétique, qui n’est qu’une toute petite partie du problème. La conso d’eau pour produire les semiconducteurs (GPU et CPU) ? Rien. Les mines pour produire le hardware ? Rien.
- Le (vrai) coût climatique de l’IA qui cite par exemple The Environmental Impacts of AI — Primer de l’excellente Sasha Luccioni (Hugging Face) ;
- Thinking about using AI? Here’s what you can and (probably) can’t change about its environmental impact. par Hannah Smith et Chris Adams de la Green Web Foundation (ça date du 25/10/2024) ;
- Start at the end la transcription d’une conférence très inspirante, par Hannah Smith (la même qu’au dessus, toujours de la Green Web Foundation) ;
- Une solution de Google pour détecter le contenu généré par IA ? ;
- Interview de Quentin Sombsthay sur les travailleurs du clic, ces personnes sous-payées pour faire un travail abrutissant d’annotation de données utilisées pour entraîner l’Intelligence artificielle. Il y rapporte les propos d’un de ces précaires : « Il n’y a pas d’intelligence artificielle, seulement l’intelligence africaine. » ;
- j’ai enfin vu la présentation TED de Sasha Luccioni ‘L’IA est dangereuse mais pas pour les raisons auxquelles vous pensez’ . Aborder les relations entre l’IA et le changement climatique, le copyright et les biais en 11 minutes sans perdre tout le monde, c’est quand même une sacrée réussite ! Bon, évidemment, on n’a pas le temps de creuser le problème en profondeur, mais c’est lié au format, pas au talent de la personne.
- Toujours de Sasha Luccioni, sur l’empreinte environnementale des LLM (les algos d’IA générative façon ChatGPT) Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model, qui est un des très rares papiers scientifiques sur le sujet ;
- “Une courte conversation (quelques interactions) avec le dernier modèle de ChatGPT émet environ 0,27 kilogramme d’équivalent CO2 (eqCO2), soit près d’une tonne de CO2 par an pour dix échanges par jour. C’est la moitié de ce que l’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.” ;
- Pourquoi la bulle de l’IA ne devrait pas éclater… malgré des inquiétudes légitimes. Mouais. Le raisonnement de la fin me paraît discutable : certes, aucun investisseur n’a intérêt de voir la bulle de l’IA exploser. Mais si le retour sur investissement de l’IA n’est pas au rendez-vous, alors les entreprises clientes vont réduire leurs dépenses, les gains promis risquent de ne pas se concrétiser et alors la bulle éclatera, que les investisseurs le veuillent ou non !
- C’est vieux (juillet 2024), mais c’est précieux et à conserver dans le dossier marqué “Elon est un dangereux fumier” : Il fait tourner son méga datacentre d’IA… au Diesel. Quelques chiffres qui donnent le tournis : chaque GPU H100 consomme 700 W. Il en a 100 000. Plus tout le matériel autour. Donc 70 megawatts juste pour les GPU. Tout ça au Diesel. J’ai vomi.
- Sur LinkedIn, le journaliste Benoit Raphael utilise l’IA Sora d’OpenAI pour générer une vidéo très ratée. C’est fascinant de monstruosité. Et la mention “je l’ai essayée depuis Bali” n’apporte pas de réconfort (l’accès n’est pas encore autorisé depuis la France).
- Les projets de datacentres pour l’IA filent le tournis tellement les chiffres sont monstrueux. Is Microsoft & OpenAI’s 5GW Stargate supercomputer feasible? Microsoft prépare un datacentre géant pour l’IA. Consommation prévue : 5 GW. Soit 5 réacteurs nucléaires. Coût estimé : 30 à 40 milliards de dollars. Temps estimé : 10 ans de construction. Rien que pour l’électricité. D’aucun pensent que c’est un projet trop gros, même pour Microsoft. Un autre projet de datacentre, à Mount Pleasant, dans le Wisconsin, couvrirait plus de 400 hectares à lui tout seul. (Ça fait un carré de 2 km de coté).
- Vidéo de la Quadrature du Net : Ce n’est pas de l’IA, c’est une immense infrastructure écocide, avec une visite de Marseille et comment les datacentres qui s’y trouvent monopolisent les ressources : l’eau fraîche de qualité potable, l’électricité qui pourrait être utilisée pour électrifier le port de Marseille et réduire la pollution des navires à quai, et le littoral.
En vrac de décembre sur l'IA
mercredi 18 décembre 2024. Lien permanent En vrac