28.02.2026 à 19:12
Tristan Nitot
26.02.2026 à 16:48
Tristan Nitot
Quand on m’a dit “Et si on utilisait l’IA pour optimiser une application et réduire son empreinte environnementale ?”, j’avoue que j’ai grincé des dents : a priori, utiliser l’IA (très gourmande) pour optimiser un truc moins gourmand, ça ne me paraissait pas très intelligent.
Sauf que l’IA générative a fait beaucoup de progrès, et qu’on sait de mieux en mieux s’en servir pour faire des choses étonnantes.
Il se trouve aussi que deux de mes brillants collègues (chez OCTO) se sont vu confier une mission par un grand client : moderniser une application développée par des stagiaires au fil des années.
Dans une certaine mesure, c’est le pire cauchemar des informaticiens : une application écrite par des débutants qui sont remplacés tous les ans et ont “oublié” de documenter leur travail (parce qu’on avait oublié de leur demander de le faire).
Et effectivement, avec près de 100 000 lignes de code, c’était une horreur.
Un peu comme un plat de spaghetti, mais géant, préparé par des apprentis cuisiniers, avec des dizaines de types de pâtes et de sauces différents.
Je passe les détails de la mission, mais en substance, on a deux ingénieurs OCTO assistés par IA face à cette masse informe de code. Elle fonctionne, mais il faut la moderniser, et bien sûr personne ne comprend comment elle fonctionne. Les stagiaires successifs sont partis depuis bien longtemps.
Cette application, il faudrait aussi la connecter à une nouvelle base de données plus moderne (l’excellent logiciel libre PostgreSQL) et au SSO de l’entreprise. Et si ça pouvait tourner plus vite, ça serait pas mal, parce que la page la plus utilisée a un temps de réponse moyen de 7 secondes.
Je vous passe les détails, mais mes deux collègues s’attellent à la tâche et les résultats tombent :
Des outils comme SonarQube donnent des indicateurs très révélateurs :
Alors oui, des humains auraient pu faire le job sans IA. Mais cela aurait été une mission vraiment horrible. Et surtout, ça aurait été beaucoup trop cher. Alors on aurait laissé dans l’état, avec des problèmes de sécurité qui ne demandent qu’à nous exploser à la figure, avec des utilisateurs frustrés qui font face à un outil lent et buggé, des ressources informatiques (du temps, de l’énergie, du matériel coûteux) gaspillées.
Bref, mon opinion sur l’utilisation de l’IA pour moderniser une base de code legacy a été sérieusement ébranlée.
P.S. : je ne suis pas en train de devenir un techno-béat de l’IA, j’ai longuement travaillé à recenser et diffuser les différents problèmes posés par cette technologie, par exemple dans la présentation L’humanité a-t-elle les moyens de s’offrir l’IA ?. J’essaye juste de recenser quand un usage raisonné de l’IA pourrait réduire l’empreinte du numérique. Voir par exemple les travaux sur EROOM.
26.02.2026 à 16:36
Tristan Nitot
Sam Altman, patron d’OpenAI, dans une interview, commet une erreur énorme quand il dit “Les gens parlent de l’énergie nécessaire à entraîner un modèle d’IA, mais cela consomme aussi beaucoup d’énergie pour entraîner un humain ! Cela prend genre 20 ans d’une vie et toute la nourriture nécessaire pendant ce temps-là pour devenir intelligent”.
C’est à la fois vrai… et complètement faux (et scandaleux) de mettre sur un pied d’égalité la machine et l’humain (voire la machine et le vivant dans son ensemble).
Avoir un monde rempli de machines mais sans humains et sans vivant n’a aucun intérêt.
Alors qu’un monde avec des êtres vivants et sans machines est non seulement envisageable, mais il a même été la règle depuis l’apparition de la vie il y a presque 4 milliards d’années. Rappelons que Homo Sapiens a 300 000 ans et que l’ancêtre de l’ordinateur, imaginé par Charles Babbage, l’a été en 1834, il y a moins de 200 ans. Le premier microprocesseur commercial, l’Intel 4004, a été lancé en 1971, il y a 55 ans.
Bref, le moment où les microprocesseurs ont existé représente 0,01833% du temps d’existence d’Homo Sapiens.
Enfin, devant l’ineptie énoncée par Sam Altman, il convient de rappeler que la première mission d’un individu vivant est la survie de l’espèce. Pas de prévoir sa disparition au nom d’un éventuel règne sans partage des machines.
(Post créé à 100 % SANS IA. Évidemment.)
14.02.2026 à 10:53
Tristan Nitot
Si ChatGPT devient le nouveau Google, cela implique que l’IA est en train de tuer le Web. Je m’explique :
Le Web, au départ, c’est que des humains écrivent des documents avec des hyperliens entre eux, ces documents comprenant du texte, une mise en page, des images, du son, des vidéos si nécessaire.

Et de l’autre côté de l’écran, des humains lisent les textes et naviguent entre ces documents en suivant les liens. Pour cela, ils utilisent un navigateur (un “user-agent” dans le jargon), un logiciel qui va chercher le document, le présente en interprétant le contenu, tout en préservant l’utilisateur des personnes mal-intentionnées qui peuvent se trouver sur le Web (lequel n’est pas peuplé que de bisounours).
Il arrive souvent que les utilisateurs trouvent le contenu initial via un moteur de recherche, qui est donc devenu indispensable dans l’expérience utilisateur. Accessoirement, le moteur de recherche affiche de la pub dans ses résultats et ça finance les éditeurs de navigateurs (Google, Apple, Mozilla & co).
Mais ça, c’était avant.

Maintenant, l’humain utilise son ChatBot IA, lui pose une question, l’IA lui donne une réponse (pas toujours juste mais qui sonne bien). Cette réponse a probablement été synthétisée en piochant dans le Web plus ou moins récemment, mais ça, l’utilisateur n’en sait rien. Il ne visite plus le Web, il n’a pas vu de pub, il n’a pas financé le site Web ni le moteur de recherche. Peut-être même utilise-t-il son ChatBot depuis une application mobile, donc sans passer par un navigateur.
Le Web n’a pas complètement disparu de l’équation, mais il est complètement invisibilisé.
Deuxième effet Kiss Cool : avec l’IA, l’information n’est plus produite par des humains mais par des machines. Donc le Web est inondé de contenus synthétiques d”intérêts variables (qui viendront à leur tour nourrir l’IA, ce qui est une idée… peu ragoutante).
La mer d’information qu’était le Web et que les humains “naviguaient” (comme on disait dans les années 1990) est devenu un océan pollué d’informations de qualité décroissante. Et les humains ne naviguent plus dessus, ils consomment un contenu synthétique qui en est issu.
On a remplacé un outil qui permettait aux humains de publier et d’accéder aux contenus proposés par d’autres humains (donc de communiquer et de se comprendre) par des outils où du contenu est généré par des machines qui est résumé par des machines. L’humain a quasiment disparu de l’équation.
Bref le Web est (bientôt) mort, tué par l’IA.
Peut-on alors inventer un nouveau Web, vraiment humain, sans IA, avec des barrières bloquant les IA ?
Si oui, à ce moment-là, on pourra alors crier “Le Web est mort, vive le Web”…
01.02.2026 à 22:12
Tristan Nitot
En théorie de l’automatisation, un “centaure” est une personne assistée par une machine. Le fait de conduire une voiture fait de vous un centaure, tout comme utiliser de l’autocomplétion (un logiciel qui finit vos phrases). Un centaure inversé est une tête de machine sur un corps humain, une personne qui sert d’appendice charnu à une machine qui le pilote. Par exemple, un chauffeur livreur Amazon, assis dans une camionnette bardée de caméras dopées à l’IA, est un centaure inversé. Ces machines suivent les mouvements de ses yeux, lui retirent des points s’il regarde dans une direction interdite, surveillent les mouvements de sa bouche car chanter au boulot lui est interdit et le dénoncent au chef s’il n’attend pas son quota de colis livrés. Le chauffeur est dans la camionnette parce que cette dernière ne peut pas se conduire seule et ne peut pas déposer le colis sur le pas de la porte. Le chauffeur est un périphérique de la camionnette, c’est elle qui pilote l’humain à une vitesse surhumaine, exigeant une endurance surhumaine. Bien sûr autant c’est sympa d’être un centaure, autant c’est horrible d’être un centaure inversé. Il y a plein d’outils IA qui nous font croire que nous sommes des centaures, mais mon avis est que ces outils sont créés et financés avec l’objectif de créer des centaures inversés, ce qu’aucun d’entre nous ne veut être.
Ce que j’ai lu ces derniers temps, pour mémoire, et ce qui mérite d’être partagé.
27.01.2026 à 11:44
Tristan Nitot

Ce week-end, j’ai réalisé que le développement assisté par l’IA est en train de bouleverser l’Open Source bien plus que je ne le pensais.
Fan d’Open Source et de logiciel libre (on ne passe pas 17 ans sur le projet Mozilla comme ça), je vois un ami, Pablo Pernot développer seul avec une IA un réseau social professionnel, Ponos-Jobs, concurrent de LinkedIn.
J’ignore encore à quel point le projet sera un succès, mais je découvre qu’il est open source et que son auteur affirme “comme c’est codé par une IA, ça n’a pas d’importance”. Et ça m’intrigue bigrement !
Pour moi, un logiciel libre / Open source est intrinsèquement meilleur qu’un logiciel propriétaire, parce que le code est libre et ouvert, et que donc je suis beaucoup moins dépendant de son auteur.
Et là, pourquoi le fait que ça soit généré par IA fait que la nature open-source du projet n’importe plus ? Parce que l’IA, avec sa capacité à générer rapidement beaucoup de code, travaille très différemment des humains.
Une communauté d’humains qui écrit du code, c’est à la main, petit à petit, comme des maçons qui monteraient un mur brique par brique. Si un bout du logiciel est défectueux, alors on peut le changer, le remplacer, le corriger. Un humain qui n’aime pas telle ou telle fonctionnalité va remplir un rapport (une “issue”, en anglais) pour suggérer un changement. Et quelqu’un qui travaille déjà sur le projet va regarder cette “issue”, essayer de comprendre ce que veut la personne, si ça a du sens. L’auteur de “l’issue” peut aussi proposer un bout de code alternatif qui pourrait répondre à son besoin, façon “mets ce code à la place du tien, ça résout le problème”. C’est comme ça qu’on bâtit en même temps un logiciel de meilleure qualité et une communauté de contributeurs.
Mais avec l’IA, le changement est énorme : quelques lignes de “prompt” suffisent à lancer la machine qui va ignorer l’existant et réécrire tout un module. L’IA ne va pas changer une brique dans un mur, elle va faire un tout nouveau mur en béton. Qu’on jettera si nécessaire puisqu’il est si facile de refaire tout un mur avec l’IA.
Alors certes, on va plus vite, mais on ne construit plus de communauté. On efface l’essentiel des humains de l’équation. Reste juste le contributeur principal, tout seul. Mais augmenté par une IA.
Qu’arrivera-t-il quand il se lassera de ce projet ? Dans une communauté, on arrive à faire émerger des gens qui veulent reprendre le projet quand c’est nécessaire, mais là, avec l’IA, ce ne sera plus le cas.
Et vous, que pensez-vous de l’arrivée de l’IA dans les projets open source et de logiciels libres ?