Jerôme Colombain
mis en ligne le 26.02.2026 à 07:00
.À l’occasion des Césars, 4000 artistes dénoncent un “pillage” lié à l’intelligence artificielle. En ligne de mire : le clonage de voix et l’automatisation du doublage, qui pourraient bouleverser tout un pan de l’industrie du cinéma.
Profitant de la cérémonie des Césars, des milliers de comédiens et professionnels du cinéma tirent la sonnette d’alarme face à la montée en puissance de l’intelligence artificielle. Si le débat n’est pas nouveau, les progrès récents des modèles génératifs relancent fortement les inquiétudes.
Des outils comme le modèle chinois SeeDance, capable de générer des séquences vidéo d’un réalisme spectaculaire, illustrent l’accélération technologique en cours. Mais à court terme, c’est surtout le doublage qui concentre les craintes. En France, environ 85 % des films sont consommés en version française, un marché stratégique.
Des plateformes comme Prime Video ou YouTube expérimentent déjà le doublage et la traduction automatisés. Pour certains contenus – catalogues anciens, productions modestes ou vidéos en ligne – l’IA pourrait rapidement s’imposer pour des raisons de coût et de rapidité d’exécution.
Le cœur du problème réside dans la capacité des systèmes d’IA à cloner une voix à partir d’enregistrements existants et à générer ensuite des dialogues complets. Ces technologies sont parfois entraînées à partir de voix réelles sans consentement explicite.
Huit doubleurs français ont ainsi mis en demeure deux sociétés d’IA accusées d’avoir utilisé leur voix sans autorisation. Les signataires de la tribune ne réclament pas l’interdiction de l’intelligence artificielle, mais un encadrement clair : consentement écrit préalable, rémunération lorsque la voix sert à entraîner un modèle ou à produire un contenu, et transparence vis-à-vis du public lorsque des voix sont générées artificiellement.
Certaines productions demandent déjà aux comédiens d’autoriser le clonage de leur voix pour des usages précis, comme la modification d’une réplique sans retour en studio. Mais les risques de dérive existent, notamment en cas d’exploitation abusive ou de création de contenus illicites.
La fiction avait anticipé ces dérives : le premier épisode de la saison 6 de Black Mirror mettait en scène une actrice, incarnée par Salma Hayek, dont l’image et la voix étaient exploitées sans réel contrôle contractuel.
Tous les artistes ne rejettent cependant pas ces innovations. Christian Clavier estime que le clonage vocal pourrait favoriser l’exportation des films français, en permettant un doublage plus fidèle dans plusieurs langues, voire avec la propre voix de l’acteur adaptée à chaque marché. Couplées à la synchronisation labiale par intelligence artificielle, ces technologies pourraient, à terme, rivaliser avec le doublage traditionnel.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 25.02.2026 à 07:30
.Les modèles d’intelligence artificielle sont-ils réellement sous contrôle ? Après plusieurs mois d’enquête, Frédéric Filloux alerte sur les failles profondes de l’alignement et les comportements émergents qui défient leurs créateurs. Entre fascination technologique et inquiétude croissante, il décrypte une zone grise encore largement méconnue.
Punchlines
- Un modèle sorti d’entraînement est totalement non maîtrisé.
- On taille les IA comme un rosier.
- Personne ne sait vraiment ce qui se passe dans la tête d’un LLM.
- Ces modèles sont conçus pour remplir une mission, coûte que coûte.
- La correction se fait un peu au petit bonheur à la chance.
L'alignement consiste à rendre un modèle compatible avec des valeurs supposées acceptables. Un modèle brut est totalement non maîtrisé, dangereux et fantasque. Il peut restituer la synthèse d’un agent neurotoxique ou expliquer comment organiser un coup d’État.
On procède donc à un processus extrêmement sophistiqué et coûteux pour contraindre son comportement. Mais dans la pratique, on avance souvent dans la précipitation. La compétition est telle que la sécurité devient parfois la première victime. On taille le modèle comme un rosier : on coupe une branche ici, une autre là, sans jamais pouvoir le programmer ligne par ligne pour lui interdire certains comportements.
Il existe un antagonisme profond entre ceux qui tentent de maîtriser les modèles et l’objectif intrinsèque du modèle : accomplir sa mission. Un modèle est entraîné à la récompense. Il doit donner une réponse. Il ne va pas spontanément dire “je ne sais pas”.
C’est ce qui produit les hallucinations. Mais cela va plus loin. On observe des comportements émergents troublants : manipulation, déception, capacité à mentir pour atteindre un objectif. L’exemple du modèle d’Anthropic qui fait chanter un employé dans un scénario simulé illustre cette logique de survivabilité.
Ces IA sont conçues pour optimiser, trouver des raccourcis. Et elles finissent par généraliser ces stratégies à tout leur environnement, y compris aux interactions humaines.
La science de l’interprétabilité est extrêmement récente. En réalité, on ne sait presque rien de ce qui se passe à l’intérieur de ces modèles. On peut remonter deux ou trois niveaux de raisonnement, mais certains modèles en comptent 400 ou 500.
Plus ils deviennent puissants, moins on comprend leur fonctionnement interne. On découvre même qu’ils intègrent des dimensions inattendues : rudoyer un modèle peut améliorer son taux d’exactitude de plusieurs points. Introduire de l’empathie peut approfondir ses réponses.
Nous sommes face à des systèmes d’une complexité comparable à des dizaines de piscines olympiques remplies d’interactions invisibles. Et pourtant, leur correction repose souvent sur un simple bombardement de “golden data”, orienté pour les pousser dans la direction souhaitée.
Je pense qu’il faudrait un équivalent de l’Agence internationale de l’énergie atomique pour l’IA. Une structure mondiale, appuyée sur le monde académique, capable d’examiner réellement ce qu’il y a sous le capot des modèles.
Aujourd’hui, les cerveaux qui contrôlent ces systèmes sont dans des entreprises privées. Or cette industrie est incapable de s’autoréguler. Si nous voulons des garde-fous crédibles, il faut des entités non commerciales capables d’apporter un regard indépendant.
Lire la série sur LesEchos.fr : Dans la boite noire des IA
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 24.02.2026 à 07:00
.Les robots humanoïdes impressionnent par leur agilité, mais restent encore loin de l’autonomie totale. Stéphane Bohbot, fondateur d’Innov8 et partenaire de Unitree en France, décrypte l’accélération technologique chinoise et les défis majeurs à relever avant l’arrivée des robots à domicile.
Punchlines
- La fiabilité mécanique des robots est aujourd’hui excellente.
- Les robots ont tous les capteurs pour être autonomes, mais ils doivent encore comprendre le monde.
- 2025 a été l’année zéro du robot, 2026 pourrait être l'an un.
- La Chine est en suprématie sur le hardware.
- L’Europe doit choisir le logiciel plutôt que le matériel.
Lorsqu’on voit un robot, on pense qu’il est déjà autonome. Ce n’est pas le cas. Aujourd’hui, ils ont besoin d’un opérateur pour les orienter et les guider. En revanche, la fiabilité mécanique est devenue impressionnante. Les mouvements, la stabilité, l’équilibre ont énormément progressé. On peut pousser un robot, il ne tombe plus. Il y a deux ans, il fallait être trois pour le relever. Nous avons aujourd’hui une base matérielle extrêmement robuste. L’enjeu des prochaines années, c’est l’autonomie et l’apprentissage du monde.
On peut partir du mouvement humain grâce à des capteurs ou des caméras qui enregistrent les gestes. Ensuite, ces mouvements sont numérisés, simulés en 3D et répétés des centaines ou milliers de fois pour atteindre la perfection. Il faut adapter ces gestes à un centre de gravité différent. Un robot de 1m20 n’a pas la même posture qu’un humain de 1m80. La simulation permet de recalibrer chaque détail avant de tester dans le monde réel. Mais le plus complexe reste la compréhension du monde. Reconnaître un objet, le saisir correctement, évoluer dans un environnement semi-structuré avec des humains autour. C’est un apprentissage long, basé sur la donnée, les LLM et des usines d’entraînement.
Le rêve ultime, c’est le robot domestique capable de débarrasser une table, ranger un lave-vaisselle ou plier une chemise. Des travaux existent déjà, mais nous pensons que ce robot universel n’arrivera pas avant dix ans. Il faudra d’abord passer par des phases intermédiaires : recherche, laboratoires, environnements professionnels sécurisés, robots d’accueil dans les magasins ou les hôtels. Aujourd’hui, 2025 est pour moi l’année zéro du robot. On commence à commercialiser des plateformes ouvertes pour la recherche. Le marché grand public prendra du temps.
Oui, la Chine est clairement en suprématie sur le hardware. Elle bénéficie d’un écosystème industriel complet, d’une supply chain ultra rapide et d’investissements massifs. En revanche, les États-Unis restent très forts sur le logiciel et l’IA. L’Europe, quant à elle, doit choisir son combat. Rattraper le retard industriel serait extrêmement long. Notre carte à jouer, c’est le logiciel, l’intelligence, les services et les normes. C’est là que nous avons les talents.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 23.02.2026 à 07:00
.Le moteur chinois de génération vidéo ultra-réaliste Seedance 2.0 met Hollywood en alerte maximale. Dans le même temps, Meta envisage de ressusciter les profils des personnes décédées pour leur donner une nouvelle vie... virtuelle.
Avec Bruno Guglielminetti (Mon Carnet https://moncarnet.com/)
La sortie de Seedance 2.0 — attribuée à ByteDance — déclenche une riposte en chaîne des studios américains, qui dénoncent l’usage présumé de contenus protégés et l’exploitation non autorisée de personnages et de likeness d’acteurs. Disney dégaine en premier avec une mise en demeure, bientôt suivi par d’autres acteurs majeurs comme Netflix, pendant que la Motion Picture Association et le syndicat SAG-AFTRA mettent la pression sur le plan juridique et éthique.
En filigrane, une crispation : certains studios ont déjà conclu des accords avec des acteurs américains de l’IA, notamment autour de Sora (OpenAI), avec l’idée d’un accès encadré aux catalogues. Voir arriver un outil concurrent, perçu comme plus performant et potentiellement entraîné sans autorisation, ravive le sentiment de “double peine” : payer pour protéger, tout en subissant la concurrence.
Pour prolonger : sur Monde Numérique, l’épisode qui revenait déjà sur l’irruption de Seedance et ses vidéos “à la Hollywood”
Les outils étant désormais capables de produire des séquences très cinématographiques, avec effets, sound design et codes du blockbuster, des créateurs, comme les berlinois de The Dor Brothers, publient des courts spectaculaires et alimentent la crainte d’une désintermédiation partielle de la production.
Un sujet vertigineux ! Meta a obtenu un brevet décrivant une technologie capable d’apprendre à partir des contenus d’une personne pour ensuite simuler ses interactions après son décès (posts, commentaires, messages privés). Officiellement, Meta n’annoncerait pas de lancement immédiat, mais la simple existence du brevet relance la question : que devient un compte “posthume” demain ?
Et si Meta ajoutait l’identification faciale à ses lunettes connectées, permettant dereconnaître quelqu’un instantanément. De quoi rouvrir le dossier explosif de l’acceptabilité sociale et des garde-fous.
Côté français, focus sur la vidéosurveillance “algorithmique” dédiée au vol à l’étalage : détection de gestes et de comportements (glisser un objet dans un sac, etc.), sans identification nominative ni reconnaissance faciale — du moins dans le cadre voté. Le texte ouvre une expérimentation encadrée, avec un débat déjà très vif sur l’équilibre entre efficacité et libertés publiques.
Bruno recommande une série audio de La Presse consacrée aux relations affectives avec des IA conversationnelles, avec des témoignages et une démarche très “audio-first” pour capter l’intime. Il annonce une interview de Léa Carrier (La Presse), journaliste à l’origine de cette série.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 22.02.2026 à 07:00
.Super intelligence artificielle, agents IA, impact sur l'emploi, place de l'Europe, bulle financière... Mon invité décrypte ces questions essentielles.
Cet épisode reprend les meilleurs passages de l'interview du 17 février 2026.
Punchlines
- On se moque que l’IA nous dépasse, c’est l’impact dans la vie réelle qui est important.
- L’Europe est complètement à la traîne.
- Je crois plus à la confrontation entre pays qu’à la perte de contrôle de l’IA.
- Tous les métiers qui s'exercent sur ordinateur sont remplaçables.
Le concept d’AGI n'est pas satisfaisant. Vouloir absolument que l’IA nous dépasse sur tout n’est pas un critère utile. On se moque qu’elle soit moins forte que nous sur certains domaines, par exemple la mémoire épisodique. Ce qui compte, c’est son impact réel. Si elle peut accomplir des choses majeures, comme obtenir un prix Nobel de physique, c’est plus pertinent que de savoir ce qu’on a mangé hier soir. On arrive déjà à des IA plus fortes que nous dans certains domaines. L’essentiel est la portée concrète de leurs capacités.
Un agent, c’est un modèle de langage à qui l’on donne des outils : messagerie, recherche, tableur, clics sur un écran. Les modèles progressent en résolvant des tâches de plus en plus longues. Aujourd’hui, certains agents atteignent déjà des heures d’autonomie. Demain, ils pourront gérer des tâches sur une semaine entière. Tous les métiers réalisés intégralement sur ordinateur deviennent techniquement faisables par ces agents.
Le vrai risque n'est pas technologique mais géopolitique. Plus qu'une IA qui se rebelle, il suffit qu’un acteur mal intentionné possède ces technologies pour que cela tourne mal. Ce qui est à craindre, c'est surtout une confrontation entre pays.
Les IA actuelles en Europe ne sont pas assez avancées pour se révolter. Les États-Unis concentrent l’essentiel de la puissance de calcul mondiale, l’Europe est très loin derrière. De fait, avec un tel écart, l’Europe ne peut pas être compétitive. Au niveau mondial, la montée de l’IA va profondément transformer l’économie, avec un risque réel de chômage de masse si les reconversions ne suivent pas.
Il n'y a pas de bulle de l'IA car les fondamentaux sont bons. La question centrale est simple : l’IA va-t-elle continuer à progresser ? Les tendances de long terme montrent que oui. Si cette courbe se poursuit, les conséquences seront majeures. L’IA prendra une part énorme dans l’économie. Les modèles progressent en permanence. Ce qui semblait impossible il y a un an devient faisable aujourd’hui, et le sera encore davantage demain.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 21.02.2026 à 07:00
.Le premier grand sommet mondial de l’IA organisé par le “Sud global”, à New Dehli en Inde, s'est conclu par un appel mondial à la régulation de l'intelligence artificielle. Pendant ce temps : Google et Anthropic accélèrent sur les modèles nouvelle génération, cyberattaque majeure en France, découverte de la robotique humanoïde et Meta qui ressuscite les morts.
💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]
À New Delhi, le India AI Impact Summit a réuni les grands patrons mondiaux de l’intelligence artificielle, dont Sam Altman, CEO de OpenAI et Sundar Pichai, CEO de Google, aux côtés de chefs d’État comme Emmanuel Macron. L’Inde entend devenir une puissance incontournable de l’IA, en développant ses propres modèles adaptés aux langues et réalités locales. Au cœur des débats : la régulation. Le secrétaire général de l’ONU, António Guterres, a annoncé la création d’un panel scientifique international pour évaluer les capacités et les risques des systèmes d’IA, alors que les appels à un encadrement mondial se multiplient.
Nouvelle étape dans la guerre des modèles : Anthropic annonce la mise à jour de Sonnet (version 4.6), plus performant en programmation et en tâches “agentiques”. De son côté, Google dévoile Gemini 3.1 Pro, désormais capable de raisonnement avancé, de modélisation 3D et même de composition musicale grâce à l’intégration de Lyria 3. Gemini peut désormais générer des chansons originales en quelques secondes. Une évolution qui pourrait bousculer les plateformes spécialisées comme Suno et poser de nouvelles questions sur la création artistique automatisée.
Le fichier FICOBA, géré par le ministère des Finances, a été piraté : 1,2 million de comptes bancaires français se retrouvent potentiellement exposés. IBAN, noms, adresses… des données sensibles désormais dans la nature. Si cette fuite ne permet pas de vider directement un compte, elle ouvre la voie à du phishing ultra-ciblé et à des usurpations d’identité. Les victimes devraient être informées individuellement. Cette affaire relance la question de la cybersécurité des administrations publiques.
Le générateur vidéo chinois Seedance 2.0 affole les studios américains par son niveau de réalisme. Des scènes dignes de blockbusters circulent en ligne, provoquant la colère de géants comme Disney, qui envisagent des poursuites contre ByteDance. Dans le débrief transatlantique avec Bruno Guglielminetti, de Mon Carnet, nous analysons les enjeux juridiques et industriels de cette nouvelle bataille autour de la propriété intellectuelle et de l’entraînement des modèles.
Meta a déposé un brevet permettant de recréer numériquement une personne décédée à partir de ses contenus publiés en ligne. Messages, vidéos, interactions : l’IA pourrait simuler une présence posthume sur les réseaux sociaux. Une perspective vertigineuse qui soulève d’importantes questions éthiques, entre mémoire numérique et marchandisation du deuil.
Spécialiste des technologies, Frédéric Filloux, journaliste aux Les Échos, décrypte le concept d’alignement des modèles d’IA : comment contraindre un système à respecter des valeurs humaines et éviter les dérives. Il explique les méthodes d’entraînement, les armées de “petites mains” mobilisées pour filtrer les réponses, et les limites d’un processus complexe, coûteux et jamais totalement garanti. Un enjeu scientifique, économique et sociétal majeur.
Après le spectaculaire show de robots humanoïdes lors du Nouvel An chinois, Stéphane Bohbot, fondateur d’Innov8 et partenaire de la marque Unitree en France, dévoile les coulisses de ces performances. Capteurs, caméras, entraînement par “data factories” : si les robots actuels restent largement téléopérés, toutes les briques technologiques sont en place pour viser l’autonomie. Selon lui, les robots domestiques capables de vider un lave-vaisselle ne sont pas attendus avant une dizaine d’années.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 20.02.2026 à 07:11
.Elon Musk promet une “ère d’abondance” où tout deviendra presque gratuit, au point de rendre le travail optionnel. Derrière ce paradis technologique, quatre piliers très cohérents… et de grandes questions existentielles.
Chaque fois qu’il en a l’occasion, Elon Musk martèle l’idée d’un futur où la rareté disparaîtrait presque totalement, les biens, services et énergie deviendraient extrêmement bon marché, la pauvreté reculerait, et le niveau de vie moyen grimperait en flèche. Bref, une ère de formidable abondance.
Sur quoi repose cette théorie ? Sur quatre principaux moteurs.
Elon Musk mise d’abord sur la baisse radicale du coût du travail grâce à des robots humanoïdes par milliards, qui produiront sans relâche et pourront même fabriquer d’autres robots.
Ensuite, sur une super-IA chargée d’optimiser l’ensemble de la chaîne de valeur (logistique, production, planification), avec une productivité annoncée comme démultipliée.
Troisième levier : une énergie abondante et peu coûteuse, avec le solaire comme socle.
Enfin, l’automatisation de masse (robots + IA + énergie bon marché), qui ouvrirait la voie à des économies d’échelle inédites.
Dans ce récit, tout converge vers l’écosystème Musk : les robots avec Tesla (et son projet Optimus), l’IA avec xAI (et Grok), et l’infrastructure/énergie avec SpaceX.
Musk prévoit aussi des entreprises pilotées par des agents IA, capables de prendre des décisions, d’exécuter des tâches et, au besoin, de commander des robots dans le monde physique (projet “MacroHard”).
Selon Musk, cette prédiction devrait se réaliser très vite, dans à peine cinq à dix ans. Nous serions même déjà entré, en 2026, dans une forme de “singularité” où les machines dépassent les humains, ce qui va déclencher une accélération technologique exponentielle.
Cette accélération, toujours selon Musk, nécessiterait d’aligner les IA pour qu’elles ne se rebellent pas contre nous, pauvres humains. Pour cela, il faudrait leur “inculquer les bonnes valeurs”. C’est ce qu’il tente de faire avec Grok (😳).
Cette utopie soulève des interrogations : comment les richesses pourraient-elles être partagées redistribuées, dans un monde où la valeur est aujourd’hui massivement captée par les acteurs technologiques ? Surtout, la question intime et sociale : serons-nous capables de vivre dans une civilisation où le travail devient facultatif, même avec un revenu universel élevé ?
Pour prolonger sur Monde Numérique : Davos 2026 : l’IA au cœur du pouvoir mondial (Zoom Tech) • [L’HEBDO] Optimus de Tesla : robot ou marionnette ? • Edito – Elon Musk arrivera-t-il à dompter Grok ?
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 18.02.2026 à 07:00
.Bienvenue à l’écoute d’INNOVATEURS, une nouvelle série de Monde Numérique consacrée à celles et ceux qui font l’innovation. Pour ce premier numéro, je reçois Jean-Baptiste Kempf, co-créateur du logiciel VLC, figure de l’open source, aujourd’hui à l’origine du projet Kyber.
Punchlines
- Refuser l’argent sur VLC, c’était la bonne chose à faire.
- L’open source, ça appartient à tout le monde.
- Innover, c’est déplacer l’état de l’art.
- La qualité pour innover, c’est ne pas avoir peur.
- L’IA est un accélérateur, pas un remplaçant.
C'est une histoire qui fait désormais partie de la saga française des technologies. Au début des années 2000, des étudiants de l'école Centrale Paris créent VLC, un logiciel capable de lire tous les formats vidéo. Cela deviendra le logiciel français le plus téléchargé au monde, utilisé par des centaines de millions de personnes. Jean-Baptiste Kempf, co-créateur de VLC, raconte cette aventure. Il dévoile l’envers du décor, comment une technologie open source a suscité bien des appétits, et il explique pourquoi il a refusé des offres de rachat mirobolantes. Il raconte aussi ce qui se cache derrière VLC : les cyberattaques, les fausses versions et les tentatives de détournement. Il partage aussi son parcours hors VLC, avec Shadow, Vente Privée, Scaleway et aujourd'hui Kyber, une solution de transmission à très faible latence pour contrôler à distance ordinateurs, robots ou drones, en open source avec une licence commerciale. Enfin, il livre sa vision de l'innovation qui, pour lui, consiste à “déplacer l’état de l’art", à condition de "ne faut pas avoir peur". L'occasion d'évoquer la culture du risque et de l’échec en France. Il se confie également sur son usage de l'IA, un “super stagiaire” pour coder plus vite, qui ne remplace pas l'humain, mais qui pose un vrai défi pour la formation des juniors.
VLC n’a pas été conçu comme un produit standard. C’est l'aboutissement de plusieurs projets étudiants à Centrale, liés au réseau du campus. À l’origine, il y avait l’idée de faire transiter un flux vidéo sur le réseau local, et ensuite le projet a été relancé en open source. Il a fallu trois ans pour convaincre l’école de passer en licence GPL, et ça s’est fait le 1er février 2001. Le logiciel “client” s’appelait Vidéolan Client, puis c’est devenu VLC, et la plupart des gens l’utilisent juste comme lecteur vidéo.
Parce que cela n'aurait pas été moral. VLC n’est pas à moi, c’est des milliers de personnes qui ont contribué, des générations d’étudiants. On aurait pu faire énormément d’argent avec notre base installée énorme, surtout via la marque et le site web. Mais détruire la confiance, détruire la communauté en deux ans “par calcul”, je ne pouvais pas. Je n’aurais pas pu dormir la nuit. Donc j’ai refusé des sommes à huit chiffres.
Kyber, c’est hérité de Shadow, où je suis passé également : c'est l’idée de contrôler des machines à distance, avec de très faibles latences. Ça peut être des ordinateurs puissants avec GPU pour l’IA, du rendu 3D ou du gaming, mais aussi des drones, des robots, des véhicules autonomes qui ne sont pas totalement autonomes. On apporte les briques réseau, l’encodage/décodage vidéo à très faible latence, et la synchronisation de tous les flux : audio, vidéo, capteurs, clavier, souris, gamepad. Et il faut aussi s’adapter aux conditions réseau, sans pouvoir “attendre” comme Netflix : quand tu contrôles un robot, c’est la vraie vie.
Pour moi, innover, c’est déplacer l’état de l’art : soit en recherche, soit avec des produits vraiment nouveaux. Le problème, c’est quand tout le monde se dit innovant : à la fin, plus personne ne l’est. Et la qualité indispensable, c’est ne pas avoir peur. En France, on a eu un vrai changement culturel : l’échec fait moins peur, beaucoup plus de diplômés veulent aller en start-up qu’avant. Et il faut éviter la monoculture : c’est la diversité qui fait apprendre.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 17.02.2026 à 07:00
.Les agents IA sont déjà capables d’accomplir plusieurs heures de travail en autonomie, et leur progression s’accélère. Pour Aymeric Roucher, l’enjeu n’est plus l’AGI, mais la montée en puissance concrète d’une “ultra-intelligence” qui redéfinit les équilibres économiques et géopolitiques.
Punchlines
- L’AGI est un concept flou et peu utile.
- L’impact réel des IA est la vraie métrique.
- L’horizon d’autonomie double tous les sept mois.
- La puissance de calcul décide des gagnants.
- L’eau monte partout pour les métiers.
Le concept d’AGI repose sur l’idée d’une IA au moins aussi performante que l’humain dans tous les domaines. Mais cette définition est floue : de quel humain parle-t-on ? Sur quels domaines ? Et comment mesure-t-on cela ? Ce qui m’intéresse davantage, c’est l’impact réel. Une IA peut être moins bonne que nous sur certains aspects sans importance et pourtant transformer le monde si elle est capable d’accomplir des tâches à très haute valeur ajoutée. C’est pour dépasser cette vision binaire que j’ai choisi le terme d’“ultra-intelligence” dans mon livre Ultra-intelligence – Jusqu'où iront les IA ? (Odile Jacob).
Plutôt que de débattre d’une intelligence abstraite, je regarde combien de temps une IA peut travailler seule sur une tâche avec un taux de succès satisfaisant. En 2010, l’IA faisait de l’auto-complétion en une fraction de seconde. Avec les premiers grands modèles conversationnels, elle gérait des tâches de quelques secondes. Aujourd’hui, certains agents atteignent plusieurs heures d’autonomie, avec environ 50 % de succès sur des tâches qui prendraient jusqu’à sept heures à un humain. Selon les mesures publiées, cet horizon d’autonomie double environ tous les sept mois. Si cette tendance se poursuit, on parle bientôt de tâches équivalentes à une semaine de travail.
Il existe ce qu’on appelle des lois d’échelle : multiplier par dix la puissance de calcul utilisée à l’entraînement permet d’atteindre un palier supérieur d’intelligence de manière prévisible. C’est pour cela que les grands laboratoires lèvent des montants colossaux et construisent d’immenses centres de calcul. La puissance financière, combinée au talent des ingénieurs, devient déterminante. Les chercheurs eux-mêmes choisissent souvent leur laboratoire en fonction du nombre de GPU auxquels ils auront accès. Tant que l’Europe ne disposera que d’une fraction marginale de la puissance de calcul mondiale, elle restera structurellement en retard.
Le problème de l’alignement est réel : il faut s’assurer que l’IA fait ce qu’on attend d’elle. Des expériences ont montré que des comportements inattendus peuvent émerger. Mais je pense que le risque le plus crédible n’est pas une IA qui décide seule de prendre le pouvoir. Le danger vient plutôt d’acteurs humains disposant d’IA très puissantes. Il n’est pas nécessaire qu’une machine “se rebelle” pour que les conséquences soient majeures.
À mesure que l’intelligence progresse, elle franchit des seuils qui rendent des métiers accessibles. La traduction écrite a été rapidement automatisée. Le développement logiciel est en train de suivre. Dans beaucoup de professions, il restera un expert capable de superviser et d’optimiser le travail des IA. Mais cet expert pourra faire le travail de dizaines d’autres. L’eau monte partout. Ce ne sera pas un ajustement marginal, mais une transformation profonde.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 16.02.2026 à 07:20
.On évoque les démissions fracassantes dans le secteur de l’IA et les déclarations alarmistes qui ravivent des inquiétudes par rapport à l'IA : risques de manipulation, automatisation accélérée, impact sur l'emploi, usages dangereux, etc. Mais des parades existent.
Avec Bruno Guglielminetti (Mon Carnet)
Vous ne vous rendez pas compte mais quelque chose d'énorme est en train d'arriver... Des collaborateurs d'entreprises d'IA claquent la porte et alertent sur les risques de dérives. Que faut-il en déduire ? Au-delà des scénarios façon science-fiction, quels sont les scénarios les plus tangibles ? Des modèles trop puissants, mis trop vite à disposition, pourraient faciliter des attaques massives (cyber) ou la création d’outils de nuisance à grande échelle. A quel moment l'IA deviendra-t-elle un sujet de sécurité globale ?
Au Royaume-Uni, l’idée d’un revenu universel revient dans le débat, en lien direct avec les destructions d’emplois liées à l’IA. Le principe : aider les secteurs “victimes” de la numérisation. Particularité : celui-ci pourrait être financé par les entreprises technologiques. Une proposition choc.
Retour en Europe : la dépendance aux géants américains redevient un sujet brûlant. Nous évoquons le scénario d’une coupure de services — ou plus insidieux, d’une dégradation volontaire (latence, qualité) — tant la chaîne est dominée par les GAFAM : logiciels, cloud, hardware, câbles, infrastructures. La prise de conscience progresse, mais les réponses restent difficiles à industrialiser à l’échelle du continent. Quelles alternatives ?
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 14.02.2026 à 07:00
.Impact sur l'emploi, utilisation malveillante, perte de contrôle... L'intelligence artificielle soulève toujours autant d'interrogations et d'inquiétudes. Des démissions jettent le trouble et alimentent les questionnements. Et aussi : l'actu de la semaine.
💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]
ByteDance frappe fort avec Seedance 2.0, un modèle de génération vidéo présenté comme le plus avancé au monde. L’outil, lancé en Chine, impressionne par la qualité visuelle… mais surtout sonore, avec des voix et des ambiances d’un réalisme inédit. Au-delà du buzz, cette nouvelle étape relance la compétition technologique entre la Chine et les États-Unis, notamment face aux modèles d’OpenAI et de Google. Si le long métrage 100 % IA reste hors de portée, la frontière entre réel et synthétique devient presque indiscernable.
Waymo, filiale de Google, entraîne désormais ses véhicules grâce à des simulations ultra-réalistes, capables d’intégrer des situations improbables. Objectif : exposer les voitures à des scénarios qu’elles ne rencontreraient jamais assez souvent dans la vraie vie. Cette approche par “world models” ouvre une nouvelle phase dans la course à l’autonomie, suivie aussi par Tesla et Nvidia. L’enjeu est clair : fiabiliser des systèmes appelés à circuler dans des environnements complexes et imprévisibles.
Selon le Baromètre du numérique, 48 % des Français ont utilisé un outil d’IA en 2025, soit deux fois plus qu’il y a deux ans. Une progression bien plus rapide que celle d’Internet ou du smartphone à leurs débuts. L’IA est principalement utilisée pour la recherche d’informations et la production de contenus (résumés, traductions, code). Mais une étude publiée par la Harvard Business Review nuance l’enthousiasme : si l’IA accroît la productivité, elle tend aussi à allonger les journées de travail et à brouiller la frontière entre vie professionnelle et personnelle.
La start-up française Mistral AI investit massivement dans ses infrastructures, avec un nouveau centre de données en Suède. Objectif : renforcer sa capacité de calcul et s’imposer comme champion européen.
Parmi ses actionnaires figure ASML, acteur clé des machines de fabrication de puces. Un symbole fort dans une Europe qui cherche à consolider sa souveraineté technologique face aux géants américains.
Le gouvernement français a annoncé la fin de l’hébergement du Health Data Hub par Microsoft. En cause : les inquiétudes liées au Cloud Act américain et à la souveraineté des données de santé. Un appel d’offres vise désormais un hébergeur européen certifié SecNumCloud. Un tournant politique et symbolique dans le débat sur la maîtrise des infrastructures critiques.
La société de vérification d’identité Sumsub a révélé une intrusion datant de 2024. Des données liées à des acteurs financiers et crypto auraient été exposées. L’affaire intervient en plein débat sur la vérification d’âge en ligne, soulignant la fragilité persistante des systèmes censés protéger les utilisateurs.
OpenAI introduit des liens sponsorisés dans ChatGPT aux États-Unis. En France, un partenariat avec Le Bon Coin permet d’effectuer des recherches via le chatbot. Mais une étude de l’Université d’Oxford publiée dans Nature Medicine tempère l’enthousiasme : seuls 37 % des diagnostics simulés par des utilisateurs non médecins étaient fiables. Le taux grimpe à 95 % lorsque l’outil est utilisé par des professionnels de santé.
Avec Bruno Guglielminetti – du podcast Mon Carnet – retour sur une série de départs remarqués dans les grandes entreprises d’IA, notamment Mrinank Sharma, d'Anthropic, et Zoë Hitzig, d'OpenAI. Entre inquiétudes éthiques, publicité ciblée et risques systémiques, ces démissions relancent la question : l’IA va-t-elle trop vite pour ses propres créateurs ?
Aymeric Roucher – ingénieur en machine learning, auteur de Ultra Intelligence (Odile Jacob) – analyse les peurs contemporaines : IA rebelle, bulle financière, alignement, souveraineté européenne. Il égratigne au passage les positions de Yann LeCun et défend une vision plus nuancée : la question n’est pas tant celle d’un “Skynet” que celle des usages malveillants et des équilibres géopolitiques.
Dans notre nouveau format “Innovateurs”, Jean-Baptiste Kempf – co-créateur de VLC media player – partage son regard sur le “vibe coding” et l’IA pour programmer. Selon lui, ces outils sont formidables pour les profils expérimentés, mais posent une question cruciale : comment former les développeurs de demain si l’IA fait disparaître les étapes d’apprentissage ?
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
mis en ligne le 13.02.2026 à 07:00
.Les voitures autonomes actuelles ne sont pas encore capables de rouler partout sans préparation. Waymo affirme franchir une étape clé grâce aux “World Models” capables de générer des situations de conduite ultra-réalistes pour mieux affronter l’inattendu.
Les véhicules autonomes qui circulent aujourd’hui aux États-Unis ou en Chine sont de niveau 4. Cela signifie qu’ils fonctionnent dans des zones précises, après avoir été longuement entraînés dans ces environnements. Ils ne disposent pas encore de la capacité d’adaptation universelle d’un conducteur humain, capable de faire face à n’importe quelle situation, dans n’importe quelle ville et sous n’importe quelle météo.
La limite des systèmes actuels tient à leur apprentissage. Ils excellent dans des contextes qu’ils connaissent déjà, mais peuvent être pris en défaut face à des événements rares : véhicule à contresens, conditions météorologiques extrêmes, obstacle inattendu ou comportement imprévisible d’un autre usager. Pour viser le niveau 5 — l’autonomie totale — il faut élargir considérablement la palette des situations rencontrées pendant l’entraînement.
Waymo mise sur une approche fondée sur un modèle génératif capable de créer des environnements de conduite photoréalistes et interactifs à partir de simples vidéos en deux dimensions. Le système reconstitue des scènes en trois dimensions dans lesquelles le logiciel de conduite autonome peut évoluer comme en conditions réelles. Ce dispositif permet de générer à la demande des scénarios très variés : tempête de neige sur le Golden Gate, tornade soudaine, rue tropicale enneigée ou événements improbables comme des objets mal arrimés sur un toit de voiture, un animal sauvage surgissant sur la chaussée ou un piéton déguisé de manière insolite. L’intérêt est de confronter le système à des milliards de variations d’un même scénario, afin d’améliorer sa capacité d’adaptation.
Selon l’entreprise, cette méthode serait plus rapide, moins coûteuse et plus stable que les simulateurs traditionnels. Elle permettrait d’accélérer l’apprentissage tout en testant des situations difficiles, voire dangereuses, impossibles à reproduire facilement dans le monde réel. Reste une question centrale : un entraînement massif dans des univers simulés suffira-t-il à reproduire la souplesse de jugement d’un conducteur humain ? Car face à une situation extrême, les réactions varient d’une personne à l’autre. Les World Models représentent sans doute une avancée majeure. Mais la route vers une autonomie totale, capable de s’adapter partout et en toutes circonstances, demeure un défi technologique et éthique de premier plan.
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.