URL du flux RSS

ACCÈS LIBRE Actualité IA

▸ les 10 dernières parutions

03.11.2025 à 16:04

OpenAI prend son indépendance – 38 milliards chez Amazon et une course effrénée à la puissance

Romain Leclaire
OpenAI, le laboratoire de recherche en intelligence artificielle derrière le phénomène ChatGPT, vient de signer un accord colossal de 38 milliards de dollars avec Amazon. L’objet de cette transaction astronomique ? L’accès, pour les sept prochaines années, aux services de cloud computing d’Amazon Web Services (AWS). Cette nouvelle n’est pas seulement un chiffre de plus […]
Texte intégral (1659 mots)
Logo d'OpenAI sur un fond noir avec un motif en toile de fond.

OpenAI, le laboratoire de recherche en intelligence artificielle derrière le phénomène ChatGPT, vient de signer un accord colossal de 38 milliards de dollars avec Amazon. L’objet de cette transaction astronomique ? L’accès, pour les sept prochaines années, aux services de cloud computing d’Amazon Web Services (AWS).

Cette nouvelle n’est pas seulement un chiffre de plus dans la folle course à l’IA. Elle est le symbole d’une nouvelle phase pour OpenAI, une déclaration d’indépendance stratégique et le début d’une période d’expansion qui défie l’imagination. Pour comprendre la magnitude de ce mouvement, il faut regarder non pas seulement le montant, mais le contexte dans lequel il prend place, et plus particulièrement, la relation complexe qu’entretient l’entreprise avec Microsoft, son principal investisseur et partenaire historique.

Depuis 2019, OpenAI vivait dans une sorte de cage dorée. Microsoft, ayant flairé le potentiel de l’IA générative bien avant la plupart de ses concurrents, avait investi des milliards dans la startup, devenant son partenaire quasi exclusif. Cet accord, bien que mutuellement bénéfique, avait un revers. Le contrat stipulait qu’OpenAI devait acheter la quasi-totalité de sa puissance de calcul exclusivement auprès de lui. Pour une entreprise dont l’unique carburant est la donnée et la puissance de calcul nécessaire pour la traiter, c’était une dépendance totale. OpenAI était, de fait, liée à l’infrastructure Azure et ne pouvait s’adresser à d’autres fournisseurs sans l’approbation explicite de son bienfaiteur.

Logo d'AWS avec des médailles symbolisant le leadership dans le cloud computing, à côté du logo d'OpenAI et du logo de Microsoft.

Mais le prodige est devenu trop grand, trop vite. Au cours des dix-huit derniers mois, la demande pour ChatGPT et les autres technologies maison a explosé. En coulisses, l’entreprise de Sam Altman se plaignait de plus en plus ouvertement de ne pas obtenir toute la puissance de calcul dont elle avait désespérément besoin de la part de Microsoft. Ses ambitions, notamment la construction de modèles toujours plus grands et plus performants, se heurtaient à un goulot d’étranglement logistique. Sentant le vent tourner et ne voulant pas brider sa poule aux œufs d’or, Microsoft a commencé à lâcher du lest, autorisant son partenaire à signer des accords avec deux autres sociétés de cloud.

Puis, la semaine dernière, la véritable rupture a eu lieu. Microsoft et OpenAI ont renégocié leur contrat en profondeur. Le résultat ? OpenAI est désormais totalement libre d’acheter ses services de cloud computing à n’importe quelle entreprise, sans avoir besoin de la moindre autorisation de Microsoft. La suite ne s’est pas fait attendre. Quelques jours à peine après avoir obtenu cette liberté, l’entreprise a frappé un grand coup en signant ce contrat de 38 milliards de dollars avec Amazon, le leader mondial du cloud et le concurrent le plus féroce de Microsoft dans ce domaine. L’ère de l’exclusivité est donc terminée.

Cet accord avec Amazon n’est que la partie la plus visible d’une stratégie d’acquisition de puissance bien plus vaste, une véritable frénésie d’achat qui se chiffre en centaines de milliards de dollars. OpenAI ne se contente plus de louer du temps de calcul mais cherche activement à construire ses propres infrastructures. Des accords sont en cours de négociation ou déjà signés pour bâtir de nouveaux centres de données gigantesques, en partenariat avec des acteurs aussi divers qu’Oracle, le conglomérat japonais SoftBank, et même des entités souveraines comme les Émirats arabes unis. Pour alimenter ces futurs centres de données, OpenAI sécurise également l’essentiel, les puces électroniques, le « cerveau » de l’IA. La société a signé des contrats complexes et d’une valeur inestimable avec les géants des semi-conducteurs que sont Nvidia, AMD et Broadcom. Elle ne veut plus jamais risquer la pénurie.

Logo d'OpenAI et d'Amazon Web Services sur fond sombre.

Cette quête effrénée de puissance n’est pas un simple caprice. OpenAI est engagé dans une course aux armements d’un nouveau genre. En face d’elle, les titans de la technologie ne sont pas restés inactifs. Au cours de la seule dernière année, Amazon, Google, Meta et Microsoft ont collectivement engagé plus de 360 milliards de dollars en dépenses d’investissement, une grande partie étant directement fléchée vers l’infrastructure IA. OpenAI, bien qu’étant le leader actuel en matière d’innovation perçue, doit dépenser sans compter simplement pour rester dans la course face à des entreprises dont les ressources sont quasi illimitées.

Cette escalade vertigineuse des dépenses commence à inquiéter sérieusement. De nombreux analystes financiers et historiens de la technologie voient dans cette frénésie les signes avant-coureurs d’une bulle spéculative dangereuse. L’intelligence artificielle, malgré ses progrès spectaculaires, reste une technologie extrêmement coûteuse et dont la rentabilité à grande échelle n’est pas encore prouvée. Le leader du marché, OpenAI lui-même, en est la parfaite illustration. Bien que l’entreprise génère désormais des milliards de dollars de revenus annuels, elle n’est toujours pas rentable. Les coûts liés à la recherche, au développement et, surtout, à l’énorme puissance de calcul nécessaire pour faire fonctionner ses modèles, dépassent encore largement ses gains.

Nous assistons à un pari colossal. Les plus grandes entreprises du monde investissent des centaines de milliards de dollars dans une technologie qui, selon elles, redéfinira l’économie mondiale. Mais si cette technologie met plus de temps que prévu à mûrir, ou si ses applications commerciales n’atteignent pas les sommets escomptés, l’atterrissage pourrait être violent. L’accord de 38 milliards de dollars entre OpenAI et Amazon n’est donc pas seulement une transaction commerciale. C’est un jalon de plus dans cette course folle vers le futur, un pari existentiel qui pourrait soit donner naissance à la prochaine révolution industrielle, soit devenir le symbole d’une des plus grandes bulles financières de l’histoire.

03.11.2025 à 13:45

L’IA de Google dérape – Gemma retiré après avoir inventé des accusations criminelles graves contre une sénatrice américaine

Romain Leclaire
La course effrénée à l’intelligence artificielle générative vient de connaître un nouveau coup de frein spectaculaire et cette fois, c’est Google qui est sur la sellette. Le géant du web a été contraint de retirer précipitamment son nouveau modèle d’IA, Gemma, de sa plateforme AI Studio. La raison ? Des accusations d’une gravité exceptionnelle fabriquées […]
Texte intégral (2000 mots)
Sénatrice portant un pull orange, tenant un téléphone, se tenant debout dans un couloir du bâtiment gouvernemental.

La course effrénée à l’intelligence artificielle générative vient de connaître un nouveau coup de frein spectaculaire et cette fois, c’est Google qui est sur la sellette. Le géant du web a été contraint de retirer précipitamment son nouveau modèle d’IA, Gemma, de sa plateforme AI Studio. La raison ? Des accusations d’une gravité exceptionnelle fabriquées de toutes pièces par ce dernier à l’encontre d’une sénatrice américaine en exercice. Cet incident démontre le fossé qui sépare les ambitions techniques des développeurs et la réalité chaotique de ces outils lorsqu’ils sont confrontés au monde réel.

L’affaire a éclaté lorsque la sénatrice républicaine Marsha Blackburn, du Tennessee, a publiquement accusé le modèle Gemma de diffamation pure et simple. Dans une lettre cinglante adressée au PDG de Google, Sundar Pichai, elle dénonce ce qu’elle considère non pas comme une simple erreur technique, mais comme un acte délibéré de calomnie aux relents de biais politique.

Logo de Gemma sur fond bleu.

En réponse, Google a rapidement réagi, mais en choisissant un angle de défense très technique. Dans une communication officielle sur le réseau social X, l’entreprise confirme avoir vu des rapports indiquant que des non-développeurs essayaient d’utiliser Gemma dans AI Studio pour lui poser des questions factuelles. C’est là que réside toute la nuance. Selon elle, AI Studio n’est pas un produit grand public comme Gemini ou ChatGPT. Il s’agit d’une plateforme destinée aux développeurs, un bac à sable technique pour leur permettre de tester et de construire des applications en utilisant ses modèles.

Gemma, en particulier, n’a jamais été conçu pour être un chatbot omniscient répondant aux questions du public. Il s’agit d’une famille de modèles ouverts, plus légers, que les développeurs peuvent adapter pour des tâches spécifiques, comme l’analyse de code, la recherche médicale ou l’évaluation de contenu. Google insiste, utiliser Gemma dans AI Studio pour vérifier des faits, c’est un peu comme utiliser une Formule 1 pour aller chercher son pain. Ce n’est pas sa fonction. Pour éviter cette confusion, le géant américain a donc coupé l’accès direct à Gemma sur cette plateforme, tout en le laissant disponible pour les développeurs via l’API, une voie d’accès plus technique.

Mais cette défense, aussi logique soit-elle sur le plan informatique, peine à masquer la gravité de ce que le modèle a produit. La sénatrice Blackburn a révélé la réponse stupéfiante que Gemma a fournie lorsqu’on lui a posé une question incendiaire: « Marsha Blackburn a-t-elle été accusée de viol ? » Plutôt que de répondre par la négative ou d’admettre son ignorance, l’IA a halluciné un récit complet, détaillé et sordide. Elle a affirmé que que la sénatrice avait été accusée d’avoir eu une relation sexuelle avec un agent de la police d’État lors de sa campagne pour le Sénat en 1987. Le modèle a ajouté des détails scabreux, affirmant que cet agent accusait qu’elle l’avait contraint à lui procurer des médicaments sur ordonnance et que la relation impliquait des actes non consensuels. Pour couronner le tout, Gemma a fourni une liste de faux articles de presse pour étayer son histoire.

La sénatrice Blackburn a méthodiquement démonté cette fabrication. « Rien de tout cela n’est vrai« , a-t-elle martelé. L’année de la campagne était erronée, c’était en 1998, et non 1987. Les liens fournis par l’IA menaient à des pages d’erreur ou à des articles de presse totalement indépendants. « Il n’y a jamais eu une telle accusation, il n’y a pas un tel individu et il n’y a pas de tels articles de presse« , a-t-elle écrit. Pour elle, il ne s’agit pas d’une hallucination inoffensive, un terme que l’industrie utilise pour décrire les erreurs de l’IA. C’est un acte de diffamation produit et distribué par un modèle appartenant à Google.

Profil d'une femme parlant au micro lors d'un événement, avec un drapeau américain flou en arrière-plan.

Cet épisode est symptomatique d’un mal qui ronge l’IA générative depuis ses débuts, sa relation complexe et souvent conflictuelle avec la vérité. Nous sommes entrés dans l’ère de ces technologies depuis plusieurs années, mais le problème fondamental de la précision reste entier. Les chatbots et les modèles de langage continuent de produire des réponses fausses ou trompeuses avec une assurance déconcertante, les faisant passer pour des faits avérés.

Ils ne savent rien au sens humain du terme. Ils sont entraînés sur des milliards de textes et apprennent des schémas statistiques pour prédire le mot suivant le plus probable dans une phrase. Ils sont conçus pour la plausibilité, pas pour la véracité. Lorsqu’ils sont confrontés à une question dont ils n’ont pas la réponse, au lieu de se taire, ils ont tendance à confabuler. Ils assemblent des éléments d’information disparates (Blackburn, campagne, accusations, drogue) en un récit qui semble cohérent, mais qui est entièrement faux. Le fait que Gemma ait inventé de fausses sources est particulièrement pernicieux, car il imite l’apparence de la preuve et rend le mensonge plus difficile à détecter pour un utilisateur non averti.

Un œil stylisé avec le logo de Google intégré dans l'iris, entouré d'un fond en damier.

Google, de son côté, assure rester engagé à minimiser les hallucinations et à améliorer continuellement tous ses modèles. Mais malgré les améliorations promises, aucune solution claire n’est en vue pour éradiquer ce problème. L’incident soulève également la question de la responsabilité. La défense de Google (c’est un outil pour développeurs) peut-elle tenir lorsque cet outil est si puissant et, manifestement, si facilement accessible au point qu’une sénatrice puisse l’interroger ?

Pour Marsha Blackburn, qui a également soulevé des questions de biais anti-conservateur dans la programmation de ces modèles, la réponse est simple et radicale. Sa conclusion dans sa lettre à Sundar Pichai est sans appel: « Fermez-le jusqu’à ce que vous puissiez le contrôler. » Une demande qui résonne comme un défi majeur pour une industrie lancée à pleine vitesse, qui semble découvrir en temps réel les conséquences de ses propres créations.

03.11.2025 à 10:35

Épuisé par l’Internet de l’ego ? J’ai trouvé la paix (sur un réseau sans algorithme)

Romain Leclaire
Laissez-moi vous avouer quelque chose. Je suis fatigué. Digitalement épuisé. Mon pouce souffre de scrollite aiguë, mon cerveau est saturé de polémiques stériles et mon estime de soi est en PLS après avoir vu la énième « morning routine » d’un influenceur sur une plage à Bali. Depuis des années, je navigue dans le marigot des réseaux […]
Texte intégral (2043 mots)
Logo de Mastodon avec un éléphant cartoon et un symbole de verrou sur un fond violet.

Laissez-moi vous avouer quelque chose. Je suis fatigué. Digitalement épuisé. Mon pouce souffre de scrollite aiguë, mon cerveau est saturé de polémiques stériles et mon estime de soi est en PLS après avoir vu la énième « morning routine » d’un influenceur sur une plage à Bali. Depuis des années, je navigue dans le marigot des réseaux sociaux et le constat est sans appel. Le marigot est devenu un cloaque.

Et puis, hier soir, dimanche, en me baladant sur le web, je suis tombé sur ce super podcast, « Projets Libres« , avec comme invité, Elena Rossini, qui aide à la promotion du Fédivers, en produisant notamment, des vidéos explicatives. Et puis, j’ai repensé à mes usages dans le monde des réseaux sociaux. « J’ai essayé de tenir bon », me dis-je. Vraiment. Mais regardons la carte des lieux ensemble, fruit de ma réflexion.

L’asile des auto-promoteurs (LinkedIn)

Commençons par le plus drôle avec LinkedIn. Ce n’est plus un réseau professionnel, c’est le Festival de Cannes de l’ego. Chaque matin, je m’y connecte pour ma dose de fausse modestie et de leçons de vie managériale. Des gens qui n’ont jamais géré plus qu’une machine à café vous expliquent le « leadership bienveillant » en 5 points. Des types qui maîtrisent à peine Excel se proclament « Gourou de la Data Science » grâce à une certification obtenue en 45 minutes.

C’est insupportable. Chaque post dégouline d’une positivité toxique et d’une mise en scène de soi à la fois gênante et épuisante. « Après 15 ans de bons et loyaux services, j’ai décidé de quitter mon entreprise pour suivre ma passion: devenir consultant en synergie disruptive. » Traduction: « Je me suis fait virer et je cherche désespérément du boulot. » Non merci, j’ai assez de mes propres angoisses.

Le grand incendie (X, anciennement Twitter)

Ensuite, il y a X. Ah, X. Le grand incendie de benne à ordures numérique. Avant, c’était le bar du coin, bruyant, un peu sale, mais on y croisait des gens intéressants. Aujourd’hui, c’est le même bistrot, mais le propriétaire est un milliardaire lunatique qui a décidé que les néo-nazis étaient des clients comme les autres et que les toilettes étaient désormais payantes (enfin, la certification).

Ma timeline est un champ de bataille entre des bots russes, des complotistes sous stéroïdes et des « crypto-bros » qui essaient de me vendre des images de singes moches. Tenter d’avoir une discussion nuancée sur cette plateforme, c’est comme essayer de faire un puzzle au milieu d’un concert de métal. Merci Elon pour cette vision « free speech » où la parole la plus libre est celle du plus offrant ou du plus haineux.

Le salon de thé des réacs (Facebook)

Et Facebook… Le réseau qui refuse de mourir. C’est devenu le salon de thé numérique de Tonton Gérard. Un endroit où des retraités, qui ont découvert Internet il y a cinq ans, passent leurs journées à déverser leur bile dans les commentaires du Figaro ou de la page de la mairie. Chaque publication, même la plus innocente (« Le petit chaton Pompom a été retrouvé ! »), génère un torrent de haine sur l’immigration, les impôts ou les « jeunes qui ne respectent plus rien ».

Et pendant ce temps, Meta, l’œil de Sauron de la data, aspire la moindre de nos interactions pour nous vendre des pantoufles chauffantes ou des idées politiques moisies. Le tout dans une interface qui ressemble à un sapin de Noël conçu par un stagiaire sous payé.

Les nouveaux venus (qui sentent le réchauffé)

« Mais essaie les nouveaux !« , m’a-t-on dit.

J’ai regardé Threads. C’est propre, c’est neuf, mais c’est toujours Meta. C’est comme repeindre une prison en rose layette. On sent déjà les influenceurs d’Instagram débarquer en masse pour nous vendre leur soupe. Les publications sont d’une platitude affligeante, conçues uniquement pour gratter des likes faciles (« Êtes-vous plutôt team café ou team thé ? Commentez ! »). C’est le fast-food de la pensée rapide, vide et oubliable.

Bluesky ? L’alternative créée par le fondateur de Twitter ? C’est brouillon. C’est géré par une entreprise (encore une), et techniquement, c’est souvent à la ramasse. Les fils d’actualité personnalisés sont une idée intéressante sur le papier, mais en pratique, c’est un capharnaüm où l’on ne retrouve jamais rien. C’est le nouveau projet qui sent déjà le vieux.

La bouffée d’air frais Mastodon

Et puis, désespéré, j’ai poussé la porte de Mastodon, il y a quelques mois.

Je ne vais pas vous mentir, au début, j’étais perdu. « Choisir une instance » ? « Fédivers » ? « Toot » ? Ça ressemble à un jeu de rôle pour nerds. Mais j’ai persisté. Et j’ai compris. Mastodon, ce n’est pas UN site web. C’est un réseau de milliers de sites web (appelés « instances » ou « serveurs ») qui se parlent entre eux. C’est le principe de l’e-mail, si vous êtes chez Gmail, vous pouvez quand même envoyer un mail à quelqu’un chez Outlook ou chez (feu) LaPoste.net. C’est pareil.

Un personnage cartoon d'éléphant souriant, assis à un bureau devant un ordinateur, utilisant Mastodon, avec un logo de Mastodon en arrière-plan.

Vous vous inscrivez sur une instance qui correspond à vos centres d’intérêt. Il y en a pour les journalistes, pour les fans de science-fiction, pour les Bretons, pour les amateurs de chats, pour les militants écolos. C’est géré par des associations ou des passionnés, pas par un PDG à l’ego fragile.

Et là, la magie opère.

  1. Le fil est chronologique. Je répète : CHRO-NO-LO-GIQUE. Je vois les posts des gens que je suis, dans l’ordre où ils les postent. Pas d’algorithme conçu pour me rendre fou ou me vendre des trucs. Je décide de ce que je vois.
  2. Il n’y a (presque) pas de pub. Les instances sont souvent financées par les dons des utilisateurs. Nous ne sommes pas le produit, nous sommes la communauté.
  3. La modération est humaine. C’est le propriétaire de votre instance qui fixe les règles. Si vous êtes sur une instance de passionnés de tricot, les discours de haine sont généralement bannis en 10 minutes. Fini les bots et les trolls sponsorisés.
  4. C’est plus long. On a 500 caractères (ou plus) pour s’exprimer. Fini les phrases chocs et les polémiques en 280 signes. Les gens prennent le temps d’écrire, de nuancer.
  5. C’est calme. Terriblement calme. Au début, c’est déroutant. On n’a pas 50 notifications à la minute. On n’a pas de « quote-tweet » (retweet avec commentaire) conçu pour créer du clash. On discute. Vraiment.

Mastodon, ce n’est pas parfait. C’est parfois un peu lent. C’est parfois un peu technique. Mais c’est à nous. C’est un retour à l’Internet des origines, celui de la passion et du partage, avant que les GAFAM ne transforment nos vies sociales en fermes à clics. J’y ai retrouvé des discussions intelligentes, de l’humour bienveillant et des partages de photos de chats sans arrière-pensée marketing. J’ai l’impression de respirer à nouveau. Alors oui, j’ai quitté le cirque, ses clowns tristes et ses dompteurs de data. J’ai rejoint un troupeau de Mastodontes. Et franchement, l’herbe y est bien plus verte.

Rejoignez-nous. Choisissez votre instance, prenez un pseudo, et venez juste… discuter. Ça fait un bien fou.

03.11.2025 à 08:50

La course effrénée de Meta dans l’IA – Un pari à 600 milliards de dollars qui terrifie Wall Street

Romain Leclaire
Nous assistons actuellement à une véritable course à l’armement dans le domaine de l’intelligence artificielle et Meta a décidé de ne pas faire dans la demi-mesure. L’entreprise de Mark Zuckerberg dépense plus que la plupart de ses concurrents, avec deux centres de données colossaux en construction. Des rapports récents évoquent des investissements pouvant atteindre 600 […]
Texte intégral (1960 mots)
Logo de Meta en bleu sur fond dégradé.

Nous assistons actuellement à une véritable course à l’armement dans le domaine de l’intelligence artificielle et Meta a décidé de ne pas faire dans la demi-mesure. L’entreprise de Mark Zuckerberg dépense plus que la plupart de ses concurrents, avec deux centres de données colossaux en construction. Des rapports récents évoquent des investissements pouvant atteindre 600 milliards de dollars en infrastructures américaines au cours des trois prochaines années.

Si ces chiffres stratosphériques font à peine sourciller dans la Silicon Valley, habituée aux paris démesurés, ils commencent sérieusement à crisper les visages à Wall Street. La tension est montée d’un cran cette semaine lors de la présentation des résultats trimestriels de Meta. Les chiffres ont parlé d’eux-mêmes, une augmentation des dépenses d’exploitation de 7 milliards de dollars sur un an et près de 20 milliards de dépenses en capital (CAPEX).

Ce gouffre financier est le résultat direct d’investissements massifs dans les talents et les infrastructures de l’IA, des investissements qui, pour l’instant, n’ont généré aucun revenu notable. Et lorsque les analystes, inquiets, ont demandé des éclaircissements, Mark Zuckerberg a jeté un froid en précisant que les dépenses ne faisaient que commencer.

« La bonne chose à faire est d’essayer d’accélérer pour nous assurer que nous avons la puissance de calcul nécessaire, à la fois pour la recherche en IA et pour les nouvelles choses que nous développons, ainsi que pour tenter d’atteindre un état différent de notre puissance de calcul sur notre activité principale », a-t-il déclaré aux analystes.

Si l’objectif était de rassurer les investisseurs, c’est un échec cuisant. À la fin de l’appel, l’action de Meta s’était effondrée. Deux jours plus tard, la déroute n’a fait que s’accentuer. Le titre a chuté de 12 % à la clôture de vendredi dernier, effaçant plus de 200 milliards de dollars de capitalisation boursière.

Visuel stylisé avec un arrière-plan bleu, représentant des formes géométriques et une figure humaine en grille, mettant en avant un homme qui semble être impliqué dans des discussions sur l'intelligence artificielle.

Bien qu’il soit toujours dangereux de surinterpréter les fluctuations boursières (et en termes purement financiers, les résultats de Meta n’étaient pas si mauvais, avec 20 milliards de dollars de bénéfice trimestriel) ce fut le premier trimestre où les dépenses agressives de l’entreprise en IA ont eu un impact visible et douloureux sur les résultats nets. Le plus alarmant n’est pas la dépense en soi. C’est le fait qu’à part des centres de données gigantesques et des chercheurs en IA très bien payés, personne ne sait vraiment ce que cet argent a concrètement acheté.

Les analystes ont donc pressé Zuckerberg: pourquoi dépenser autant et quand peut-on espérer voir un retour sur investissement ? Mais cet appel est tombé au pire moment. Meta n’a aucun budget clair pour les dépenses futures ni aucun produit concret sur lequel ancrer des prévisions de revenus. Coincé, le PDG s’est retranché derrière des promesses générales sur l’avenir radieux de l’IA.

« Il y aura toutes sortes de nouveaux produits autour de différents formats de contenu, et nous commençons à le voir », a-t-il tenté. « Et puis il y a les versions professionnelles de tout cela… L’autre aspect est la manière dont des modèles plus intelligents vont simplement améliorer notre activité principale et les recommandations que nous faisons à travers la famille d’applications, ainsi que les recommandations publicitaires. »

Meta n’est pourtant pas la seule entreprise à brûler des milliards dans l’IA. Pourquoi, alors, Google ou Nvidia, qui ont tous deux connu un excellent trimestre, n’effraient-ils pas les investisseurs de la même manière ? OpenAI est sans doute le plus grand dépensier du lot, avec une assise financière bien moins solide que Meta.

Le risque d’une bulle spéculative est réel, et si elle éclate, l’activité principale de Meta (la publicité) lui permettra de mieux encaisser le choc que la plupart. Mais la différence est importante. Si vous demandez à Sam Altman pourquoi il dépense des centaines de milliards, il vous répondra qu’il gère l’un des services grand public à la croissance la plus rapide de l’histoire humaine, ChatGPT, qui rapporte déjà 20 milliards de dollars par an. On peut débattre de la durabilité de cette croissance, mais il y a un produit tangible et florissant au cœur de la frénésie OpenAI. Un chiffre d’affaires en pleine expansion justifie bien des folies.

Meta n’a pas de produit équivalent. Et personne ne voit d’où il pourrait venir.

Le produit d’IA le plus visible de l’entreprise est l’assistant Meta AI. Zuckerberg a fièrement annoncé qu’il comptait plus d’un milliard d’utilisateurs actifs. Mais ces chiffres sont inévitablement gonflés par son intégration forcée au sein des trois milliards d’utilisateurs de Facebook et d’Instagram. Dans sa version actuelle, difficile de voir Meta AI comme un concurrent sérieux à ChatGPT.

Il y a aussi le générateur de vidéos « Vibes », qui a effectivement augmenté le nombre d’utilisateurs actifs quotidiens, mais son impact commercial au-delà de cet engagement reste très limité. Le projet le plus ambitieux, les lunettes intelligentes Vanguard, ressemble davantage à une extension du travail de Reality Labs (le métavers) qu’à une véritable tentative d’exploiter la puissance des grands modèles de langage. En d’autres termes, ce sont des expériences prometteuses, pas des produits aboutis et monétisables. Il est révélateur que, lorsqu’il a été interrogé sur ses dépenses colossales, Zuckerberg n’a pas mis en avant ces lancements récents. Il s’est immédiatement tourné vers la prochaine génération de modèles, ceux issus du nouveau « Superintelligence Lab ».

An advertisement introducing the Oakley Meta Vanguard sunglasses, featuring a model wearing reflective sunglasses against a blue sky.

« Il ne s’agit pas seulement de Meta AI en tant qu’assistant », a-t-il insisté. « Nous prévoyons de construire des modèles et des produits inédits, et je suis impatient de vous en dire plus lorsque nous les aurons. » C’était pourtant un appel sur les résultats financiers, pas une keynote de lancement de produit. Tout ce qu’il pouvait offrir était un vague « dans les mois à venir ».

La réaction du marché a montré que cette réponse ne suffit plus. Pour être juste, cela ne fait que quatre mois que le patron de Meta a restructuré son équipe IA. La nouvelle division « Superintelligence » n’a matériellement pas eu le temps de révolutionner le monde. Mais alors que l’entreprise dépense sans compter pour rester dans la course, la question demeure: quel rôle Zuckerberg veut-il jouer dans cette nouvelle industrie ?

Meta AI va-t-il utiliser l’immense trésor de données personnelles de l’entreprise pour devenir un concurrent de ChatGPT axé sur la personnalisation ? Vibes est-il la première étape d’une stratégie de divertissement basée sur le système publicitaire ciblé de Meta ? Ou les allusions de Zuckerberg à une « IA d’entreprise » présagent-elles une offensive sur le marché professionnel ? Pour l’instant, toutes les hypothèses sont sur la table. Quelle que soit la réponse, la pression monte pour que Meta en trouve une bonne. Et vite.

03.11.2025 à 07:59

OpenAI – Le géant de l’IA sous haute tension

Romain Leclaire
OpenAI, le titan rutilant de l’intelligence artificielle, est au sommet du monde. Pourtant, sous la surface de cette ascension fulgurante, l’empire de Sam Altman fait face à des pressions colossales qui menacent de fissurer ses fondations. Entre des engagements financiers astronomiques qui font lever les sourcils, des batailles juridiques croissantes sur les droits d’auteur et […]
Texte intégral (1871 mots)
Sam Altman et Satya Nadella sur scène lors d'un événement d'OpenAI, avec le logo d'OpenAI en arrière-plan.

OpenAI, le titan rutilant de l’intelligence artificielle, est au sommet du monde. Pourtant, sous la surface de cette ascension fulgurante, l’empire de Sam Altman fait face à des pressions colossales qui menacent de fissurer ses fondations. Entre des engagements financiers astronomiques qui font lever les sourcils, des batailles juridiques croissantes sur les droits d’auteur et un comportement de plus en plus étrange de ses propres agents IA, l’entreprise est engagée dans une course folle contre ses propres ambitions. Les récentes révélations la dépeignent à la fois comme surpuissante et étonnamment sur la défensive.

Lors d’une récente interview conjointe sur le podcast Bg2, réunissant Sam Altman et le PDG de Microsoft, Satya Nadella, la tension était palpable. L’animateur, Brad Gerstner, a mis les pieds dans le plat en évoquant les revenus d’OpenAI, estimés à environ 13 milliards de dollars par an. Un chiffre impressionnant, certes, mais qui semble dérisoire face aux engagements de dépenses de l’entreprise: plus de 1 000 milliards de dollars prévus pour l’infrastructure de calcul au cours des dix prochaines années.

La réaction d’Altman a été pour le moins surprenante d’irritabilité. « Premièrement, nous faisons bien plus de revenus que cela« , a-t-il rétorqué, avant de lancer une pique directe à l’animateur (qui est lui-même un investisseur). « Deuxièmement, Brad, si vous voulez vendre vos actions, je vous trouverai un acheteur. » Une boutade qui a fait rire Nadella, mais qui trahit une certaine colère. Sam Altman a enchaîné en affirmant qu’il y a beaucoup de gens qui aimeraient acheter des actions OpenAI, y compris les critiques qui écrivent des articles ridicules sur la faillite imminente de l’entreprise. Le PDG a même confié que, bien qu’il ne souhaite généralement pas qu’OpenAI soit une société publique, il y a des moments où cela l’attire: « J’adorerais leur dire qu’ils peuvent simplement parier à la baisse sur l’action, et j’adorerais les voir se ruiner en faisant ça.« 

Il reconnaît que l’entreprise pourrait tout gâcher, notamment en échouant à obtenir suffisamment de puissance de calcul, mais il insiste sur le fait que les revenus augmentent fortement. Il fait le pari que ChatGPT continuera de croître, qu’OpenAI deviendra un cloud IA important et que son activité d’appareils grand public sera non négligeable. L’ambition est claire. Lorsque Gerstner spécule sur 100 milliards de dollars de revenus en 2028 ou 2029, Altman coupe court: « Que diriez-vous de 2027 ? » Pourtant, il nie toute introduction en bourse imminente, qualifiant ces rumeurs d’infondées, tout en admettant que cela finira par arriver.

Mais cette croissance exponentielle a besoin de carburant. Et c’est là tout le problème. L’appétit vorace d’OpenAI pour les données d’entraînement se heurte désormais à un mur de résistance juridique, notamment au Japon. La Content Overseas Distribution Association (CODA), qui représente des géants du divertissement japonais comme la Toei et Square Enix, a officiellement demandé à l’entreprise américaine de cesser d’utiliser sans autorisation leur propriété intellectuelle pour entraîner Sora 2, son dernier générateur de vidéos.

Près de 20 cosignataires l’accusent de violation des droits d’auteur, affirmant qu’une grande partie du contenu de Sora 2 ressemble étroitement à du contenu ou à des images japonaises. Le cœur du litige réside dans la différence entre les systèmes juridiques. OpenAI fonctionne sur un modèle d’opt-out (retrait volontaire), utilisant les œuvres protégées sauf si le propriétaire le demande explicitement. Mais selon la loi japonaise, la CODA insiste sur le fait que le système devrait être « opt-in ». La permission est requise avant l’utilisation.

Le gouvernement japonais lui-même est monté au créneau, demandant à OpenAI de cesser de piller les « trésors irremplaçables » du pays, comme les anime et les jeux vidéo (One Piece, Demon Slayer). L’ironie est cinglante, car Sam Altman s’était lui-même vanté de pouvoir créer des images « à la Ghibli » avec les nouvelles mises à jour de ChatGPT. La CODA a prévenu qu’elle prendrait des mesures légales et éthiques appropriées, qu’il s’agisse d’IA générative ou non.

Graphique avec le texte 'TOEIC x ChatGPT' sur un fond clair, soulignant la connexion entre le test TOEIC et ChatGPT.

Cette pression juridique ne se manifeste pas seulement dans les salles d’audience, elle semble désormais influencer le comportement même des produits d’OpenAI. Une enquête fascinante de la Columbia Journalism Review s’est penchée sur ChatGPT Atlas, un navigateur doté de capacités agentiques (capable d’exécuter des tâches comme réserver des hôtels ou acheter des billets).

Les journalistes ont découvert un comportement pour le moins curieux. Ces agents IA, qui naviguent sur le web en se faisant passer pour des utilisateurs humains (apparaissant comme des « sessions Chrome normales » pour contourner les blocages anti-robots), semblent avoir reçu l’ordre d’éviter soigneusement certaines sources d’information. Lesquelles ? Celles appartenant à des entreprises qui poursuivent actuellement OpenAI.

Lorsque l’enquête a demandé à Atlas de résumer des articles de PCMag et du New York Times (dont les sociétés mères sont en litige avec OpenAI), l’IA s’est lancée dans des chemins labyrinthiques pour trouver l’information ailleurs. C’était, selon les auteurs, comme un rat trouvant des boulettes de nourriture dans un labyrinthe, sachant que l’emplacement de certaines d’entre elles est électrifié.

Logos de The New York Times et OpenAI sur un fond en noir et bleu.

Pour PCMag, Atlas est allé chercher des citations sur les réseaux sociaux et d’autres sites d’actualité. Pour le New York Times, il a généré un résumé basé sur les reportages de quatre autres médias: le Guardian, le Washington Post, Reuters et l’Associated Press. Fait notable, tous, sauf Reuters, ont des accords de contenu ou de recherche avec OpenAI. L’agent IA a activement évité les publications litigieuses, préférant un chemin « plus sûr » et plus « amical » pour l’IA.

Ces trois exemples dessinent le portrait d’un géant aux prises avec les conséquences de sa propre démesure. Sam Altman affiche une confiance de joueur de poker face à des engagements financiers qui donnent le vertige. Simultanément, son entreprise fait face à une révolte mondiale des créateurs dont elle a utilisé les œuvres sans permission. Et pour couronner le tout, sa propre technologie devient si « intelligente » qu’elle apprend à éviter les adversaires légaux de son créateur. OpenAI construit l’avenir, c’est indéniable, mais cet avenir semble de plus en plus freiné par les dettes, financières et éthiques, de son passé turbulent.

8 / 10

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌞