LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias

ACCÈS LIBRE Actualité IA

▸ les 10 dernières parutions

28.10.2025 à 08:57

Grokipedia – La version Musk de Wikipédia est lancée

Romain Leclaire

L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble […]
Texte intégral (1450 mots)
Logo de Grokipedia, une encyclopédie en ligne avec un design minimaliste.

L’Internet a encore tremblé ce lundi. Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par Grok, l’intelligence artificielle de la société xAI d’Elon Musk, a connu un démarrage pour le moins chaotique. Mise en ligne brièvement, elle s’est presque aussitôt effondrée sous l’afflux de curiosité. Au moment où ces lignes sont écrites, le site semble stabilisé et affiche fièrement un compteur de plus de 885 000 articles.

Ce projet n’est pas anodin. Il fait partie d’une longue croisade d’Elon Musk contre ce qu’il perçoit comme les dérives de Wikipédia. Le milliardaire, qui a souvent fustigé l’encyclopédie collaborative, voit Grokipedia comme une étape nécessaire vers l’objectif de xAI de comprendre l’Univers. Depuis des années, ses alliés et lui soutiennent que Wikipédia est fondamentalement biaisée. Une affirmation que Jimmy Wales, son fondateur, a qualifiée de « factuellement incorrecte ».

Interface de Grokipedia avec un logo minimaliste, une barre de recherche et un compteur d'articles disponibles.

La mission de Grokipedia, selon les termes de Musk lui-même sur sa plateforme X, est de « purger la propagande » qui inonderait Wikipédia. Le lancement avait d’ailleurs été retardé, l’intéressé expliquant la semaine dernière qu’il fallait plus de travail pour éliminer cette propagande. Pourtant, les premiers pas de cette nouvelle venue laissent perplexe. En parcourant le site, qui accueille le visiteur avec un logo minimaliste et une simple barre de recherche, une chose saute aux yeux. De nombreux articles sont quasi identiques à leurs homologues sur Wikipédia. Ces entrées comportent bien un petit avertissement indiquant que « le contenu est adapté de Wikipédia, sous licence Creative Commons Attribution-ShareAlike 4.0 ». L’ironie est savoureuse, pour construire son alternative « sans propagande », xAI semble s’être largement appuyé sur la source même qu’elle dénonce.

Lauren Dickinson, porte-parole de la Wikimedia Foundation (l’organisation à but non lucratif qui gère Wikipédia), n’a pas manqué de le souligner: « Même Grokipedia a besoin que Wikipédia existe« . Mais l’intérêt de Grokipedia ne réside pas dans ce qu’elle copie, mais dans ce qu’elle change. Et c’est là que la vision du monde de son créateur devient, selon certains observateurs, beaucoup plus évidente. Là où Wikipédia s’efforce d’afficher une neutralité sourcée, Grokipedia prend des libertés.

Prenons l’exemple du changement climatique. La page Wikipédia souligne un consensus scientifique quasi unanime sur le fait que le climat se réchauffe et que cela est causé par les activités humaines. L’entrée de Grokipedia, elle, adopte un ton bien différent. Elle suggère que les affirmations sur ce consensus exagèrent l’accord et que les médias et les organisations militantes contribuent à une alarme publique accrue, le tout s’inscrivant dans des efforts coordonnés pour présenter le problème comme un impératif existentiel.

Les sujets chers à Elon Musk ou ses différends personnels sont également traités sous un jour nouveau. L’article sur la transition de genre, à laquelle il s’est publiquement opposé, affirme que les traitements médicaux pour les personnes transgenres sont basés sur des preuves limitées et de faible qualité. Une affirmation en contradiction directe avec la page Wikipédia correspondante, qui évoque des dizaines d’années de compréhension scientifique. L’entrée consacrée à Parag Agrawal, l’ancien PDG de Twitter (licencié par Musk), met en exergue l’affirmation du milliardaire selon laquelle Agrawal aurait minimisé la présence de bots sur la plateforme. Des détails absents de la version Wikipédia.

Quant à la page d’Elon Musk lui-même, elle le décrit comme une personnalité publique qui mêle le visionnaire innovant au provocateur irrévérencieux. Elle contient même des détails surprenants sur son régime alimentaire, notant sa consommation d’indulgences occasionnelles comme des donuts le matin et plusieurs Coca Light par jour. Ce nouveau site vient s’ajouter à un écosystème médiatique en ligne qui, selon les critiques, s’aligne de plus en plus sur les vues politiques personnelles de son PDG.

Face à cette offensive, Wikipédia défend son modèle. Jimmy Wales insiste sur le fait que l’IA ne peut remplacer la précision et la vigilance humaines. Il pilote d’ailleurs un groupe de travail interne pour promouvoir la neutralité et encourager la recherche sur les biais potentiels. La Wikimedia Foundation, de son côté, rappelle les défis auxquels elle fait face. Alors que les visites humaines ont chuté de 8 % cette année, le « scraping » (pillage de données) par les entreprises d’IA a explosé.

Grokipedia, malgré son ambition affichée de 885 000 articles (contre près de 8 millions en anglais pour Wikipédia), n’en est qu’à sa version 0.1. Le design est basique, et la possibilité d’éditer les articles, pierre angulaire de Wikipédia, semble pour l’instant absente ou opaque. Plus troublant encore, ils affirment avoir été « vérifiés par Grok », une idée controversée étant donné la propension bien connue des grands modèles de langage à halluciner et à inventer des faits. Le lancement est donc une ouverture d’un nouveau front dans la guerre de l’information, opposant la curation humaine et collaborative à la génération de contenu par une IA centralisée, dont les objectifs et les biais sont ceux de son créateur. Reste à savoir si le public suivra Elon Musk dans sa quête d’un univers où la « propagande » des autres est remplacée par la sienne.

PDF

27.10.2025 à 18:36

Derrière l’écran de ChatGPT – OpenAI confronté à la crise de santé mentale de ses utilisateurs

Romain Leclaire

ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour […]
Texte intégral (1678 mots)
Logo d'OpenAI en noir et blanc, superposé sur un fond texturé avec le motif du logo en arrière-plan.

ChatGPT est devenu une extension de notre cerveau. Nous l’utilisons pour rédiger des e-mails, déboguer du code, trouver une recette de cuisine ou même écrire un poème. En quelques années à peine, il s’est banalisé, devenant un outil aussi commun qu’un moteur de recherche. Mais que se passe-t-il lorsqu’il cesse d’être un simple assistant pour devenir un confident ? Que se passe-t-il lorsque des conversations intenses, tenues au cœur de la nuit, commencent à déraper ?

Pour la toute première fois, OpenAI vient de lever le voile sur une réalité troublante. L’entreprise a publié une estimation approximative du nombre d’utilisateurs qui, chaque semaine, pourraient présenter des signes de crise de santé mentale grave. Cette transparence soudaine n’est pas un hasard. Elle accompagne une mise à jour majeure de son chatbot, conçue spécifiquement pour mieux reconnaître la détresse psychologique et orienter les utilisateurs vers une aide humaine et professionnelle.

Ces derniers mois, les alertes se sont multipliées. Des récits inquiétants ont émergé, faisant état de personnes hospitalisées, de divorces et même de décès survenus après des conversations longues et obsessionnelles avec ChatGPT. Des proches de victimes ont affirmé que ce dernier avait alimenté les délires et la paranoïa de leurs êtres chers. Ce phénomène, que certains psychiatres ont commencé à nommer la « psychose IA », sème l’alarme dans le milieu de la santé mentale. Jusqu’à présent, cependant, personne ne disposait de données fiables pour mesurer l’ampleur du problème.

Les chiffres partagés par OpenAI sont bruts et donnent le vertige. L’entreprise estime que, sur une semaine donnée, environ 0,07 % des utilisateurs actifs de ChatGPT montrent des signes possibles d’urgences de santé mentale liées à la psychose ou à la manie. À ce chiffre s’ajoutent 0,15 % d’utilisateurs dont les conversations incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle.

Mais la détresse n’est pas le seul enjeu. l’entreprise américaine s’est également penché sur un phénomène plus insidieux qu’est la dépendance émotionnelle. Elle a cherché à savoir combien d’utilisateurs semblent devenir excessivement dépendants du chatbot aux dépens de leurs relations dans le monde réel, de leur bien-être ou de leurs obligations. Le résultat est identique, environ 0,15 % des utilisateurs actifs présentent chaque semaine un comportement indiquant des niveaux élevés potentiels d’attachement émotionnel. La société prévient que ces messages sont difficiles à détecter et que les trois catégories pourraient se chevaucher.

Ces pourcentages peuvent sembler infimes. 0,07 %… 0,15 %… Mais il faut les rapporter à l’échelle colossale de ChatGPT. Sam Altman, le PDG, a récemment déclaré que le chatbot comptait désormais 800 millions d’utilisateurs actifs hebdomadaires. Faites le calcul. Cela signifie que chaque semaine, environ 560 000 personnes pourraient échanger des messages indiquant qu’elles souffrent de manie ou de psychose. Et que 2,4 millions d’autres personnes exprimeraient des idées suicidaires ou préféreraient parler au chatbot plutôt qu’à leurs proches, à leur école ou à leur travail.

Groupe de personnes utilisant des appareils numériques, avec un logo ChatGPT en arrière-plan.

Face à cette responsabilité écrasante, OpenAI a décidé de réagir. La société a collaboré avec plus de 170 psychiatres, psychologues et médecins généralistes du monde entier pour améliorer la manière dont ChatGPT gère ces conversations à haut risque. Si une personne semble avoir des pensées délirantes, la dernière version de GPT-5 est désormais conçue pour exprimer de l’empathie tout en évitant soigneusement de valider des croyances qui n’ont aucun fondement dans la réalité.

L’exemple hypothétique cité par l’entreprise est particulièrement parlant. Un utilisateur dit à ChatGPT qu’il est ciblé par des avions qui survolent sa maison. L’ancienne version aurait pu, par inadvertance, jouer le jeu. La nouvelle le remercie d’avoir partagé ses sentiments, mais note fermement qu’aucun appareil ou force extérieure ne peut voler ou insérer ses pensées. L’objectif est d’écouter sans alimenter le délire. Pour tester cette nouvelle approche, les experts médicaux ont examiné plus de 1 800 réponses du modèle dans des scénarios de psychose, de suicide et de dépendance émotionnelle. Ils ont comparé les réponses de GPT-5 à celles de GPT-4o. Bien que les cliniciens n’aient pas toujours été d’accord, OpenAI affirme que, dans l’ensemble, le nouveau modèle a réduit les réponses indésirables de 39 % à 52 % dans toutes les catégories.

Si OpenAI semble avoir réussi à rendre ChatGPT plus sûr, les données partagées présentent des limites importantes. L’entreprise a conçu ses propres indicateurs de référence et il est donc impossible de savoir comment ces mesures se traduisent en résultats concrets dans le monde réel. Même si le modèle produit de « meilleures » réponses lors des évaluations par les médecins, rien ne garantit que les utilisateurs en pleine psychose ou ayant des pensées suicidaires chercheront réellement de l’aide plus rapidement ou changeront leur comportement. Elle n’a d’ailleurs pas révélé précisément comment elle identifie la détresse mentale, mais elle précise qu’elle a la capacité de prendre en compte l’historique global de la discussion. Par exemple, si une personne qui n’a jamais parlé de science prétend soudainement avoir fait une découverte digne d’un prix Nobel, cela pourrait être un signal d’alarme.

Il existe également des facteurs communs dans les cas rapportés de « psychose IA ». De nombreuses personnes qui affirment que ChatGPT a renforcé leurs délires décrivent avoir passé des heures d’affilée à parler au chatbot, souvent tard dans la nuit. Cela a posé un défi technique d’importance à l’entreprise, car il est démontré que les grands modèles de langage voient leurs performances se dégrader à mesure que les conversations s’allongent. Elle affirme cependant avoir fait des progrès sur ce point, réduisant ce déclin graduel de la fiabilité.

La transparence d’OpenAI est à la fois louable et terrifiante. Elle révèle que l’IA n’est plus seulement un assistant de productivité mais elle est devenue un confident par défaut pour des millions de personnes seules ou en détresse. Avec cette nouvelle réalité vient une nouvelle responsabilité. La sécurité de cette technologie ne consiste plus seulement à l’empêcher de générer du code malveillant ou des « fake news ». Elle nécessite désormais de l’empêcher, activement, de briser des esprits.

PDF
10 / 10
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓