LePartisan - 51 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

16.12.2025 à 14:37

80 ans de la Sécurité sociale : revenir à l’esprit fondateur pour couvrir davantage de risques

Philippe Batifoulier, Professeur d'économie / CEPN (UMR 7234 CNRS), Université Sorbonne Paris Nord
Nicolas Da Silva, Maître de conférences en économie de la santé, Université Sorbonne Paris Nord
La Sécurité sociale couvre différents secteurs (maladie, accident du travail, retraite, famille, perte d’autonomie) et pourrait servir de modèle, par exemple à une Sécurité sociale climatique, ou encore de l’alimentation.
Texte intégral (2476 mots)

La Sécurité sociale couvre aujourd’hui différents secteurs (maladie, accident du travail, retraite, perte d’autonomie, famille) grâce à ses différentes caisses. Malgré le recul de certains droits sociaux, cette institution, née de la Résistance, reste résolument moderne. Elle pourrait même servir de modèle de protection sociale face à d’autres risques, par exemple ceux dûs au dérèglement climatique ou à l’insécurité alimentaire.


L’année 2025 est l’occasion de nombreuses manifestations visant à célébrer les 80 ans de la Sécurité sociale. Les ordonnances des 4 et 19 octobre 1945 marquent une étape importante de l’histoire de France.

Dans son article 1, l’ordonnance du 4 octobre dispose que :

la Sécurité sociale est « destinée à garantir les travailleurs et leurs familles contre les risques de toute nature susceptibles de réduire ou de supprimer leur capacité de gain, à couvrir les charges de maternité et les charges de famille qu’ils supportent. »

Née de la Résistance

Si les ordonnances d’octobre 1945 fournissent un point focal, elles ne sont que de l’encre sur du papier et il faut à la fois tout un processus pour en arriver là et toute une énergie pour que la loi se traduise concrètement par des droits sociaux.

Ce processus passe par l’adoption, le 15 mars 1944, du programme du Conseil national de la Résistance (CNR) initialement baptisé « Les jours heureux », qui prévoit un « plan complet de sécurité sociale, visant à assurer à tous les citoyens des moyens d’existence dans tous les cas où ils sont incapables de se le procurer par le travail. »

La date est importante et montre que la Sécurité sociale s’inscrit dans un mouvement de résistance non seulement face à l’occupant mais aussi face à un pôle collaborateur qui promeut sa propre conception de la protection sociale – la France de Vichy.

L’énergie est celle de ceux qui ont construit des caisses primaires de sécurité sociale à partir du 1er juillet 1946. Il ne suffit pas de décréter des droits. Il faut les organiser, il faut des lieux où les assurés vont pouvoir les faire valoir. C’est sous l’impulsion du ministre communiste Ambroise Croizat et du haut fonctionnaire Pierre Laroque, révoqué par Vichy parce juif, que vont se mettre en place les guichets de sécurité sociale.

Face au refus de participation de la Confédération française des travailleurs chrétiens, ce sont essentiellement les militants de la Confédération générale du travail qui construisent les caisses de sécurité sociale.

Cinq risques couverts : vieillesse, maladie, maternité, décès et invalidité

Les assurances sociales existaient avant 1945, en particulier avec les lois de 1928-1930 qui promulguent une protection obligatoire des salariés de l’industrie et du commerce dont le salaire est inférieur à un plafond. Un financement par le biais d’une cotisation obligatoire représentant 8 % du salaire et payée, en part égale, par l’employeur et par l’employé est mis en place.

Il repose également sur l’identification de cinq risques : la vieillesse, la maladie, la maternité, le décès et l’invalidité. À ces lois s’ajouteront une loi sur les allocations familiales en 1932 et une loi sur les retraites en 1941 qui instaure le régime de retraite par répartition ainsi que le minimum vieillesse. La Sécurité sociale hérite de cette histoire. Mais toute la population n’est pas couverte du fait du mécanisme de plafond d’affiliation (qui exclut les salariés les mieux rémunérés) et de la variété des statuts hors salariat.

Le régime général, une institution révolutionnaire

L’innovation majeure de 1945 est la création du régime général (RG) qui est une institution révolutionnaire. Sa radicalité s’incarne par la création d’une caisse unique (pour tous les travailleurs et tous les risques sociaux), une cotisation sociale interprofessionnelle à taux unique alors qu’elle dépendait auparavant de l’entreprise, et une gestion de la Sécurité sociale par les « intéressés », c’est-à-dire les salariés cotisants. Cette organisation confère donc aux salariés eux-mêmes la gestion de l’institution (en majorité face au patronat aussi représenté dans les caisses).

La Sécurité sociale n’est pas une institution étatique et reste encore une institution de droit privé qui remplit une mission de service public. L’État est mis à distance notamment parce qu’une majorité de parlementaires a voté les pleins pouvoirs à Pétain. Tous les grands corps sont discrédités, en particulier le patronat qui s’est compromis avec l’occupant nazi. La gestion du budget de la Sécurité sociale est confiée aux résistants, les travailleurs.

Dès 1946, le régime général est une bataille et doit faire face à de nombreux opposants. Les gestionnaires ouvriers sont mis en procès pour mauvaise gestion des comptes et les débats du Parlement en 1946 révèlent que les arguments contre la « Sécu » n’ont pas changé : les cotisations freinent la compétitivité des entreprises (à l’époque, c’est la concurrence japonaise qui était visée), les assurés fraudent les prestations, seuls les plus pauvres doivent être ciblés par la « Sécu » et il faut laisser les autres s’assurer comme ils l’entendent, etc.

L’étatisation de la Sécurité sociale

L’État, qui n’a jamais réellement disparu en gardant la main sur le niveau des cotisations et de certaines prestations, va progressivement reprendre le pouvoir sur les intéressés et transformer la Sécurité sociale en une agence d’État.

Cette étatisation s’incarne dans quatre processus fondamentaux :

  1. La gestion par les intéressés qui est l’innovation majeure de 1945–1946 se traduisait par des conseils d’administration des caisses primaires constitués de trois quarts de représentants syndicaux et un quart de représentants patronaux. La réforme Jeanneney de 1967 introduit un paritarisme et donne le même nombre de sièges aux organisations patronales. Cette réforme met fin aussi au principe de la caisse unique en créant trois caisses au sein du régime général, celles que nous connaissons aujourd’hui : la Caisse nationale d’assurance maladie ou CNAM (vouée aux maladies et accidents du travail), la Caisse nationale d’assurance vieillesse ou CNAV (qui concerne la retraite) et la Caisse nationale des allocations familiales ou CNAF (plus couramment appelée la CAF, en charge de la famille). La Caisse nationale des solidarités pour l’autonomie ou CNSA est venue se rajouter en 2021.

  2. Depuis le plan Juppé de 1995, le Parlement vote chaque année le budget de la Sécurité sociale. Les prestations sociales et notamment les dotations hospitalières sont tributaires des arbitrages budgétaires de l’État et de l’austérité budgétaire. Le choix de ce qu’il faut financer ou définancer, les règles de calcul, est la propriété des parlementaires et non plus de la représentation ouvrière.

  3. Le pouvoir d’État s’accompagne d’une prolifération d’agences et de bureaucraties techniques comme la Haute Autorité de santé (HAS), l’Union nationale des caisses d’assurance maladie ou encore les agences régionales de la santé (ARS). Avec ces agences, l’État central recentralise la politique sociale. Ainsi, pour la politique hospitalière, les ARS sont-elles dirigées par un « préfet sanitaire » directement nommé par le gouvernement et qui désigne lui-même les directeurs hôpitaux. La chaîne de commandement va du ministère à l’hôpital.

  4. Enfin, la réappropriation de la Sécurité sociale par l’État s’observe dans la fiscalisation croissante de la protection sociale avec la contribution sociale généralisée (CSG). Cet impôt, créé en 1991 avec un taux de 1,1 %, vaut aujourd’hui 9,2 % en régime normal. Son taux est fixé par l’État et il est prélevé sur d’autres revenus que les revenus du travail, comme les pensions de retraite et les allocations chômage. Contrairement à la cotisation sociale, la CSG n’ouvre pas de droits sociaux en contrepartie.

Du fait de cette fiscalisation, en 2024, la part des cotisations sociales n’était plus que de 48 % des recettes des administrations de sécurité sociale (contre 90 % à la fin des années 1980)

Ne pas fantasmer la « Sécu de 45 »

Cette évolution va de pair avec des droits de meilleure qualité aujourd’hui qu’en 1946. Il ne faut pas fantasmer la « Sécu de 45 », car l’essentiel des dépenses de sécurité sociale concernait les allocations familiales, les dépenses de santé étant principalement constituées des indemnités journalières et la Sécurité sociale était largement genrée puisque faite pour « Monsieur Gagnepain » et non « Madame Aufoyer ».

Cependant, l’étatisation a aussi accompagné, depuis les années 1980, un recul des droits sociaux avec les réformes successives sur les retraites et la santé en particulier, toujours menées pour « sauver la Sécurité sociale ».

Vers des « Sécurités sociales » climatique, de l’alimentation… ?

La Sécurité sociale reste une institution très populaire. Si elle était une institution de la résistance, elle n’est pas pour autant une institution du passé. Au contraire, elle incarne la modernité. D’abord, en 1945-1946, elle répond de façon inédite à l’incapacité du capitalisme à répondre à la question sociale. Ensuite, de nos jours, elle offre un moyen de penser l’avenir sur de nombreux domaines.

La variété des propositions d’extension de la Sécurité sociale à d’autres risques en témoigne. Un rapport récent publié par le Haut-Commissariat à la stratégie et au plan (anciennement France Stratégie) pose l’hypothèse d’une Sécurité sociale climatique. L’argumentation s’appuie sur la grande proximité entre le risque climatique et le risque social. Ces deux risques sont collectifs et très difficiles à individualiser.

Qui est responsable des inondations et comment organiser la couverture de risque avec les outils habituels du monde de l’assurance ? Une sécurité sociale climatique pourrait non seulement être plus égalitaire et plus économe, mais son ampleur financière pourrait solvabiliser les travaux d’adaptation au changement climatique qu’aucun assureur individuel ne pourrait prendre en charge.

L’autre grand champ de développement de la sécurité sociale concerne la Sécurité sociale de l’alimentation. Partant du constat de l’échec des politiques alimentaires (à distribuer de la nourriture à tous en quantité et en qualité suffisante), alors même que le secteur est largement subventionné, les expérimentations de Sécurité sociale de l’alimentation s’inspirent largement des outils de la Sécurité sociale : conventionnement, cotisation, caisse, pouvoir démocratique des intéressés, etc. Ces projets s’inscrivent dans des conceptions populaires de l’écologie qui renouvellent les formes de lutte.

En plus du climat et de l’alimentation, beaucoup d’autres activités font l’objet de réflexions à partir de la Sécurité sociale. Ainsi la Sécurité sociale des décès invoque une mutualisation des coûts de la fin de vie dans un contexte où les funérailles sont souvent hors de prix et s’ajoutent à la charge mentale et au travail des sentiments.

Ce foisonnement de plaidoyers pour l’extension de la sécurité sociale concerne aussi la culture ou l’énergie, etc. La Sécurité sociale – mais laquelle ? – n’est-elle pas un exemple à généraliser ? Car, pour beaucoup, la Sécurité sociale est une institution capable d’organiser collectivement et démocratiquement la société. Elle permet à chacun de trouver sa place en échappant à toutes les formes d’insécurités économiques, politiques et sociales.

La Sécurité sociale est résolument une institution de la modernité.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16.12.2025 à 10:28

Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle

Théo Mouhoud, Pédopsychiatre, Université Sorbonne Paris Nord; AP-HP
Les LLM des IA « génératives » (type ChatGPT) transforment la manière dont enfants et adolescents créent des liens affectifs, ce qui n’est pas sans risque pour leur santé mentale.
Texte intégral (1701 mots)

L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.


De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.

Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?

Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.

Quand l’IA devient une partenaire relationnelle

Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.

Les données les plus récentes confirment cette évolution, la majorité des adolescents ont conversé avec un chatbot et un tiers d‘entre eux déclarent en tirer un réconfort comparable à celui d’une amitié humaine.

L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.

Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.

Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.

Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.

Amie imaginaire ou compagne artificielle ?

Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.

Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.

Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.

Des promesses… mais aussi des dangers

Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.

Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.

Les dangers les plus préoccupants actuellement se retrouvent dans les situations de détresse, où l’IA peut banaliser des idées suicidaires, produire des réponses inappropriées et dangereuses. Elles n’ont ni sens clinique, ni capacité à évaluer le risque, ni responsabilité morale.


À lire aussi : Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?


Comment protéger les jeunes ?

Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.

Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.

De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.

Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.

Et pour la suite ?

L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.

Les outils IA destinés aux mineurs doivent être encadrés, tant sur le plan technique qu’éthique. Nous avons besoin de recherches indépendantes afin de mesurer les effets psychologiques à long terme et une véritable sensibilisation des parents, des enseignants et des professionnels de santé.

L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.

The Conversation

Théo Mouhoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.12.2025 à 10:28

Se confier à une IA : trois questions juridiques sur les chatbots et l’adolescence

Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France
Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent aussi le droit en Europe et en France.
Texte intégral (2209 mots)

Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?


Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.

L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?

Le paradoxe de la protection : ignorer un besoin ou encadrer un risque ?

Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.

Quelles réponses le droit peut-il apporter ?

Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.

La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.

L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).

Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.

La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.

La responsabilité des concepteurs : quand le design devient préjudice

En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.

Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?

La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.

Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.

La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.

Les IA « génératives », des produits de consommation défectueux ?

Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).

Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.

Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.

L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.

La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).

La responsabilité institutionnelle : jusqu’où peut-on externaliser le soutien psychologique ?

La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?

Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.

L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.

Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.

Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.

The Conversation

Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

4 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞