16.12.2025 à 10:28
Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France
Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?
Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.
L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?
Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.
À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?
Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.
Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.
La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.
L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).
Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.
La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.
En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.
Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?
La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.
Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.
La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.
Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).
Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.
Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.
L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.
La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).
La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?
Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.
L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.
Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.
Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.
Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 16:35
Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)
Emmanuel Lincot, Spécialiste de l'histoire politique et culturelle de la Chine contemporaine, Institut catholique de Paris (ICP)
Le récent déplacement d’Emmanuel Macron en Chine a mis en évidence la difficulté qu’éprouve la France à influencer diplomatiquement la République populaire et à rééquilibrer les échanges commerciaux bilatéraux.
Du 3 au 5 décembre 2025, Emmanuel Macron a effectué une visite d’État en Chine, sa quatrième depuis 2017. Conformément à l’ambition de construire entre les deux pays une relation d’engagement à la fois respectueuse et exigeante, l’Élysée a déployé un dispositif conséquent : pas moins de six ministres (affaires étrangères, économie, agriculture, environnement, enseignement supérieur et culture) ainsi que trente-cinq chefs d’entreprise accompagnaient la délégation présidentielle.
Une mobilisation importante, symbole d’une relation multidimensionnelle… dont l’équilibre penche désormais résolument du côté de Pékin.
Les deux États sont de facto investis d’une responsabilité en matière de sécurité internationale, en tant que puissances nucléaires et membres permanents du Conseil de sécurité des Nations unies.
C’est au nom de cette responsabilité commune, et d’une supposée conception partagée du multilatéralisme, qu’Emmanuel Macron tente depuis 2022 de convaincre son homologue chinois d’œuvrer pour la paix en Ukraine : d’abord en s’assurant que Pékin s’abstienne de tout soutien à Moscou, ensuite en encourageant Xi Jinping à utiliser son influence sur Vladimir Poutine pour faciliter l’ouverture d’un processus diplomatique. Mais le président français n’a pas obtenu plus de succès lors de ce déplacement que les fois précédentes, se heurtant à une fin de non-recevoir polie mais ferme, son hôte se contentant d’appeler à « un renfort de la coopération » et à « écarter toute interférence ».
Il est vrai que, sur ce sujet, la neutralité de façade affichée par Pékin ne résiste pas à l’examen des faits. Le commerce sino-russe a doublé depuis 2020, et de nombreuses entreprises chinoises contribuent, discrètement mais de manière significative, à l’effort de guerre russe. Au reste, en termes de stratégie, Pékin n’a aucun intérêt à ce que le conflit russo-ukrainien cesse. Il affaiblit chaque mois davantage l’Union européenne, attire la Russie dans le giron chinois et retient pour l’heure les États-Unis sur le front occidental.
Concernant l’autre sujet géopolitique brûlant, Taïwan, Emmanuel Macron s’est gardé, cette fois-ci, de toute déclaration sujette à interprétation douteuse. Il faut dire qu’en la matière le président marche sur des œufs, et peut faire l’objet de tirs croisés. En 2023, il avait suscité l’ire de ses partenaires occidentaux en appelant les Européens à n’être « suivistes » ni des États-Unis ni de la Chine sur le dossier taïwanais. Un an plus tard, la comparaison qu’il a esquissée sur le podium du Shangri-La Dialogue, à Singapour, entre les situations ukrainienne et taïwanaise était jugée inacceptable, cette fois-ci par les Chinois.
À lire aussi : Un dialogue de sourds entre les grandes puissances en Asie-Pacifique ?
In fine, la portée réelle du dialogue franco-chinois sur les questions de sécurité internationale demeure très limitée. La diplomatie française adopte donc une approche prudente, soucieuse de ne pas compromettre une relation commerciale déjà largement fragilisée.
La France souffre en effet d’un déficit commercial abyssal vis-à-vis de la Chine, qui est d’ailleurs son plus important déficit bilatéral. En 2024, il s’est élevé à 47 milliards d’euros. Si les multinationales françaises continuent de réaliser des profits substantiels en Chine (notamment dans l’aéronautique et le spatial, l’agroalimentaire, le luxe ou le cosmétique), les retombées pour l’ensemble du tissu économique national sont moins évidentes. Depuis l’accession de la Chine à l’Organisation mondiale du commerce (OMC) en 2001, l’ouverture tous azimuts au capitalisme d’État chinois a contribué, en France, à la désindustrialisation et à la perte d’avantages compétitifs de nombreux produits à haute valeur ajoutée.
Le président français a beau prévenir que « le déficit du reste du monde vis-à-vis de la Chine est en train de devenir insoutenable », la République populaire de Chine (RPC) est devenue un maillon essentiel de nombreuses chaînes d’approvisionnement stratégiques (informatique, équipements électroménagers, textiles, batteries, terres rares, etc.). Cette dépendance sera difficilement réversible. Sauf si, en concertation avec ses partenaires européens, elle exige de la Chine des transferts de technologie, et des investissements créateurs d’emplois sur les territoires nationaux.
Mais pour l’heure, la diplomatie française n’a d’autre choix que de jouer sur des mesures de court terme : elle tente notamment de limiter l’impact des enquêtes anti-dumping menées par la douane chinoise, qui visent plusieurs produits français (spiritueux – cognac en tête –, produits laitiers, porc, viande bovine). Les filières françaises sont ici les victimes collatérales des contre-mesures chinoises adoptées pour répondre aux droits de douane imposés par Bruxelles (et soutenus par Paris) sur les véhicules électriques chinois depuis octobre 2024.
Ces manœuvres réciproques ressemblant de plus en plus à une guerre commerciale entre l’Union européenne (UE) et la Chine. Quelques heures seulement après son retour de Chine, Emmanuel Macron menaçait même d’imposer des droits de douane à la Chine « dans les tout prochains mois », si le déficit commercial ne se réduisait pas.
Les investissements croisés constituent également un point de friction. En effet, la France investit largement plus en Chine que l’inverse : le stock d’investissements français y atteint environ 46 milliards d’euros, contre quelque 12 milliards pour les investissements chinois en France.
Paris cherche dès lors à obtenir un rééquilibrage des flux et, plus largement, à promouvoir des conditions de concurrence équitables. Dans cette perspective, les autorités françaises continuent de courtiser les investisseurs chinois… à condition que cela ne compromette pas la souveraineté nationale. Une attitude, parfois ambivalente, qui ne va pas sans casse. Ainsi, l’usine Huawei en Alsace, livrée en septembre 2025, qui a représenté un investissement de 300 millions d’euros, risque d’être abandonnée et mise en vente avant même d’avoir ouvert.
À l’échelle politique, la diplomatie française qualifie « en même temps » la Chine de rival systémique dans le cadre européen, et de partenaire stratégique dans le cadre bilatéral. Un double discours parfois illisible et souvent incantatoire, tant la dépendance au partenaire (et/ou rival) chinois reste prépondérante. Une situation que ni la France ni l’Europe n’arrivent à infléchir.
À Pékin, la France gaullienne continue d’être célébrée comme un modèle d’indépendance et de non-alignement. Personne n’est toutefois dupe : la Chine flatte à l’échelle bilatérale pour mieux diviser les Européens et préserver les avantages structurels dont elle bénéficie. Une stratégie payante : alors que l’Union européenne et la Chine célébraient cinquante ans de relations diplomatiques, et que le président français avait pris l’habitude d’être accompagné par la présidente de la Commission européenne lors de ses rencontres avec Xi Jinping, Emmanuel Macron s’est cette fois déplacé seul.
Si l’UE demeure le deuxième partenaire commercial de la Chine (derrière l’Asean) – et à ce titre un acteur incontournable –, le déficit commercial européen s’élevait en 2024 à près de 350 milliards d’euros.
La RPC entend tirer pleinement parti de cette asymétrie, tout en veillant à ce que le bloc européen ne se fédère pas contre elle. Dans ce contexte, la France est aux yeux des Chinois un pays « romantique », comprenons : has been, politiquement inefficace et économiquement étriqué.
Soixante-et-un ans après l’établissement de la relation bilatérale, ce déplacement aura surtout révélé les insuffisances françaises et le déséquilibre bilatéral structurel au profit de la Chine.
Emmanuel Macron pourra toujours se féliciter d’avoir été accueilli en grand chef d’État, Xi Jinping n’ayant pas lésiné sur les moyens pour lui « donner de la face ». Fait exceptionnel dans le protocole chinois, le président français a été convié pour la troisième fois en province – après Xi’an en 2018 et Canton en 2023 –, cette fois à Chengdu, quatrième ville de Chine et siège du plus grand centre de recherche et de conservation des pandas géants, des ursidés que Pékin érige en ambassadeurs et en véritables instruments diplomatiques.
Brigitte Macron a donc pu revoir son filleul Yuan Meng, premier panda géant né en France en 2017 et retourné à Chengdu en 2023. La Chine enverra d’ailleurs deux nouveaux pandas au ZooParc de Beauval d’ici à 2027. Simultanément, Emmanuel Macron a pu échanger quelques balles avec Félix Lebrun, le jeune pongiste médaillé à Paris 2024, venu disputer en Chine une compétition internationale. Cinquante ans après, la « diplomatie du ping-pong » reste donc d’actualité, comme démonstration maîtrisée d’amitié symbolique. Sans oublier le sprint aussi inédit que disruptif du président français qui lui permit de braver les cordons de sécurité chinois pour aller saluer les étudiants de l’Université du Sichuan. La France a pu ainsi se montrer sous un jour libertaire et sympathique.
À défaut d’influer sur les orientations géopolitiques et économiques de Pékin, la France peut toujours compter sur le soft power pour entretenir un dialogue. L’honneur est donc sauf… Mais à quel prix !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 16:34
Milad Haghani, Associate Professor and Principal Fellow in Urban Risk and Resilience, The University of Melbourne

Le bilan de la tuerie de Bondi Beach (Sydney, Australie), hier 14 décembre, aurait probablement été plus lourd sans l’intervention héroïque – et extrêmement risquée – d’un passant. Cet épisode invite à s’interroger sur les recommandations officielles des autorités sur le comportement à adopter si l’on est pris dans ce type d’événements. On constate que les conseils donnés par les responsables australiens ne sont pas tout à fait les mêmes que ceux diffusés par leurs homologues états-uniens. L’étude de nombreux cas similaires survenus dans le monde donne également des indications utiles.
Les images ont fait le tour du monde : pendant l’attentat de Bondi Beach, ce dimanche 14 décembre à Sydney, un homme s’est précipité vers l’un des tireurs et lui a arraché son arme des mains.
Durant cet acte de bravoure extraordinaire, le civil en question, Ahmed Al-Ahmed, un vendeur de fruits âgé de 43 ans, a été blessé à la main et à l’épaule par le second tireur.
Nous n’avons aucun moyen de savoir combien de vies ont été sauvées grâce au courage d’Al-Ahmed. Mais il est presque certain que son intervention a permis d’éviter des pertes humaines supplémentaires (le bilan s’élève à ce stade à 15 morts et 42 blessés, en plus des deux tireurs, dont l’un a été tué et l’autre se trouve dans un état critique).
Cette scène rappelle d’autres, y compris récemment toujours à Sydney : le 13 avril 2024, un passant français, Damien Guérot, était également intervenu au péril de sa vie lors de l’attaque du centre commercial de Bondi Junction pour faire face à un homme armé d’un couteau, qui avait ce jour-là poignardé six personnes à mort.
Lorsque des actes de courage comme ceux-ci se produisent, nous les saluons à juste titre. Cependant, ils soulèvent des questions importantes et souvent négligées : qu’est-ce qui motive des gens ordinaires à se conduire d’une façon aussi altruiste et risquée ? L’intervention des témoins est-elle une bonne stratégie ou va-t-elle à l’encontre des conseils officiels relatifs à la conduite à tenir si l’on est pris dans un acte de violence de masse ?
L’« effet spectateur » se produit lorsque la présence d’autres personnes dissuade quelqu’un d’intervenir dans une situation d’urgence, lors d’une agression ou d’un autre crime.
Mais des décennies de recherche comportementale ont remis en cause l’idée reçue selon laquelle les gens ont tendance à se figer ou à détourner le regard lorsque d’autres personnes sont présentes dans des situations dangereuses.
Une vaste méta-analyse du comportement des témoins montre que dans les situations d’urgence véritablement dangereuses et sans ambiguïté (comme celles impliquant un auteur clairement identifiable), l’effet spectateur classique (c’est-à-dire passif) est considérablement affaibli, voire dans certains cas inversé.
En d’autres termes, les attaques violentes sont précisément le type de situations où les gens sont plus enclins à agir.
L’une des raisons est que le danger clarifie les responsabilités. Lorsqu’une situation menace clairement leur vie, les gens identifient le danger plus rapidement et sont moins enclins à attendre des signaux sociaux ou des assurances de la part des autres.
On a constaté à maintes reprises que dans les situations d’urgence clairement à haut risque (en particulier celles impliquant de la violence physique), le sentiment de responsabilité individuelle s’accentue souvent au lieu de s’estomper.
Une analyse de plus de 100 attentats-suicides effectués en Israël montre que l’intervention des témoins peut réduire considérablement le nombre total de victimes.
Dans tous ces incidents documentés, l’intervention n’a que rarement permis d’empêcher complètement l’attaque, mais elle a souvent perturbé le contrôle de l’agresseur sur le moment et le lieu de l’attaque, le poussant à agir prématurément dans des lieux moins fréquentés et sauvant ainsi des vies.
Cependant, la même analyse montre également que l’intervention des témoins a souvent eu un coût personnel direct pour les intervenants.
Mais le comportement actif des témoins peut prendre plusieurs formes et intervenir à différents stades : une personne connaissant l’auteur des faits, qui remarque et signale un comportement suspect avant l’agression ; un individu qui guide les autres vers un lieu sûr ou qui partage des informations importantes au fur et à mesure que les événements se déroulent ; des gens qui apportent leur aide et assurent la coordination de diverses actions immédiatement après les faits.
Il n’en reste pas moins qu’une implication personnelle pour empêcher un acte de violence semble aller à l’encontre des conseils officiels des autorités australiennes. En effet, il y a quelques semaines à peine, le Comité australo-néo-zélandais de lutte contre le terrorisme a lancé une nouvelle campagne nationale de sécurité publique.
La nouvelle campagne de sécurité publique reconnaît explicitement que l’Australie est un pays sûr, mais qu’il existe toujours un risque d’attaques à l’arme à feu dans les lieux très fréquentés, et que savoir comment réagir peut sauver des vies.
La campagne a introduit les consignes suivantes : « Fuir. Se cacher. Prévenir. », définies comme suit :
fuir : éloignez-vous rapidement et discrètement du danger, mais uniquement si cela ne présente aucun danger pour vous ;
se cacher : restez hors de vue et mettez votre téléphone portable en mode silencieux ;
prévenir : appelez la police lorsque cela ne présente aucun danger ;
L’objectif de ces conseils est d’aider les personnes à réagir dans les premiers instants critiques avant l’arrivée de la police, à prendre des décisions éclairées et à augmenter leurs chances de rester en sécurité.
Les directives officielles australiennes n’incitent à aucun moment à se confronter aux assaillants.
En revanche, les messages de sécurité publique diffusés aux États-Unis, tels que les consignes du FBI « Run. Hide. Fight » (Courez. Cachez-vous. Luttez), incluent une étape « luttez », mais uniquement en dernier recours, lorsque la fuite et la dissimulation sont impossibles et que la vie est en danger immédiat.
Les autorités australiennes ont choisi de ne pas inclure cette étape, mettant l’accent sur l’évitement et le signalement plutôt que sur la confrontation.
Mes précédentes recherches expérimentales ont permis d’identifier des conseils plus spécifiques susceptibles d’améliorer les chances de survie lors d’attaques violentes, en particulier dans des environnements bondés.
À l’aide de modélisations informatiques et d’expériences contrôlées menées avec de véritables foules, j’ai identifié plusieurs domaines stratégiques pour améliorer les chances de survie lors de tels événements.
Premièrement, s’éloigner lentement du danger n’est pas idéal : il est préférable de s’éloigner de la source de la menace aussi rapidement que possible, dès lors que cela se fait en prenant les précautions nécessaires pour rester en sécurité.
Deuxièmement, l’hésitation, qu’il s’agisse de recueillir des informations, d’inspecter ce qui se passe ou de filmer les événements, augmente le risque d’être blessé.
Troisièmement, les gens doivent rester agiles dans leur prise de décision et leur orientation lorsqu’ils se déplacent, et être prêts à adapter leurs mouvements à mesure que la situation évolue et que les informations deviennent plus claires. Cela signifie qu’il faut continuellement observer son environnement et ajuster sa direction à mesure que de nouvelles informations apparaissent, plutôt que de s’arrêter pour réévaluer la situation.
Enfin, lorsque vous vous déplacez en famille ou entre amis, il vaut mieux se mettre en file indienne, plutôt qu’en se tenant par la main côte à côte. Cela profite à tout le monde en réduisant les bousculades et en améliorant la fluidité de la fuite des personnes.
Les horribles événements survenus à Sydney soulignent une dure réalité : la préparation aux risques de violence dans les lieux très fréquentés doit devenir plus courante.
Les espaces très fréquentés resteront toujours vulnérables à la violence délibérée, qu’elle soit motivée par des intentions terroristes ou autres.
Les messages doivent toucher un plus grand nombre de personnes, être fondés sur des preuves, nuancés et largement accessibles.
À l’approche de plusieurs événements publics majeurs et de grands rassemblements de masse (notamment le réveillon du Nouvel An), il est plus important que jamais que les gens soient conscients de ces risques et restent vigilants.
Milad Haghani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.