17.11.2025 à 16:02
Collaborations art-science : qui ose vraiment franchir les frontières ?
Texte intégral (2171 mots)

Les collaborations entre scientifiques et artistes font régulièrement parler d’elles à travers des expositions intrigantes ou des performances artistiques au sein de laboratoires scientifiques. Mais qu’est-ce qui motive vraiment les chercheuses et les chercheurs à s’associer à des artistes ?
Art et science se sont historiquement nourris mutuellement comme deux manières complémentaires de percevoir le monde.
Considérons ainsi les principaux instituts états-uniens de sciences marines : tous sont dotés d’ambitieux programmes de collaboration art/science, mis en place à partir du tournant des années 2000. Le prestigieux Scripps Institution of Oceanography a, par exemple, développé une collection d’art privée, ouverte au public, pour « refléter des connaissances scientifiques objectives dans des œuvres d’art à la fois réalistes et abstraites ». À l’Université de Washington, des résidences d’artiste sont organisées, au cours desquelles des peintres passent entre un et trois mois au milieu des scientifiques des Friday Harbor Laboratories (une station de recherche en biologie marine), sur l’île reculée de San Juan.
Ces démarches semblent indiquer que les institutions scientifiques sont déjà convaincues du potentiel de la collaboration entre art et science. L’initiative ne vient pas toujours des laboratoires : nombre d’artistes ou de collectifs sollicitent eux-mêmes les chercheurs, que ce soit pour accéder à des instruments, à des données ou à des terrains scientifiques. En France comme ailleurs, plusieurs résidences – au CNRS, à Paris-Saclay ou dans des centres d’art – sont ainsi nées d’une démarche portée d’abord par les artistes.
Mais qu’en est-il des chercheurs eux-mêmes ? ceux-là même qui conçoivent, développent et réalisent les projets de recherche et qui a priori ont une sensibilité artistique qui n’est ni inférieure ni supérieure à la moyenne de la population. Quels sont ceux qui choisissent d’intégrer l’art dans leurs projets scientifiques ? Et pour quoi faire ? Les études disponibles ne sont pas très éclairantes sur le sujet, car elles se sont focalisées sur des scientifiques atypiques, passionnés par l’art et artistes eux-mêmes. Peu de travaux avaient jusqu’ici procédé à un recensement « tout azimuts » des pratiques.
Dans une étude récente, nous avons recensé les pratiques, des plus originales aux plus banales, en analysant plus de 30 000 projets de recherche financés par la National Science Foundation (NSF) aux États-Unis entre 2003 et 2023, dans les domaines des géosciences et de la biologie.
Une analyse textuelle du descriptif des projets permet de sortir de l’anecdotique pour révéler des tendances structurelles inédites. Cette source comporte toutefois des biais possibles : les résumés de projets sont aussi des textes de communication, susceptibles d’amplifier ou d’édulcorer les collaborations art/science. Pour limiter ces écarts entre discours et réalité, nous combinons analyse contextuelle des termes artistiques, comparaison temporelle et vérification qualitative des projets. Ce croisement permet de distinguer les effets d’affichage des pratiques réellement intégrées.
En France aussi, les initiatives art/science existent mais restent dispersées, portées par quelques laboratoires, universités ou centres d’art, sans base de données centralisée permettant une analyse systématique. Nous avons donc choisi les États-Unis, car la NSF fournit depuis vingt ans un corpus homogène, public et massif de résumés de projets, rendant possible un recensement large et robuste des collaborations art/science.
Trois façons d’associer les artistes
Pour commencer, les collaborations entre art et science sont très rares : moins de 1 % des projets ! Ce chiffre reste toutefois une estimation basse, car il ne capture que les collaborations déclarées par les chercheurs dans des projets financés : nombre d’initiatives impulsées par des artistes ou des collectifs échappent à ces bases de données. En revanche, leur fréquence a augmenté sans discontinuer sur les vingt années d’observation.
En analysant plus finement les projets, on peut identifier que l’artiste peut y jouer trois grands rôles. D’abord, il peut être un disséminateur, c’est-à-dire qu’il aide à diffuser les résultats auprès du grand public. Il ne contribue pas vraiment à la recherche mais joue le rôle d’un traducteur sans qui l’impact des résultats du projet serait moindre. C’est, par exemple, la mise sur pied d’expositions ambulantes mettant en scène les résultats du projet.
Ensuite, l’artiste peut intervenir comme éducateur. Il intervient alors en marge du projet, pour faire connaître un domaine scientifique auprès des enfants, des étudiants, ou de communautés marginalisées. L’objectif est de profiter d’un projet de recherche pour faire connaître un domaine scientifique de manière plus générale et susciter des vocations. Par exemple, l’un des projets prévoyait la collaboration avec un dessinateur de bande dessinée pour mieux faire connaître aux enfants les sciences polaires.
Enfin, dans des cas beaucoup plus rares, les artistes jouent un rôle de cochercheurs. Le recours au travail artistique participe alors à la construction même des savoirs et/ou des méthodes. Par exemple, un des projets réunissait des artistes et des chercheurs en neurosciences pour concevoir de nouvelles façons de visualiser les circuits nerveux du cerveau, et in fine créer de nouvelles formes de données scientifiques.
Ces différentes formes reflètent une tension encore vive dans le monde académique : l’art est majoritairement mobilisé pour « faire passer » la science, plutôt que pour nourrir la recherche elle-même. Pourtant, les projets les plus ambitieux laissent entrevoir un potentiel plus grand : celui d’une science transformée par le dialogue avec d’autres formes de connaissance.
Cette réflexion fait également écho à des considérations plus générales sur la complémentarité entre l’art et la science, non pas comme des disciplines opposées, mais comme deux approches différentes pour questionner le monde. Comme le formulait joliment un article publié dans The Conversation, il s’agit moins d’opposer l’art à la science que de leur permettre de « faire l’amour, pas la guerre », c’est-à-dire de collaborer pour produire de nouvelles formes de compréhension et d’engagement citoyen.
Au-delà de ces différentes façons d’associer les artistes à un projet, notre étude montre également que ces collaborations ne sont pas réparties au hasard. Certains scientifiques les pratiquent bien plus que d’autres, en fonction de leurs caractéristiques personnelles, leur contexte institutionnel et enfin les objectifs scientifiques de leur projet.
Une science plus ouverte… mais pas partout
Première surprise : ce ne sont pas les universités les plus prestigieuses qui s’ouvrent le plus à l’art. Au contraire, ce sont les institutions les moins centrées sur la recherche dite « pure » qui s’y engagent plus largement. Ces établissements s’appuient probablement sur l’art pour conduire des projets plutôt éducatifs, visant essentiellement à faire connaître la science au plus grand nombre.
Deuxième enseignement : les femmes scientifiques sont bien plus nombreuses que leurs homologues masculins à s’engager dans ces démarches. Cette surreprésentation est à rapprocher d’autres résultats montrant que les femmes scientifiques sont en moyenne plus engagées dans les activités de vulgarisation que les hommes – qui, eux, ont tendance à investir plus exclusivement les domaines supposés plus prestigieux, notamment ceux liés à la publication purement académique.
Ce biais de genre, loin d’être anecdotique, soulève des questions sur la manière dont la reconnaissance académique valorise (ou ignore) certains types d’engagement. Incidemment, ce résultat suggère aussi que promouvoir et financer des collaborations entre art et science serait un moyen a priori efficace de rééquilibrer les différences régulièrement constatées entre hommes et femmes.
L’art, catalyseur d’impact sociétal, mais pas sur tous les sujets
Alors que l’on demande de plus en plus aux scientifiques de démontrer l’impact de leurs travaux sur la société, beaucoup se trouvent mal préparés à cette tâche. Peintres, sculpteurs, écrivains, photographes, etc., ont l’habitude de s’adresser à un public large, de captiver l’attention et déclencher les émotions qui garantissent une impression. Leur interprétation du travail et des résultats scientifiques peut ainsi accroître la visibilité des recherches et susciter le changement. On pourrait donc s’attendre à ce que les projets les plus orientés vers des objectifs sociétaux ambitieux aient plus souvent recours aux artistes.
C’est globalement le cas, mais avec toutefois de grosses différences selon les défis sociétaux concernés, que nous avons classés suivants les grands objectifs de développement durable (ODD) édictés par l’ONU. Notamment, la collaboration art/science est bien plus fréquente dans les projets portant sur la biodiversité marine (ODD 14 « Vie aquatique ») que dans ceux axés sur l’action climatique (ODD 13).
Cette différence s’explique probablement en partie par la grande difficulté à rendre visibles ou compréhensibles certains phénomènes plutôt lointains de la vie quotidienne du grand public : l’acidification des océans, la dégradation des écosystèmes marins, etc. Le travail artistique permet de mobiliser les sens, créer des émotions, des narrations, des imaginaires, qui vont faciliter les prises de conscience et mobiliser les citoyens ou les pouvoirs publics. Bref, il va augmenter l’impact sociétal de la recherche sur ces sujets.
Lever les freins : une affaire de politiques scientifiques
Comment expliquer que ces collaborations restent somme toute très marginales dans le monde de la recherche ? Des défis persistent, tels que le manque de financements qui y sont consacrés ou le cloisonnement disciplinaire des recherches. En outre, l’incitation à explorer ces frontières reste très faible pour les chercheurs, dans un monde académique où la production de publications dans des revues spécialisées reste le critère de performance essentiel.
Intégrer l’art à un projet scientifique nécessite du temps, de la confiance et un changement de posture, souvent perçu comme risqué dans un milieu académique très normé. Mais des solutions existent sans doute : il s’agirait de former mieux les scientifiques à la collaboration, de financer des projets transdisciplinaires et de changer les critères d’évaluation de la recherche, pour valoriser les prises de risque.
À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple emballage esthétique : il pourrait devenir un allié stratégique ! Il ne s’agit pas uniquement de « vulgariser » la science, mais bien de la faire résonner autrement dans les imaginaires, les émotions et les débats publics.
En écoutant celles et ceux qui osent franchir les murs du laboratoire, nous comprendrons peut-être mieux comment faire de la science de manière plus sensible, plus accessible et surtout plus transformatrice.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.11.2025 à 17:19
L’intelligence artificielle peut-elle améliorer la prévision météorologique ?
Texte intégral (1574 mots)
L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?
Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.
L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.
L’IA : un nouveau paradigme pour la prévision météorologique ?
Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.
Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.
La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.
La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.
Gagner en temps et en qualité
Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.
Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.
Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.
De la prévision météorologique à la prise de décision
Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.
Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.
Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.
En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Laure Raynaud a reçu des financements de l'Agence Nationale de la Recherche (ANR), l'Union Européenne.
12.11.2025 à 12:22
Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science
Texte intégral (2150 mots)
James Dewey Watson est mort à l’âge de 97 ans, a annoncé le 7 novembre 2025 le Cold Spring Harbor Laborator. Co-découvreur de la structure de l’ADN et prix Nobel en 1962, a marqué à jamais la biologie moderne. Mais son héritage scientifique est indissociable des controverses qui ont entouré sa carrière et sa personnalité.
James Dewey Watson était un biologiste moléculaire américain, surtout connu pour avoir remporté conjointement le prix Nobel de physiologie ou de médecine en 1962 grâce à la découverte de la structure de l’ADN et de son rôle dans le transfert d’informations au sein des organismes vivants. L’importance de cette découverte ne saurait être exagérée. Elle a permis de comprendre le fonctionnement des gènes et donné naissance aux domaines de la biologie moléculaire et de la phylogénétique évolutive. Elle a inspiré et influencé ma carrière de scientifique ainsi que mes activités de directeur d’un centre de recherche en bioinformatique et en génomique fonctionnelle.
Personnalité provocatrice et controversée, il transforma la manière de transmettre la science. Il reste le premier lauréat du prix Nobel à offrir au grand public un aperçu étonnamment personnel et brut du monde impitoyable et compétitif de la recherche scientifique. James D. Watson est décédé le 6 novembre 2025 à l’âge de 97 ans.
La quête du gène selon Watson
Watson entra à l’université de Chicago à l’âge de 15 ans, avec l’intention initiale de devenir ornithologue. Après avoir lu le recueil de conférences publiques d’Erwin Schrödinger sur la chimie et la physique du fonctionnement cellulaire, intitulé What is Life ?, il se passionna pour la question de la composition des gènes – le plus grand mystère de la biologie à l’époque.
Les chromosomes, un mélange de protéines et d’ADN, étaient déjà identifiés comme les molécules de l’hérédité. Mais la plupart des scientifiques pensaient alors que les protéines, composées de vingt éléments constitutifs différents, étaient les meilleures candidates, contrairement à l’ADN qui n’en possédait que quatre. Lorsque l’expérience d’Avery-MacLeod-McCarty, en 1944, démontra que l’ADN était bien la molécule porteuse de l’hérédité, l’attention se concentra immédiatement sur la compréhension de cette substance.
Watson obtint son doctorat en zoologie à l’université de l’Indiana en 1950, puis passa une année à Copenhague pour y étudier les virus. En 1951, il rencontra le biophysicien Maurice Wilkins lors d’une conférence. Au cours de l’exposé de Wilkins sur la structure moléculaire de l’ADN, Watson découvrit les premières cristallographie par rayons X de l’ADN. Cette révélation le poussa à rejoindre Wilkins au laboratoire Cavendish de l’université de Cambridge pour tenter d’en percer le secret de la structure. C’est là que Watson fit la connaissance du physicien devenu biologiste Francis Crick, avec qui il noua immédiatement une profonde affinité scientifique.
Peu après, Watson et Crick publièrent leurs travaux fondateurs sur la structure de l’ADN dans la revue Nature en 1953. Deux autres articles parurent dans le même numéro, l’un coécrit par Wilkins, l’autre par la chimiste et cristallographe aux rayons X Rosalind Franklin.
C’est Franklin qui réalisa les cristallographies par rayons X de l’ADN contenant les données cruciales pour résoudre la structure de la molécule. Son travail, combiné à celui des chercheurs du laboratoire Cavendish, conduisit à l’attribution du prix Nobel de physiologie ou de médecine de 1962 à Watson, Crick et Wilkins.
Le prix et la controverse
Bien qu’ils aient eu connaissance des précieuses images de diffraction des rayons X de Franklin, diffusées dans un rapport interne du laboratoire Cavendish, ni Watson ni Crick ne mentionnèrent ses contributions dans leur célèbre article publié en 1953 dans Nature. En 1968, Watson publia un livre relatant les événements entourant la découverte de la structure de l’ADN tels qu’il les avait vécus, dans lequel il minimise le rôle de Franklin et la désigne avec des termes sexistes. Dans l’épilogue, il reconnaît finalement ses contributions, mais sans lui accorder le plein mérite de sa participation à la découverte.
À lire aussi : Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée
Certains historiens ont soutenu que l’une des raisons invoquées pour ne pas reconnaître officiellement le rôle de Franklin tenait au fait que son travail n’avait pas encore été publié et qu’il était considéré comme une « connaissance partagée » au sein du laboratoire Cavendish, où les chercheurs travaillant sur la structure de l’ADN échangeaient couramment leurs données. Cependant, l’appropriation des résultats de Franklin et leur intégration dans une publication officielle sans autorisation ni mention de son nom sont aujourd’hui largement reconnues comme un exemple emblématique de comportement déplorable, tant du point de vue de l’éthique scientifique que dans la manière dont les femmes étaient traitées par leurs collègues masculins dans les milieux professionnels.
Au cours des décennies qui ont suivi l’attribution du prix Nobel à Watson, Crick et Wilkins, certains ont érigé Rosalind Franklin en icône féministe. On ignore si elle aurait approuvé cette image, car il est difficile de savoir ce qu’elle aurait ressenti face à sa mise à l’écart du Nobel et face au portrait peu flatteur que Watson lui consacra dans son récit des événements. Ce qui est désormais incontestable, c’est que sa contribution fut décisive et essentielle, et qu’elle est aujourd’hui largement reconnue comme une collaboratrice à part entière dans la découverte de la structure de l’ADN.
Une prise de conscience collective
Comment les attitudes et les comportements envers les jeunes collègues et les collaborateurs ont-ils évolué depuis ce prix Nobel controversé ? Dans de nombreux cas, les universités, les institutions de recherche, les organismes financeurs et les revues à comité de lecture ont mis en place des politiques formelles visant à identifier et reconnaître de manière transparente le travail et les contributions de tous les chercheurs impliqués dans un projet. Bien que ces politiques ne fonctionnent pas toujours parfaitement, le milieu scientifique a évolué pour fonctionner de manière plus inclusive. Cette transformation s’explique sans doute par la prise de conscience qu’un individu seul ne peut que rarement s’attaquer à des problèmes scientifiques complexes et les résoudre. Et lorsqu’un conflit survient, il existe désormais davantage de mécanismes officiels permettant de chercher réparation ou médiation.
Des cadres de résolution des différends existent dans les directives de publication des revues scientifiques, ainsi que dans celles des associations professionnelles et des institutions. Il existe également une revue intitulée Accountability in Research, « consacrée à l’examen et à l’analyse critique des pratiques et des systèmes visant à promouvoir l’intégrité dans la conduite de la recherche ». Les recommandations destinées aux chercheurs, aux institutions et aux organismes de financement sur la manière de structurer l’attribution des auteurs et la responsabilité scientifique constituent un progrès significatif en matière d’équité, de procédures éthiques et de normes de recherche.
J’ai moi-même connu des expériences à la fois positives et négatives au cours de ma carrière : j’ai parfois été inclus comme coauteur dès mes années de licence, mais aussi écarté de projets de financement ou retiré d’une publication à mon insu, alors que mes contributions étaient conservées. Il est important de noter que la plupart de ces expériences négatives se sont produites au début de ma carrière, sans doute parce que certains collaborateurs plus âgés pensaient pouvoir agir ainsi en toute impunité.
Il est également probable que ces expériences négatives se produisent moins souvent aujourd’hui, car je formule désormais clairement mes attentes en matière de co-signature dès le début d’une collaboration. Je suis mieux préparé et j’ai désormais la possibilité de refuser certaines collaborations.
Je soupçonne que cette évolution reflète ce que d’autres ont vécu, et qu’elle est très probablement amplifiée pour les personnes issues de groupes sous-représentés dans les sciences. Malheureusement, les comportements inappropriés, y compris le harcèlement sexuel, persistent encore dans ce milieu. La communauté scientifique a encore beaucoup de chemin à parcourir – tout comme la société dans son ensemble.
Après avoir co-découvert la structure de l’ADN, James Watson poursuivit ses recherches sur les virus à l’université Harvard et prit la direction du Cold Spring Harbor Laboratory, qu’il contribua à revitaliser et à développer considérablement, tant sur le plan de ses infrastructures que de son personnel et de sa réputation internationale. Lorsque le Projet génome humain était encore à ses débuts, Watson s’imposa comme un choix évident pour en assurer la direction et en accélérer le développement, avant de se retirer après un long conflit portant sur la possibilité de breveter le génome humain et les gènes eux-mêmes – Watson s’y opposait fermement.
En dépit du bien immense qu’il a accompli au cours de sa vie, l’héritage de Watson est entaché par sa longue série de propos publics racistes et sexistes, ainsi que par ses dénigrements répétés, tant personnels que professionnels, à l’encontre de Rosalind Franklin. Il est également regrettable que lui et Crick aient choisi de ne pas reconnaître pleinement tous ceux qui ont contribué à leur grande découverte aux moments décisifs.
Andor J. Kiss ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.11.2025 à 12:21
Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée
Texte intégral (1583 mots)

Alors que s’ouvre l’exposition En voie d’illumination : Lumières de la Nature au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.
Il y a des rencontres qui illuminent littéralement vos nuits. Un de ces derniers soirs d’automne, au détour d’un jardin du sud de la France et à la faveur du changement d’heure, j’ai remarqué une étrange lueur verte, douce, presque irréelle, au pied d’une vieille souche. Non, je ne rêvais pas : c’était bien un champignon qui luisait dans le noir. Il ne s’agissait pas d’un gadget tombé d’un sac d’enfant ou d’un reflet de la Lune, mais bien d’un organisme vivant, émettant sa propre lumière. Bienvenue dans le monde fascinant des champignons bioluminescents.
Une lumière naturelle… et vivante
La bioluminescence est la production naturelle de lumière par un être vivant, sans illumination préalable et en cela diffère de la fluorescence ou de la phosphorescence qui ont besoin d’une source de lumière. On la connaît chez certains poissons abyssaux, des requins, des crevettes, du plancton ou chez les lucioles.
Mais les champignons, eux aussi, ont ce « superpouvoir ». Plus de 90 espèces sont aujourd’hui connues dans le monde, surtout en zones tropicales humides mais certaines, comme l’Omphalotus illudens, sont présentes chez nous, en Europe, et même dans les jardins du sud de la France où l’on trouve aussi Omphalotus olearius, souvent inféodé à l’Olivier mais pas uniquement. L’entomologiste Jean Henri Fabre la connaissait bien et cela a constitué sa première publication en 1856 sur les champignons.
Une chimie simple, une magie complexe
La lumière fongique ne produit pas chaleur, elle est constante et le plus souvent verte. Elle provient d’une réaction chimique impliquant une molécule appelée luciférine, de l’oxygène, et une enzyme, la luciférase. Cette réaction produit de la lumière dans le vert (vers 520 nm). Le mécanisme, bien que désormais mieux compris, reste fascinant : une lumière sans électricité, sans feu, et pourtant visible à l’œil nu, dans le silence du sous-bois. La bioluminescence est donc une forme de chimioluminescence, puisqu’elle dépend d’une réaction chimique.
Chez les champignons, cette lumière n’est pas toujours visible partout : parfois seules les lamelles, d’autres fois le mycélium (le réseau souterrain de filaments) sont luminescents, ou les deux. Beaucoup d’espèces sont par contre fluorescentes aux UV. Comme nous l’avons dit la fluorescence diffère de la bioluminescence par la nécessité d’avoir une source lumineuse d’excitation qui va provoquer une luminescence dans une longueur d’onde différente. Ce sont des phénomènes très différents même s’ils sont souvent associés chez les organismes.
Pourquoi un champignon brille-t-il ?
Pourquoi un organisme qui ne bouge pas et n’a pas d’yeux se donnerait-il la peine d’émettre de la lumière ? Plusieurs hypothèses ont été proposées comme attirer des insectes nocturnes pour disperser les spores, à l’image d’une enseigne clignotante dans la forêt. Une autre hypothèse est un effet secondaire métabolique, sans rôle adaptatif (ça fait moins rêver, mais cela reste peu probable). La dissuasion de prédateurs (insectes, petits rongeurs) grâce à cette signature visuelle inhabituelle a été également étudiée.
Une étude publiée dans Current Biology a montré que des insectes sont effectivement attirés par la lumière de certains champignons, renforçant l’idée d’une stratégie de dissémination.
L’espèce que vous avez peut-être déjà trouvé dans votre jardin, Omphalotus illudens (ou encore O. olearius dans le sud de la France) est remarquable à plus d’un titre. D’abord, parce qu’elle est toxique : ne vous fiez pas à sa belle couleur orangée et son odeur suave de sous-bois. Ensuite, parce qu’elle émet une lumière verte depuis ses lames, bien visible dans le noir complet. Ce phénomène est observable à l’œil nu si l’on s’éloigne des sources lumineuses parasites.
Ce champignon est de plus en plus étudié pour comprendre les variations génétiques liées à la bioluminescence entre espèces fongiques, et rechercher des molécules d’intérêt dans leur métabolisme, comme l’illudine, l’une des molécules à la base de leur toxicité, intéressante pour ses propriétés anticancéreuse.
Lumière sur la nature
Photographier ces champignons est un défi passionnant : il faut une longue pose, souvent au-delà de 30 secondes, un environnement très sombre, et parfois, un peu de chance. Mais l’image qui en résulte est souvent saisissante : un halo lumineux semblant flotter dans l’obscurité, témoin de la vitalité nocturne des sous-bois.
J’ai relevé le défi une fois de plus, comme la toute première fois dans une forêt du Vietnam sur une autre espèce ou récemment sur des litières en Guyane. Le défi est en fait double, détecter le phénomène et le photographier ensuite comme un témoignage fugace, un caractère discret qui disparaît à la mort de l’organisme.
Pour étudier ces phénomènes notre unité de recherche s’est dotée d’une plate-forme originale d’imagerie et d’analyse des phénomènes lumineux dans le vivant mais aussi pour explorer la géodiversité, par exemple dans les fossiles (pour la fluorescence) : le laboratoire de photonique 2D/3D de la biodiversité. Entre le vivant lors d’expéditions ou de missions de terrains pas forcément lointaine et les collections du MNHN, le registre de l’exploration de ces phénomènes est immense et nous l’avons juste commencé.
Bioluminescence et écologie fongique
Outre son effet esthétique, la bioluminescence pourrait aussi être un marqueur de l’activité biologique : elle reflète le métabolisme actif de certains champignons en croissance, leur interaction avec le bois, la température, l’humidité. Certains chercheurs envisagent même d’utiliser ces espèces comme indicateurs écologiques.
Alors la prochaine fois que vous sortez de nuit, observez les bords des sentiers, les vieux troncs en décomposition… car parfois, la nature éclaire son propre théâtre. Et si un champignon vous fait de l’œil fluorescent, n’ayez pas peur : il est plus poétique que dangereux… sauf si vous le cuisinez. Mais n’oubliez pas d’éteindre votre lampe et d’aller loin des sources de pollution lumineuses.
Romain Garrouste a reçu des financements de : MNHN. CNRS, Sorbonne Université, IPEV, LABEx BCDiv, LABEx CEBA, MTE, MRAE, National Geographic, Institut de la Transition Environnementale et Institut de l'Océan (Sorbonne Univ.)
12.11.2025 à 12:21
Greffes d’organes vers l’humain : cœur, rein, peau… pourquoi le cochon est-il devenu l’animal de référence pour les xénogreffes ?
Texte intégral (982 mots)
Greffer l’organe d’un animal à un être humain n’est plus de la science-fiction. Ces dernières années, plusieurs patients ont reçu un cœur, un rein ou même la peau d’un porc génétiquement modifié. Mais pourquoi choisir le cochon, plutôt qu’un autre animal ?
Le terme xénogreffe désigne la transplantation d’un tissu ou d’un organe provenant d’une espèce différente de celle du receveur, par exemple, d’un porc vers un humain. Elle se distingue de l’allogreffe, entre deux humains, et de l’autogreffe, utilisant les propres tissus du patient. L’objectif est de remédier à la pénurie chronique d’organes humains disponibles pour la transplantation, tout en garantissant la compatibilité et la sécurité du greffon.
En France, au 1er janvier 2025, 22 585 patients étaient inscrits sur la liste nationale d’attente pour une greffe, dont 11 666 en liste active. En 2024, 852 patients sont décédés en attendant une greffe.
La peau de porc, une pionnière des xénogreffes
C’est d’abord la peau qui a ouvert la voie. Depuis les années 1960, la peau de porc est utilisée comme pansement biologique temporaire pour les grands brûlés. Sa structure et son épaisseur sont étonnamment proches de celles de la peau humaine, ce qui permet une bonne adhérence et une protection efficace contre les infections et la déshydratation.
Contrairement à d’autres animaux (vache, mouton, lapin), la peau de porc présente un réseau de collagène (protéine structurelle présente dans le tissu conjonctif et responsable de la résistance et élasticité des tissus) et une densité cellulaire similaires à ceux de l’homme, limitant les réactions de rejet immédiat. Ces greffes ne sont toutefois que temporaires : le système immunitaire finit par les détruire. Néanmoins, elles offrent une protection temporaire avant une autogreffe ou une greffe humaine.
Une proximité biologique frappante
Au-delà de la peau, le cochon partage de nombreux points communs physiologiques avec l’être humain : taille des organes, rythme cardiaque, pression artérielle, composition du plasma, voire métabolisme. Le cœur d’un cochon adulte, par exemple, a des dimensions proches de celui d’un humain, ce qui en fait un candidat naturel pour les greffes.
D’autres espèces, comme les primates non humains, présentent une proximité génétique encore plus importante, mais leur utilisation soulève des questions éthiques et sanitaires beaucoup plus lourdes, sans parler de leur reproduction lente et de leur statut protégé.
Un animal compatible avec la médecine moderne
Au contraire, les cochons sont faciles à élever, atteignent rapidement leur taille adulte, et leurs organes peuvent être obtenus dans des conditions sanitaires contrôlées. Les lignées génétiquement modifiées, comme celles développées par la société américaine Revivicor, sont désormais dépourvues de certains gènes responsables du rejet hyper aigu, ce qui rend leurs organes plus « compatibles » avec le système immunitaire humain.
Les chercheurs ont aussi supprimé des virus « dormants » (qui ne s’activent pas) présents dans le génome du porc, réduisant le risque de transmission d’agents infectieux à l’Homme.
Du pansement biologique à la greffe d’organe
Après la peau, les chercheurs se tournent vers les reins, le cœur, le foie ou encore le pancréas. En 2024, des patients ont survécu plusieurs semaines avec un cœur de porc génétiquement modifié, une prouesse longtemps jugée impossible. Des essais ont également été menés avec des reins de porc, notamment chez des patients en état de mort cérébrale ou, plus récemment, chez un patient vivant. En revanche, les recherches sur le foie et le pancréas en sont encore au stade préclinique, menées uniquement chez l’animal. Ces avancées ne sont pas seulement symboliques : la pénurie mondiale de donneurs humains pousse la médecine à explorer des alternatives réalistes.
Cependant, le défi immunologique reste immense – même génétiquement modifiés, les organes porcins peuvent être rejetés par le système immunitaire humain – tout comme les enjeux éthiques liés notamment au bien-être animal.
Le cochon s’est imposé non par hasard, mais parce qu’il représente un compromis entre proximité biologique, faisabilité et acceptabilité sociale. Si les essais confirment la sécurité et la durabilité des greffes, le porc pourrait bientôt devenir un allié inattendu mais essentiel de la médecine humaine.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.11.2025 à 12:21
Comprendre la cuisson parfaite des pâtes avec ou sans gluten grâce à la science
Texte intégral (1457 mots)
Et si la physique des particules pouvait améliorer la cuisson des pâtes ? En scrutant leur structure à l’échelle atomique, des chercheurs ont compris comment le gluten maintient la fermeté des spaghettis et pourquoi les versions sans gluten restent si fragiles.
Que vous préfériez vos spaghettis al dente ou délicieusement fondants, il n’est pas toujours facile d’atteindre la perfection à la maison. Beaucoup d’entre nous ont déjà vu leurs pâtes se transformer en une bouillie beige – surtout lorsqu’il s’agit d’alternatives sans gluten.
Alors, quelle quantité d’eau et de sel faut-il vraiment utiliser, et combien de temps faut-il cuire les pâtes pour obtenir un résultat optimal ? Et surtout, comment adapter sa méthode de cuisson quand on utilise des pâtes sans gluten ? Une étude récente que mes collègues et moi avons menée, publiée dans Food Hydrocolloids, apporte des réponses en dévoilant la physique du processus de cuisson.
En nous tournant vers le Diamond Light Source, le synchrotron national du Royaume-Uni (un accélérateur de particules circulaire), nous avons étudié la diffusion des rayons X sur des pâtes afin d’en révéler la structure interne. Nous nous sommes ensuite rendus à Isis et à l’Institut Laue-Langevin, deux centres de recherche situés respectivement au Royaume-Uni et en France, pour analyser à l’aide de neutrons (qui, avec les protons, composent le noyau atomique) la microstructure des spaghettis classiques et sans gluten soumis à différentes conditions de cuisson.
L’étude montre comment la structure cachée des pâtes se modifie au cours de la cuisson, et pourquoi les versions sans gluten se comportent de manière si différente.
Ce dispositif nous a permis d’examiner la structure de l’amidon et du gluten dans les spaghettis à des échelles très fines, allant de plusieurs dizaines de fois le rayon d’un atome à plusieurs milliers de fois. Nous avons ainsi pu comparer les transformations qui s’opèrent dans les pâtes classiques et sans gluten selon diverses conditions de cuisson – par exemple lorsqu’elles sont trop cuites ou cuites sans sel.
Nos expériences nous ont permis de « voir » séparément les différents composants des pâtes. En mélangeant de l’eau normale et de « l’eau lourde » (qui contient un isotope appelé deutérium), nous pouvions rendre soit le gluten, soit l’amidon invisible au faisceau de neutrons. De cette manière, nous avons pu isoler efficacement chaque structure à tour de rôle et comprendre le rôle respectif de l’amidon et du gluten pendant la cuisson.
Le rôle du gluten et du sel
Notre étude montre que, dans les pâtes classiques, le gluten agit comme une armature solide qui maintient les granules d’amidon en place même pendant l’ébullition, ce qui confère aux pâtes leur fermeté et leur lenteur de digestion. Dans les pâtes sans gluten, en revanche, les granules d’amidon gonflent et s’effondrent plus facilement – ce qui explique leur texture pâteuse et leur dégradation plus rapide lorsque ce type de pâtes est cuit dans des conditions non optimales.
Nous avons également étudié l’effet du sel contenu dans l’eau de cuisson sur la structure des pâtes. Nous avons constaté que le sel ne se contente pas d’améliorer leur goût : il influence fortement la microstructure des spaghettis. Lorsque des pâtes classiques sont bouillies dans une eau salée, le gluten conserve sa structure, et les granules d’amidon sont moins altérés par le processus de cuisson.
Alors, quelle quantité de sel faut-il ajouter pour préserver la structure microscopique des pâtes ? Notre étude a révélé que l’idéal est de sept grammes de sel par litre d’eau, avec une quantité d’eau plus importante nécessaire pour de plus grandes portions de pâtes. Le temps de cuisson idéal est de dix minutes pour les pâtes classiques et onze minutes pour les pâtes sans gluten. À l’inverse, lorsque la concentration en sel était doublée, l’ordre interne se dégradait plus rapidement et la structure des granules d’amidon était significativement altérée par la cuisson.
Pour les pâtes sans gluten, les conclusions étaient encore différentes en raison de l’absence de la protection offerte par le gluten. Même de petites quantités de sel ne pouvaient compenser cette absence. Les composés artificiels à base d’amidons transformés, utilisés par les fabricants pour remplacer le gluten, se dégradaient rapidement. L’exemple le plus extrême de cette dégradation est survenu lorsque les spaghettis sans gluten étaient cuits trop longtemps – par exemple treize minutes au lieu de onze – et dans une eau très salée.
La principale conclusion est donc que les pâtes sans gluten sont structurellement plus fragiles et moins tolérantes à une cuisson prolongée ou à une mauvaise proportion de sel.
Améliorer les alternatives sans gluten
Comprendre la structure des pâtes à des échelles aussi infimes, invisibles même au microscope, aidera à concevoir de meilleurs aliments sans gluten. L’objectif est notamment de créer des alternatives sans gluten plus résistantes aux mauvaises conditions de cuisson et dont la texture se rapproche davantage de celle des spaghettis classiques.
Les pâtes de blé classiques ont un faible indice glycémique, car le gluten ralentit la dégradation des granules d’amidon lors de la digestion. Les pâtes sans gluten, fabriquées à partir de farines de riz et de maïs, manquent souvent de cette structure, ce qui entraîne une libération plus rapide des sucres. Grâce à la diffusion des neutrons, les scientifiques de l’alimentation peuvent désormais identifier quels ingrédients et quelles conditions de cuisson reproduisent le mieux la structure du gluten.
C’est aussi une illustration de la manière dont des outils expérimentaux de pointe, principalement utilisés pour la recherche fondamentale, transforment aujourd’hui la recherche alimentaire. La diffusion des neutrons a joué un rôle essentiel dans la compréhension des matériaux magnétiques, des batteries, des polymères et des protéines. Elle permet désormais aussi d’expliquer le comportement de nos aliments du quotidien à l’échelle microscopique.
Andrea Scotti reçoit des financements de la Fondation Knut et Alice Wallenberg ainsi que du Conseil suédois de la recherche.
12.11.2025 à 12:21
Réagir face au danger mortel par l’entraide, le réconfort et le soutien : témoignages de l’attentat au Bataclan le 13 novembre 2015
Texte intégral (1773 mots)
Comment un groupe réagit-il face à un danger de mort ? L’analyse des témoignages de 32 victimes de l’attentat du Bataclan du 13 novembre 2015 montre que les comportements d’entraide, de réconfort émotionnel ou de soutien physique ont été nombreux. Cette stratégie de défense collective est souvent plus efficace que celle du « chacun pour soi ».
Le soir du 13 novembre 2015, six attentats quasi simultanés avaient ensanglanté les abords du Stade de France à Saint-Denis (Seine-Saint-Denis), des terrasses des dixième et onzième arrondissements de Paris ainsi que l’enceinte, la fosse et les coursives du Bataclan (XIᵉ). Dans cette célèbre salle de concert, trois individus armés de fusils d’assaut font feu, tuent 90 personnes et en blessent plusieurs dizaines.
Dans un contexte marqué par de nombreux attentats en France, en Europe et ailleurs, le CNRS avait souhaité, fin novembre 2015, financer des projets de recherche permettant notamment d’appréhender les répercussions sociétales de ces nombreux événements meurtriers. Avec des collègues psychiatres, neuroscientifiques et psychologues sociaux, nous nous sommes penchés sur la question de ce que deviennent les conduites sociales (la façon dont nous nous comportons avec et face à autrui) lorsque la survie est en jeu.
Cette question est cruciale pour préparer au mieux les communautés aux situations d’urgence, et notamment pour articuler les dispositifs de secours institutionnels avec la tendance des populations à prendre les devants en se protégeant mutuellement dans l’attente ou à la place des secours.
Les comportements « antisociaux » sont rares
Depuis les années 1960 et grâce notamment aux travaux des sociologues du Disaster Research Center de l’Ohio State University (États-Unis), nous savons que la « panique » (définie comme un intense affect négatif, une croyance qu’un danger est présent mais qu’on peut en réchapper, et une motivation à atteindre la sécurité à tout prix) est rare. Évidemment, les personnes qui se sentent mortellement menacées ont peur et fuient. Mais elles le font sans volonté de nuire à autrui. Face au danger mortel, de tels comportements dits « antisociaux » (une action qui a un effet résolument délétère sur autrui) sont ainsi sans doute peu courants. Un survivant à l’attentat de Londres en 2005 raconte notamment « qu’il n’a constaté aucun comportement non coopératif », qu’il a « juste vu certaines personnes tellement absorbées par leurs propres émotions qu’elles étaient davantage concentrées sur elles-mêmes », mais « personne qui ne coopérait pas » ; il n’avait d’ailleurs « constaté aucun mauvais comportement ».
De fait, les comportements prosociaux (entraide, réconfort émotionnel, soutien physique) sont nombreux. Un témoin de la bousculade mortelle lors de la Love Parade de 2010 à Duisbourg (Allemagne) raconte qu’une personne (probablement décédée) l’avait sauvé de la mort en maintenant son bras au-dessus de sa tête, de façon à la protéger des piétinements.
Pourquoi nous montrerions-nous plutôt prosociaux face au danger mortel ? Selon la littérature scientifique, il y aurait trois grandes raisons à cela : d’abord, les normes sociales de l’ordinaire (ne pas marcher sur les autres, respecter leur intimité physique, protéger les personnes blessées, etc.) sont si importantes dans la vie quotidienne qu’elles sont maintenues. De même, la réponse au danger perçu est largement affiliative : face au danger, nous cherchons ce qui est sûr, par le rapprochement voire le contact physique. Enfin, le fait de se trouver avec d’autres face à un élément menaçant crée un sentiment de « destin commun » qui favorise des normes de protection du groupe.
Ces explications ont leur mérite, mais ne nous satisfont pas en ce qu’elles semblent présupposer que les réponses sociales au danger ne dépendent pas également des circonstances matérielles dans lesquelles se trouvent les individus. Serions-nous tout aussi prosociaux si nous avions d’abord l’occasion de nous échapper ? Faut-il se sentir en sécurité physique même minimale avant de vouloir aider autrui ? La prosocialité est-elle la réponse spontanée ou met-elle du temps à émerger ? Nous souhaitions, par un travail empirique, mieux comprendre la dynamique des réponses sociales face au danger mortel.
Une recherche menée avec les rescapés du Bataclan
Entre juin et novembre 2016, nous avons eu l’occasion de rencontrer individuellement trente-deux rescapé·e·s de l’attentat du Bataclan, approché·e·s grâce à nos contacts avec deux associations de victimes des attentats du 13-Novembre.
Après nous être assurés que chacun·e des participant·e·s se sentait en capacité de revivre par le récit sa soirée au Bataclan, nous avons discuté avec elles et eux autour d’un questionnaire portant sur leur position dans l’enceinte du Bataclan, leur perception de la menace, les comportements d’autrui et leurs propres comportements à trois moments clés de l’attentat : le moment où ils ont compris que quelque chose de grave se produisait ; lorsqu’ils prenaient conscience qu’il s’agissait d’une attaque terroriste ; enfin, les suites de l’attentat. Puisque certain·e·s participant·e·s ne se retrouvaient pas dans une telle partition du récit (nous disant notamment qu’elles ou ils n’avaient jamais pris conscience qu’il s’agissait d’un attentat), nous avons très vite abandonné l’idée d’analyser la temporalité des comportements prosociaux – à savoir s’ils émergeaient précocement ou tardivement face au danger.
Pour autant, nous avons pu analyser le rôle des contraintes spatiales et matérielles sur 426 actions sociales (réconfort autrui, pousser quelqu’un, appeler à l’aide, etc.) provenant des 32 participant·e·s (environ 13 épisodes narrés par participant·e), à savoir si elles étaient réalisées lorsqu’il était possible de s’échapper et si les agents de l’action étaient alors protégés par une paroi.
Que nous ont raconté les participant·e·s ? Évidemment, on nous a raconté l’usage de la force et des coudes pour se frayer un chemin jusqu’à la sortie.
Un participant nous a dit :
« On s’est levés, et il y a eu un mouvement de foule à ce moment-là […] on s’est fait un petit peu marcher dessus… »
On nous a aussi raconté des paroles difficiles échangées ainsi que des ordres donnés de manière violente et brutale :
« Y’a un mec (un autre spectateur) qui est arrivé derrière la porte […] et j’entendais : “Si tu n’ouvres pas la porte, je vais te b*, je vais te b*, tu vas le regretter toute ta vie, je vais te… tu vas mourir, je vais te’…” Il était complètement fou. »
Enfin, on nous a parlé de négligence des autres :
« La menace est toujours là […] je lâche la main de mon mari, enfin, le truc hyper égoïste […] je me barre et voilà. Et… euh ben, je marche sur des corps, mais je peux pas faire autrement. […] Les corps, les corps qui sont dans le hall, euh, je je, bah pour moi ils sont morts, mais je vais pas vérifier s’ils sont morts ou pas… »
Cependant, on nous a plus souvent raconté le réconfort donné aux autres :
« Je me retrouve allongée par terre, avec des gens empilés donc, je me retrouve avec un couple en face de moi, avec le mari qui couvre sa femme, et elle [est] terrorisée, et euh… […] je lui parle et je lui dis “Pleure pas… pleure pas… comment tu t’appelles ?" »
Il y eut également des transmissions d’information importante pour la survie d’autrui, en dépit du risque de se faire repérer par un terroriste :
« Quand je me suis retourné, y’avait un des assaillants […] qui était en train d’achever des gens au sol. […] Quand il a levé son arme pour recharger, j’ai demandé… et j’ai dit aux gens "Cassez-vous ! Cassez-vous, il recharge”. Et ma compagne me tenait la main elle était en pleurs, je lui ai dit “Tu te casses !" »
Des personnes témoignent de la collaboration physique :
« Ils tenaient la porte, ils ont arraché le néon, ils se sont occupés de la blessée, lui ont donné de l’eau. »
Notre analyse de la distribution des actions sociales en fonction de la position des participant·e·s suggère que les actions prosociales apparaissent plus fréquemment lorsque les individus ne peuvent pas fuir et bénéficient d’une protection minimale. Les contraintes physiques – murs, recoins, impossibilité de fuite – façonnent un espace d’action où les individus, privés d’alternatives, se tournent les uns vers les autres. La prosocialité devient alors une stratégie de survie collective, lorsque d’autres options ne sont pas ou plus aussi disponibles.
Face au danger, nous ressentons un fort besoin d’affiliation et de contact physique, davantage à l’égard des personnes qui nous sont familières, mais aussi sans doute avec le tout-venant. De fait aussi, des facteurs matériels nous empêchent parfois de nous échapper, nous obligeant à faire avec les autres. Cela tombe bien, la présence d’autres personnes est aussi souvent très rassurante.
La prosocialité face au danger peut donc être envisagée comme une stratégie de défense collective fondée sur un principe plus élémentaire : l’interdépendance. Lorsque nos chances de survie sont liées à celles des autres, agir pour soi revient à agir pour autrui – et inversement.
Guillaume Dezecache a reçu des financements du programme CNRS Attentats-Recherche.
10.11.2025 à 14:33
Pourquoi les girafes ont-elles de si longues pattes ? Une nouvelle étude révèle une explication surprenante
Texte intégral (1715 mots)
La longueur du cou des girafes est un défi colossal pour leur cœur, obligé de pomper le sang jusqu’à plus de deux mètres de haut. Une nouvelle étude montre que ces mammifères ont trouvé une solution inattendue à ce casse-tête de la gravité : leurs longues pattes.
Si vous vous êtes déjà demandé pourquoi les girafes ont un cou si long, la réponse semble évidente : cela leur permet d’atteindre les feuilles succulentes au sommet des grands acacias des savanes d’Afrique.
Seules les girafes peuvent atteindre directement ces feuilles, tandis que les mammifères plus petits doivent se partager la nourriture au niveau du sol. Cette source de nourriture exclusive permettrait aux girafes de se reproduire toute l’année et de mieux survivre aux périodes de sécheresse que les espèces plus petites.
Mais ce long cou a un prix. Le cœur de la girafe doit générer une pression suffisamment forte pour propulser le sang à plusieurs mètres de hauteur jusqu’à sa tête. Résultat : la pression artérielle d’une girafe adulte dépasse généralement 200 millimètres de mercure (mm Hg), soit plus du double de celle de la plupart des mammifères.
Ainsi, le cœur d’une girafe au repos consomme plus d’énergie que l’ensemble du corps d’un être humain au repos –,et même davantage que celui de tout autre mammifère de taille comparable. Pourtant, comme nous le montrons dans une nouvelle étude publiée dans le Journal of Experimental Biology, le cœur de la girafe bénéficie d’un allié insoupçonné dans sa lutte contre la gravité : ses très longues pattes.
Découvrez l’« élaffe »
Dans notre étude, nous avons estimé le coût énergétique du pompage sanguin chez une girafe adulte typique, puis nous l’avons comparé à celui d’un animal imaginaire doté de pattes courtes, mais d’un cou plus long, capable d’atteindre la même hauteur que la cime des arbres.
Cette créature hybride, sorte de Frankenstein zoologique, combine le corps d’un éland (Taurotragus oryx) et le cou d’une girafe. Nous l’avons baptisée « élaffe ».
Nos calculs montrent que cet animal dépenserait environ 21 % de son énergie totale pour faire battre son cœur, contre 16 % pour la girafe et 6,7 % pour l’être humain.
En rapprochant son cœur de sa tête grâce à ses longues pattes, la girafe économise environ 5 % de l’énergie tirée de sa nourriture. Sur une année, cela représenterait plus de 1,5 tonne de végétaux – une différence qui peut littéralement décider de la survie dans la savane africaine.
Comment fonctionnent les girafes
Dans son ouvrage How Giraffes Work, le zoologiste Graham Mitchell explique que les ancêtres des girafes ont développé de longues pattes avant d’allonger leur cou – un choix logique sur le plan énergétique. Des pattes longues allègent le travail du cœur, tandis qu’un long cou l’alourdit.
Mais ces pattes ont un coût : les girafes doivent les écarter largement pour boire, ce qui les rend maladroites et vulnérables face aux prédateurs.
Les données montrent d’ailleurs que la girafe est le mammifère le plus susceptible de quitter un point d’eau… sans avoir pu boire.
Jusqu’où un cou peut-il s’allonger ?
Plus le cou est long, plus le cœur doit fournir d’efforts. Il existe donc une limite physique.
Prenons le giraffatitan, un dinosaure sauropode de 13 mètres de haut dont le cou atteignait 8,5 mètres. Pour irriguer son cerveau, il aurait fallu une pression artérielle d’environ 770 mm Hg – près de huit fois celle d’un mammifère moyen. Une telle pression aurait exigé une dépense énergétique supérieure à celle du reste de son corps, ce qui est hautement improbable.
En réalité, ces géants ne pouvaient sans doute pas lever la tête aussi haut sans s’évanouir. Il est donc peu probable qu’un animal terrestre n’ait jamais dépassé la taille d’un mâle girafe adulte.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
07.11.2025 à 17:40
Combien de temps une tique peut-elle vivre sans piquer un humain ?
Texte intégral (1312 mots)
La tique est un acarien parasite bien connu pour se nourrir de sang (on dit qu’elle est hématophage) et pour transmettre des maladies, telles que la maladie de Lyme. Contrairement à une idée reçue, les tiques ne dépendent pas de l’être humain : elles piquent principalement des animaux sauvages et domestiques. La question devient alors : combien de temps peuvent-elles survivre sans se nourrir ?
Les scientifiques ont identifié environ 900 espèces de tiques, dont une quarantaine est présente en France. La durée d’existence d’une tique et les particularités de son cycle de vie varient beaucoup d’une espèce à l’autre.
La piqûre de la tique
Contrairement aux moustiques ou aux punaises qui mènent une vie libre et ne cherchent un hôte que lorsqu’ils ont besoin de sang, les tiques s’accrochent fermement à leur hôte pendant de longues périodes, parfois de plusieurs mois, durant lesquelles elles se nourrissent lentement et de façon continue.
L’attachement d’une tique à la peau d’un animal ou d’un humain est très ferme grâce à ses pièces buccales munies de crochets et à la sécrétion d’une substance qui la colle à la peau. De cette façon, la bouche de la tique reste en contact permanent avec une petite accumulation interne de sang produit par l’action de sa salive qui détruit des tissus et des vaisseaux capillaires de l’intérieur de la peau, ce qui lui assure un apport de nourriture permanent.
Un besoin de sang à chaque étape de sa vie
Une tique passe par quatre stades de développement :
- œuf,
- larve (6 pattes),
- nymphe (8 pattes),
- adulte.
Chaque étape, de la larve à l’adulte, nécessite du sang pour se développer et pour passer au stade suivant de même que pour survivre et se reproduire. Il s’agit d’organismes dits « hématophages obligés », car le sang des animaux constitue leur unique source de nutriments tout au long de leur vie.
Une fois qu’elle est prête à passer au stade suivant, ou lorsque la femelle a accumulé suffisamment d’œufs, la tique se détache pour muer ou pondre dans le sol. Ce cycle peut nécessiter, selon les espèces, un, deux ou trois hôtes différents que la tique parasitera au cours de sa vie.
La quantité d’œufs qu’une tique femelle peut produire avant de se détacher de l’hôte est énorme, grâce à son corps souple qui augmente de taille à mesure que les œufs s’accumulent par milliers à l’intérieur. Une petite tique à peine repérable devient ainsi une boule d’œufs et de sang de plus d’un ou deux centimètres lorsqu’elle est prête à pondre.
Certaines espèces montent à l’état de larve sur un hôte et ne le quittent qu’une fois adultes, au bout de quelques mois, au moment de la ponte des œufs et le cycle se répète de manière continue.
D’autres espèces passent leur première année de vie en tant que larve sur un rongeur, leur seconde année en tant que nymphe sur un herbivore de taille moyenne, comme un lapin, puis leur troisième année en tant qu’adulte sur une vache, pendant laquelle la femelle produit une quantité colossale d’œufs qu’elle laisse par terre avant de mourir.
Une question de santé humaine et animale
En France, la maladie de Lyme est principalement transmise par la tique dure Ixodes ricinus, qui est largement répandue sur le territoire hexagonal, à l’exception du pourtour méditerranéen et des régions en altitude. La même espèce peut transmettre d’autres maladies, comme l’encéphalite à tiques.
D’autres espèces de tiques aussi présentes en France transmettent également des maladies qui affectent l’homme, comme la fièvre boutonneuse méditerranéenne et le Tibola, qui sont causées par des bactéries du genre Rickettsia et transmises par des tiques comme Rhipicephalus sanguineus ou Dermacentor.
Les tiques impactent également la santé animale, car elles transmettent des micro-organismes pathogènes au bétail, comme les responsables de la piroplasmose et de l’anaplasmose bovine, provoquant des pertes économiques importantes dans les élevages et dans la production laitière.
La survie sans piquer
Les tiques ont la capacité remarquable de survivre longtemps sans se nourrir. Pour supporter le manque de nourriture, elles mettent en place diverses stratégies, comme ralentir leur métabolisme et ainsi leurs dépenses énergétiques, ou consommer leurs propres tissus, un processus appelé « autophagie ».
Selon plusieurs études scientifiques, à l’état de nymphe ou d’adulte, les tiques peuvent survivre plus d’un an sans se nourrir dans la litière (l’ensemble de feuilles mortes et débris végétaux en décomposition qui recouvrent le sol), si les conditions environnementales sont favorables, notamment une température basse et une humidité élevée. Comme tout organisme de taille relativement petite, les tiques sont particulièrement exposées à la perte d’eau corporelle par dessiccation. Elles possèdent néanmoins des mécanismes pour absorber de l’eau de l’air si l’humidité relative de l’environnement le permet, comme au moment de la rosée.
Le jeûne hors hôte se caractérise par un métabolisme lent avec de longs intervalles d’inactivité, ponctués par des déplacements courts afin d’augmenter l’absorption d’eau ou de rechercher une position permettant de détecter un hôte. Si la température et l’humidité relative restent adéquates, la survie dépend alors du maintien d’un équilibre délicat entre une utilisation judicieuse de l’énergie et le maintien de la teneur en eau du corps, car l’équilibre hydrique est probablement le facteur le plus critique.
Pour maximiser les possibilités de trouver un hôte, les tiques ont un comportement assez particulier, consistant à grimper sur une brindille à côté des corridors de passage d’animaux et restent longtemps accrochées avec les pattes étendues. Ce comportement, appelé « de quête », leur permet de détecter le passage d’un hôte et de monter sur lui.
Il est important de rappeler que les tiques ne préfèrent pas les humains comme hôtes. Elles s’attaquent naturellement aux mammifères sauvages (cerfs, rongeurs), aux oiseaux et aux animaux domestiques. Elles ne dépendent donc pas de l’homme pour survivre ou évoluer. Une tique peut très bien vivre toute sa vie sans jamais piquer un être humain, pourvu qu’elle trouve un autre hôte.
Claudio Lazzari ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.11.2025 à 16:45
Non, toutes les abeilles ne meurent pas après avoir piqué (loin de là !)
Texte intégral (1377 mots)
Selon une croyance populaire, les abeilles mourraient après avoir piqué, contrairement aux guêpes. Cette affirmation mérite d’être questionnée scientifiquement, et la réponse est surprenante !
L’autotomie de l’aiguillon désigne la séparation physique d’un aiguillon et des glandes venimeuses qui lui sont associées, du reste de l’abdomen d’un insecte piqueur. Elle entraîne généralement la mort de l’insecte piqueur. L’autotomie intervient à la suite de la piqûre d’un organisme cible duquel l’insecte piqueur ne parvient pas à dégager son aiguillon.
Première constatation, l’autotomie de l’aiguillon est un phénomène rarissime chez les abeilles : sur près de 20 000 espèces d’abeilles répertoriées à travers le monde, elle ne s’observe que chez les abeilles du genre Apis, qui compte moins de dix espèces, dont l’abeille à miel domestique (Apis mellifera).
Plus surprenant, d’autres hyménoptères sociaux, dont des guêpes (tribus des Epiponini, Polistini et Ropalidiini) et des fourmis (genre Pogonomyrmex), pratiquent également l’autotomie de l’aiguillon. En 1992, Lorraine Mulfinger et ses collaborateurs observèrent que, si près de 80 % des ouvrières de l’abeille domestique Apis mellifera subissaient une autotomie après piqûre, ce phénomène touchait également 7 % à 8 % des ouvrières de deux espèces de guêpes nord-américaines, la guêpe jaune Dolichovespula arenaria et Vespula maculifrons ainsi que 6 % des ouvrières d’autres guêpes du genre Polistes.
Des abeilles peuvent piquer sans arracher leur aiguillon
Il ne s’agit donc ni d’un phénomène qui affecterait toutes les abeilles ni d’une spécificité propre aux abeilles, dont les guêpes seraient exclues. Même chez les espèces pratiquant parfois l’autotomie, telle qu’A. mellifera, celle-ci n’est pas systématique, puisque 20 % des ouvrières parviennent à dégager leur aiguillon après piqûre.
Lorsque la cible est un invertébré, le retrait de l’aiguillon se fait sans difficulté particulière, ce qui permet à ces abeilles de se défendre quotidiennement contre de nombreux insectes et arachnides. C’est heureux, car les reines A. mellifera doivent, par exemple, utiliser leur aiguillon dès l’émergence, qui marque leur passage au stade adulte, pour éliminer leurs sœurs rivales. Si elles devaient toutes mourir après ces duels sororicides, l’espèce ne pourrait sans doute pas maintenir son organisation sociale !
L’autotomie ne s’observe en fait qu’en cas de piqûre d’un vertébré cible, dont les tissus mous tégumentaires (peau, muqueuses) peuvent entraver le retrait de l’aiguillon. Chez les ouvrières de l’abeille domestique, le stylet et les deux lancettes qui composent l’aiguillon sont pourvus de minuscules barbillons (petites pointes dirigées vers l’abdomen, donc à l’opposé du sens de pénétration telles des pointes de harpon). Ces adaptations anatomiques facilitent la pénétration de l’aiguillon mais rendent encore plus difficile son extraction, surtout si la peau de l’animal ciblé est molle.
Une défense pour le collectif
Alors que l’autotomie de l’aiguillon condamne l’insecte piqueur, elle permettrait paradoxalement une meilleure défense contre des prédateurs volumineux (lézards, guêpiers d’Europe, ours, humains…) attirés par les ressources alléchantes que représentent des nids d’insectes sociaux. Même séparés du reste du corps de l’insecte piqueur, l’aiguillon et ses glandes assurent la diffusion du venin pendant près d’une minute. Tenter de retirer sans précaution cette douloureuse perfusion peut conduire à vider le réservoir de l’appareil venimeux et à s’injecter soi-même une dose de venin équivalente à plusieurs piqûres simultanées ! Pire, l’odeur du venin ainsi injecté peut agir comme une phéromone d’alarme et recruter de nouveaux insectes piqueurs… C’est le cas pour l’abeille domestique qui est mise en alerte par l’un de ses composés venimeux volatile, l’isopentyl acetate. Le recrutement rapide et en cascade de dizaines de congénères par le biais des aiguillons abandonnés sur la cible permet des attaques massives qui peuvent être fortement incapacitantes, voire mortelles, y compris pour un humain.
Contrairement à une autre idée reçue, la mort de l’abeille ou de la guêpe autotomisée n’est pas toujours immédiate : en 1951, Mykola Haydak a montré qu’environ 50 % des ouvrières d’A. mellifera autotomisées mouraient dans les 18 h après la piqûre et que certaines pouvaient survivre plus de 4 jours. Même privées de leur aiguillon et d’une partie de leur abdomen, des ouvrières A. mellifera restent parfois capables de mordre, de poursuivre ou de harceler un ennemi !
Chez les espèces qui la pratiquent, l’autotomie de l’aiguillon résulte d’une convergence évolutive, apparue plusieurs fois et de manière indépendante au cours de l’évolution. Elle semble donc leur avoir conféré un avantage sélectif vis-à-vis des vertébrés et s’être maintenue grâce à un coût minime (la mort de quelques individus issus d’une colonie populeuse) au regard des avantages procurés (l’éloignement d’un prédateur). L’autotomie de l’aiguillon serait un exemple, parmi d’autres, des comportements de défense autodestructeurs rencontrés chez les insectes sociaux et décrits par Shorter et Rueppell en 2012.
Une lutte microbiologique
Mais ce phénomène les aide aussi à lutter contre des organismes beaucoup plus dangereux : les microbes ! Si l’on considère que les venins de ces espèces contiennent des composés antimicrobiens et qu’ils induisent soit la mort soit une réaction inflammatoire chez les organismes cibles, alors on réalise que la piqûre d’une abeille, d’une guêpe ou d’une fourmi serait moins un acte défensif qu’une opération de désinfection radicale, visant à prémunir la pénétration d’un intrus dans la colonie et donc d’une contamination accidentelle.
Les piqûres d’abeilles ou de guêpes sont en effet connues pour être remarquablement saines d’un point de vue microbiologique : des aiguillons isolés persistent parfois des décennies dans le corps des personnes piquées (jusqu’à 28 ans pour un aiguillon de guêpe retrouvé par hasard dans l’œil d’un patient !).
Dans cette perspective plus originale, la mort des ouvrières piqueuses constituerait l’une des composantes d’un processus indispensable à la survie des colonies : le maintien de l’immunité sociale. Ces éléments expliqueraient en partie pourquoi l’autotomie de l’aiguillon n’est pas apparue ou n’a pas été conservée chez plus de 99,9 % des espèces d’abeilles. Elles sont majoritairement solitaires et donc moins soumises à la pression des vertébrés prédateurs et/ou moins exposées aux risques de transmission de maladies. De plus le coût de l’autotomie serait pour elles trop élevé par rapport aux avantages procurés, car la disparition d’une femelle solitaire entraînerait directement une perte de chances reproductives.
Sébastien Moreau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.11.2025 à 15:24
Les gènes de fusion, de nouveaux leviers thérapeutiques contre le cancer
Texte intégral (1800 mots)
Le déclenchement de certains cancers est lié à la fusion de deux gènes donnant naissance à une protéine anormale. En ciblant spécifiquement ces gènes, il pourrait être possible de traiter spécifiquement des cancers sans avoir les effets secondaires d’une chimiothérapie « classique ».
Le cancer est une maladie complexe qui résulte d’un déséquilibre important dans le fonctionnement normal des cellules. Chaque cellule de notre organisme agit selon un « programme » inscrit dans son ADN, véritable manuel d’instructions qui contrôle la croissance, la réparation et la mort cellulaire. L’ADN est constitué de gènes comparables à des mots qui composent ce manuel. Les gènes orchestrent la production des protéines nécessaires au bon fonctionnement de la cellule.
Parfois, ce programme se dérègle. Des erreurs, appelées mutations, apparaissent dans l’ADN et modifient les lettres composant les mots du manuel d’instructions. Des instructions erronées peuvent entraîner un comportement anormal des cellules. Certaines vont se multiplier de manière incontrôlée, échapper aux signaux de mort cellulaire et même envahir les tissus voisins. C’est cette perte de contrôle, couplée à la capacité des cellules anormales à s’adapter et à contourner les défenses naturelles de l’organisme, qui peut aboutir au développement d’un cancer.
L’ADN, un code sensible aux fautes de frappe
Pour mieux comprendre comment apparaissent ces mutations à l’origine du cancer, il est utile de revenir sur la nature de l’ADN. L’ADN est constitué de quatre « lettres » (ou bases chimiques : A, T, C, G) qui s’enchaînent pour former des mots (les gènes), puis des chapitres (les chromosomes) et enfin un livre (le génome qui définit un individu). Dans la majorité des cas, l’ADN est fidèlement recopié lorsque la cellule se divise, mais il peut arriver que des erreurs surviennent : des lettres manquent, d’autres sont remplacées, ou encore des chapitres entiers sont mal rangés.
Ces accidents peuvent être dus au hasard, mais peuvent aussi être favorisés par des facteurs extérieurs comme le tabac, l’alcool, l’exposition au soleil ou certains produits chimiques. La cellule possède des capacités de réparation pour corriger les fautes de frappe, mais les mécanismes impliqués alors ne sont pas toujours efficaces. Avec le temps, les erreurs s’accumulent et peuvent favoriser le développement d’un cancer. Certaines anomalies de l’ADN entraînent l’apparition de gènes de fusion.
Qu’est-ce qu’un gène de fusion ?
Un gène de fusion résulte d’un accident dans l’organisation du génome. Imaginez deux mots du manuel d’instructions qui, au lieu d’être séparés, se retrouvent collés l’un à l’autre pour former un nouveau mot, hybride. Par exemple, prenons une phrase dans laquelle les mots « tuba » et « morale » sont coupés et accolés pour donner le mot « tumorale ». Ce mot « tumorale », qui n’existe pas normalement dans la bibliothèque génétique de la cellule, peut donner des instructions inédites et parfois nocives à cette dernière.
Le mot « tumorale » correspond à ce que l’on appelle un gène de fusion. Lorsqu’une cassure de l’ADN se produit, deux morceaux appartenant à des gènes différents peuvent se mettre bout à bout et fusionner. Le résultat est un gène hybride ou chimérique, qui code parfois pour une protéine anormale dite oncogénique, c’est-à-dire pouvant initier le développement d’une tumeur ou accélérer le processus tumoral. Cette protéine chimérique peut agir comme un véritable moteur du cancer, en favorisant la multiplication, la migration et la survie des cellules tumorales.
Quels cancers présentent ces gènes de fusion ?
Les gènes de fusion sont fréquents dans les cancers du sang, tels que les leucémies et les lymphomes, ou dans des tumeurs agressives appelées sarcomes. Ils sont aussi détectés dans certaines tumeurs du cerveau. Ils sont plus rares dans les autres types de cancer mais lorsqu’ils sont présents, ils jouent souvent un rôle majeur dans l’initiation et l’évolution de la maladie.
Ce qui distingue les gènes de fusion des autres anomalies du génome est leur singularité. Contrairement à d’autres mutations que l’on peut retrouver dans plusieurs types de cancer, un gène de fusion n’est habituellement observé que dans une maladie donnée. Certains cancers sont en effet caractérisés par la présence d’une fusion précise entre deux gènes. La détection de cette fusion peut donc aider au diagnostic du cancer.
Les gènes de fusion comme cibles thérapeutiques
Les gènes de fusion représentent des cibles thérapeutiques idéales. Comme ils sont propres au cancer (ces anomalies n’existent pas dans les cellules saines), les thérapies qui les ciblent ont plus de chances de ne tuer que les cellules tumorales et d’épargner les tissus sains (contrairement aux chimiothérapies conventionnelles qui agissent sur toutes les cellules de l’organisme). De plus, comme ces gènes ont un rôle clé dans le développement du cancer, bloquer leur action pourrait freiner considérablement, voire guérir, la maladie. Une piste innovante est actuellement explorée par notre laboratoire pour neutraliser les gènes de fusion dans le cancer : l’interférence ARN. L’interférence ARN est une approche qui consiste à empêcher spécifiquement la production d’une protéine chimérique.
Pour fabriquer une protéine, l’information génétique (le gène) contenue dans l’ADN est transformée en ARN messager. L’ARN est en conséquence l’expression dans une autre langue du message contenu dans l’ADN et sera lui-même converti dans une version finale qu’est la protéine. Cette séquence de conversion ADN vers ARN messager vers protéine peut être bloquée en interférant précisément avec l’ARN messager à l’aide de l’interférence ARN. Cette approche repose sur l’utilisation de petits fragments synthétiques d’ARN, les ARN interférents, choisis pour leur capacité à se fixer sur l’ARN messager issu du gène de fusion et de le détruire avant qu’il ne soit traduit en protéine. Cette méthode, associée à des outils de vectorisation adéquats (transport des ARN interférents jusqu’à la tumeur) est une piste prometteuse pour cibler spécifiquement les gènes de fusion et leurs ARN messagers sans affecter les gènes normaux.
Un pas de géant vers une médecine de précision
Les études sur les gènes de fusion s’inscrivent dans un objectif de médecine de précision. Identifier les spécificités génétiques des tumeurs devrait permettre de proposer à chaque patient les traitements les plus adaptés à son cancer. Détecter un gène de fusion dans une tumeur pourrait permettre de créer de petits ARN interférents pour bloquer la production de la protéine chimérique et contrôler la maladie. De telles stratégies basées sur l’ARN interférence sont actuellement testées dans des modèles animaux et montrent des résultats encourageants dans le cancer de la prostate et le glioblastome (tumeur du cerveau).
Cette approche pourrait transformer la prise en charge des cancers porteurs de gènes de fusion. Au lieu d’administrer des chimiothérapies standards à tous les patients, l’objectif est de développer des traitements sur mesure, basés sur l’empreinte génétique unique de chaque tumeur. Les avancées en matière de séquençage (lecture) du génome offrent des perspectives inédites en médecine de précision. Décoder le manuel d’instructions des cancers aboutira certainement à des thérapies innovantes et plus efficaces.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
04.11.2025 à 17:22
Une nouvelle étude en Ouganda montre que des chimpanzés appliquent des insectes sur leurs blessures
Texte intégral (1426 mots)
Observé par hasard, l’usage d’insectes par les chimpanzés pour soigner leurs blessures révèle leur capacité à faire face de manière inventive à la douleur, et à s’entraider.
Les animaux réagissent aux blessures de multiples façons. Jusqu’ici, les preuves d’un usage de substances biologiquement actives pour soigner leurs plaies restaient très rares. Pourtant, une étude récente a rapporté le cas d’un orang-outan appliquant une plante médicinale sur une blessure, ouvrant une piste prometteuse.
Chez les chimpanzés, on sait qu’ils lèchent leurs plaies et qu’ils y pressent parfois des feuilles, mais ces comportements demeurent encore mal compris. On ignore à quelle fréquence ils surviennent, s’ils relèvent d’un geste intentionnel, et jusqu’où les chimpanzés peuvent faire preuve d’inventivité pour se soigner.
De récentes observations de terrain menées en Ouganda, en Afrique de l’Est, apportent aujourd’hui des éclairages fascinants sur la manière dont les chimpanzés font face à leurs blessures.
En tant que primatologue, je m’intéresse de près à la vie cognitive et sociale de ces animaux, et à ce que leurs comportements liés à la maladie peuvent révéler sur les origines évolutives du soin et de l’empathie chez l’être humain. Les chimpanzés comptent parmi nos plus proches parents vivants, et mieux les comprendre, c’est aussi en apprendre davantage sur nous-mêmes.
Dans nos recherches menées dans le parc national de Kibale, en Ouganda, nous avons observé à cinq reprises des chimpanzés appliquant des insectes sur leurs propres plaies ouvertes, et une fois sur la blessure d’un congénère.
De tels comportements montrent que les chimpanzés ne restent pas passifs face à une blessure. Ils explorent leur environnement, parfois seuls, parfois en interaction avec d’autres. S’il est encore prématuré de parler de « médecine », ces observations révèlent leur capacité à réagir de manière inventive – et parfois coopérative – aux blessures.
Chaque nouvelle découverte enrichit notre compréhension des chimpanzés et nous offre un aperçu des racines évolutives partagées avec nos propres réponses face à la douleur et à l’instinct de soin.
Attraper d’abord l’insecte
Nous avons observé ces applications d’insectes par hasard, alors que nous suivions et filmions le comportement des chimpanzés en forêt, en portant une attention particulière à ceux qui présentaient des plaies ouvertes. Dans tous les cas recensés, la séquence d’actions semblait délibérée. Le chimpanzé attrapait un insecte volant non identifié, l’immobilisait entre ses lèvres ou ses doigts, puis le pressait directement sur sa blessure. Le même insecte pouvait être réappliqué plusieurs fois, parfois après avoir été brièvement tenu dans la bouche, avant d’être finalement rejeté. D’autres chimpanzés observaient parfois la scène avec attention, comme mus par la curiosité.
Le plus souvent, ce comportement était dirigé vers la propre plaie du chimpanzé. Toutefois, dans un cas rare, une jeune femelle a appliqué un insecte sur la blessure de son frère. Une étude menée sur la même communauté avait déjà montré que les chimpanzés pouvaient tamponner les plaies d’individus non apparentés à l’aide de feuilles, ce qui soulève la question de savoir si l’application d’insectes pourrait, elle aussi, s’étendre au-delà du cercle familial. Qu’ils visent un proche ou un individu extérieur, ces gestes de soin révèlent les bases précoces de l’empathie et de la coopération.
La séquence observée ressemble fortement aux applications d’insectes déjà documentées chez les chimpanzés du Gabon. Cette similitude laisse penser que ce comportement pourrait être bien plus répandu chez les chimpanzés qu’on ne l’avait supposé jusqu’ici.
La découverte réalisée dans le parc national de Kibale élargit notre compréhension des réactions des chimpanzés face aux blessures. Plutôt que de les laisser sans soin, ils adoptent parfois des comportements qui semblent délibérés et ciblés.
Premiers secours version chimpanzé ?
La question évidente est de savoir à quoi sert ce comportement. Nous savons déjà que les chimpanzés utilisent volontairement certaines plantes d’une manière bénéfique pour leur santé : en avalant par exemple des feuilles rugueuses qui aident à expulser les parasites intestinaux, ou en mâchant des tiges amères susceptibles d’avoir des effets antiparasitaires.
Les insectes, en revanche, posent une autre question. Rien ne prouve encore que leur application sur des plaies accélère la cicatrisation ou réduise le risque d’infection. De nombreux insectes produisent des substances antimicrobiennes ou anti-inflammatoires, ce qui rend l’hypothèse plausible, mais des tests scientifiques restent nécessaires.
Pour l’instant, on peut affirmer que ce comportement semble ciblé, structuré et volontaire. Le cas unique d’un insecte appliqué sur un autre individu est particulièrement intrigant. Les chimpanzés sont des animaux très sociaux, mais l’entraide active demeure relativement rare. À côté de comportements bien connus comme le toilettage, le partage de nourriture ou le soutien lors des conflits, l’application d’un insecte sur la blessure d’un frère suggère une autre forme de soin, qui dépasserait le simple maintien des liens sociaux pour peut-être améliorer concrètement l’état physique d’autrui.
Des questions en suspens
Ce comportement soulève de vastes interrogations. Si l’application d’insectes s’avère réellement médicinale, cela pourrait expliquer pourquoi les chimpanzés l’adoptent. Mais cela amène aussitôt une autre question : comment ce geste apparaît-il au départ ? Les chimpanzés l’apprennent-ils en observant leurs congénères, ou bien surgit-il de manière plus spontanée ?
Vient ensuite la question de la sélectivité : choisissent-ils certains insectes volants en particulier, et, si oui, les autres membres du groupe apprennent-ils à sélectionner les mêmes ?
Dans la médecine traditionnelle humaine, des insectes volants comme les abeilles ou les mouches vertes sont appréciés pour leurs effets antimicrobiens ou anti-inflammatoires. Reste à déterminer si les insectes utilisés par les chimpanzés procurent des bénéfices similaires.
Enfin, si les chimpanzés appliquent réellement des insectes dotés de propriétés médicinales, et qu’ils les placent parfois sur les blessures d’autrui, cela pourrait constituer une forme d’entraide active, voire de « comportement prosocial » – un terme qui désigne les actions profitant à autrui plutôt qu’à celui qui les accomplit.
Voir les chimpanzés du parc national de Kibale immobiliser un insecte volant pour le presser délicatement sur une plaie ouverte rappelle combien leurs capacités restent encore largement à découvrir. Cela s’ajoute aussi aux preuves croissantes que les racines des comportements de soin et de guérison plongent bien plus loin dans le temps de l’évolution. Si l’application d’insectes s’avère réellement médicinale, cela renforce l’importance de protéger les chimpanzés et leurs habitats, habitats qui préservent en retour les insectes qui peuvent contribuer à leur bien-être.
Kayla Kolff a reçu un financement de la Fondation allemande pour la recherche (DFG), projet n° 274877981 (GRK-2185/1 : Groupe de recherche en formation DFG « Situated Cognition »).
30.10.2025 à 15:49
L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ?
Texte intégral (2212 mots)
Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?
Le cerveau humain est un organe fascinant, complexe et remanié en permanence. Au cours du développement de l’embryon, il se développe selon un programme génétique précis. Les cellules souches se divisent, migrent et se différencient en différents types de neurones pour former les réseaux neuronaux qui sous-tendront toutes nos fonctions cognitives, émotionnelles, comportementales et motrices.
Les mécanismes épigénétiques, c’est-à-dire les mécanismes par lesquels une cellule contrôle le niveau d’activité de ses gènes, jouent ici un rôle majeur : méthylation de l’ADN, modification des histones (protéines) et ARN non codants vont soit activer soit réprimer, à la fois dans l’espace et au cours du temps, les gènes nécessaires à la formation et à la migration des neurones, puis à la formation des synapses.
Tandis que le cerveau se construit, chaque neurone reçoit ainsi un ensemble de marques épigénétiques qui déterminent son identité, son activité et sa connectivité aux autres neurones. Ce profil épigénétique, spécifique à chaque type de neurone, se met en place en fonction de signaux environnementaux : contexte hormonal, présence de facteurs morphogéniques (les protéines qui contrôlent la place et la forme des organes), activité électrique naissante. La moindre perturbation peut altérer, cette programmation fine, très sensible non seulement à l’environnement intra-utérin, mais aussi à l’alimentation, voire aux émotions de la future maman.
Des substances comme l’alcool, les drogues, certains médicaments, tout comme les carences alimentaires, peuvent avoir des conséquences durables sur le développement cognitif et émotionnel de l’enfant à naître. Pourquoi ? Parce que les neurones, contrairement à toutes les autres cellules de l’organisme, ne se renouvellent pas. Nous « fonctionnerons » toute notre vie avec les neurones fabriqués in utero.
Le cerveau adulte conserve en réalité une certaine capacité à produire de nouveaux neurones, mais celle-ci est en fait très limitée : jusqu’à 700 neurones par jour. Une goutte d’eau à côté des quelque 86 milliards de neurones qui forment notre cerveau ! Pourtant, cette goutte d’eau joue un rôle crucial. Ces nouveaux neurones vont s’intégrer dans des circuits déjà existants, notamment de l’hippocampe, une structure impliquée dans l’apprentissage et la mémoire. Ce processus participe à la plasticité cérébrale, à la capacité du cerveau à s’adapter aux expériences et à l’environnement.
Pour peu qu’on le fasse travailler, le cerveau continue donc de se construire et surtout de se modifier après la naissance, et ce, durant toute la vie de l’individu… Les mécanismes épigénétiques jouent un rôle important dans ces processus.
L’intelligence, un construit théorique multidimensionnel
Quand on évoque le fonctionnement du cerveau, la première chose qui nous vient à l’esprit est l’intelligence. Dans l’acception populaire, un cerveau performant est un cerveau intelligent. Mais qu’entend-on par là ?
Malgré plus d’un siècle de recherches, l’intelligence reste un concept difficile à définir de manière consensuelle. En 1986, les psychologues américains Sternberg et Detterman demandent à une vingtaine d’experts en psychologie et en sciences cognitives de proposer leur propre définition de l’intelligence. Résultat : aucune définition ne fait consensus, bien que des points de convergence se dessinent autour de l’idée d’adaptation, de résolution de problèmes et d’apprentissage. La tradition psychométrique (l’ensemble des tests et mesures pratiqués en psychologie), dominante au XXe siècle, a réduit l’intelligence à un facteur unique (g) mesuré par différents tests, dont celui de quotient intellectuel (QI).
Bien que ces tests aient une valeur prédictive pour certaines performances scolaires ou professionnelles, ils négligent des dimensions que sont la créativité, les compétences sociales ou émotionnelles. Face à ces limites, des modèles alternatifs ont été proposés.
Ainsi, Gardner a introduit la notion d’intelligences multiples, suggérant l’existence de formes distinctes d’intelligence (logico-mathématique, musicale, interpersonnelle), ou encore Sternberg, qui a développé une théorie triarchique, distinguant intelligences analytiques, créatives et pratiques. Enfin, Goleman a popularisé l’idée d’intelligence émotionnelle, aujourd’hui largement reconnue pour son rôle dans la réussite sociale et professionnelle.
En somme, l’intelligence est un construit théorique multidimensionnel, dont les définitions varient selon les cultures, les disciplines et les objectifs de mesure, mais elles partagent toutes l’idée d’une acquisition ou amélioration de capacités cognitives, spécifiques à chaque type d’intelligence. Les neurosciences cognitives ont aidé à mieux localiser certaines fonctions associées à l’intelligence, mais elles n’ont identifié aucun « centre de l’intelligence » unique dans le cerveau. Les capacités cognitives reposent sur des réseaux distribués, complexes et encore imparfaitement compris.
D’un point de vue scientifique, il semble utile de poser certaines questions : l’intelligence a-t-elle des bases génétiques ? Quelle est la part de l’environnement, en particulier social, de l’épigénétique, dans ses manifestations chez l’enfant et chez l’adulte ? Selon leur discipline, les chercheurs sont enclins à défendre soit une théorie environnementale (pour les sociologues) soit une théorie génétique de l’intelligence, que parfois ils opposent.
Les travaux en la matière ne sont pas neutres, puisqu’ils influencent les politiques publiques en matière d’éducation, après être passés par la moulinette des idéaux politiques de leurs instigateurs.
Que nous apprend la littérature scientifique ?
En tant que phénotype, l’intelligence est définie par les généticiens (de façon assez restrictive) comme une capacité mentale très générale qui inclut le raisonnement, la planification, la résolution de problèmes, la pensée abstraite, l’apprentissage rapide et la capacité à tirer des leçons de l’expérience. Afin d’évaluer cette capacité, on utilise le concept statistique d’intelligence générale (ou facteur g). Le facteur g représente la capacité cognitive commune à toutes les tâches mentales. Cela signifie qu’une personne performante dans un domaine cognitif (mémoire ou raisonnement) tend à l’être aussi dans d’autres. Le facteur g résume, ou mesure, cette covariation des performances.
Les études sur les jumeaux et sur les familles montrent que l’intelligence présente un taux d’héritabilité d’environ 50 %. Ce taux ne dit pas que l’intelligence est héritée à 50 %, mais que 50 % de ce qui fait varier l’intelligence est dû au génotype. Il soutient l’idée selon laquelle l’intelligence est en partie due à des effets génétiques. Un autre résultat complète ce propos, puisque le taux d’héritabilité de l’éducation passe de 29 % à 17 % lorsque les effets génétiques indirects (pour résumer, l’environnement créé par les parents) sont retirés du calcul, ou que l’on compare le taux d’héritabilité de l’éducation entre enfants adoptés et non adoptés. Cela soutient l’idée que l’environnement contribue aussi à la structure phénotypique de l’intelligence. En réalité, ces calculs devraient réconcilier sociologues et généticiens puisqu’ils disent que l’intelligence est à la fois génétique et environnementale, ce dont les généticiens que nous sommes sont absolument convaincus !
L’intelligence étant en partie déterminée par la génétique, la quête des gènes impliqués a commencé. Trois études génomiques (GWAS) ont identifié respectivement 187, 148 et 205 loci (des emplacements de gènes sur les chromosomes) potentiellement impliqués dans ce phénotype. Il est donc clair qu’il n’existe pas un gène de l’intelligence. Il existe un grand nombre de variantes génétiques indépendantes, chacune d’entre elles représentant une infime proportion de la variation de l’intelligence. Sans surprise, les variants génétiques associés aux résultats des tests d’intelligence sont des gènes liés à la neurogenèse, la différenciation des neurones et des oligodendrocytes (qui fabriquent la myéline) et surtout, la synapse.
La recherche sur les déficiences intellectuelles (DI), et la mise en évidence de gènes associés, est d’une grande aide dans cette quête génétique de compréhension de l’intelligence.
Les généticiens ont répertorié au moins 1 700 formes de déficience intellectuelle qui impliquent un gène majeur. Ces DI peuvent être associées ou non à d’autres syndromes (comme l’autisme). Or, l’épigénétique joue un rôle central dans la régulation de nombreux gènes impliqués dans la DI. Dans le syndrome de l’X fragile, le gène FMR1, qui code une protéine régulant la traduction locale d’ARNm au niveau des synapses – fonction essentielle à la communication neuronale – est éteint par hyperméthylation de son promoteur (le segment d’ADN qui contrôle l’expression du gène). Aucune mutation dans la partie codante du gène n’est observée, mais la protéine n’est plus produite. Les syndromes de Rett ou d’Angelman sont des modèles majeurs de DI épigénétiquement déterminée.
Enfin, il a été récemment montré que des ARN non codants (ne conduisant pas à la production d’une protéine) sont aussi responsables de cas de DI. Il s’agit de petits ARN impliqués dans la machinerie moléculaire qui permet la maturation des ARNm, afin qu’ils puissent, eux, être traduits en protéine. L’existence et l’importance de ces variants non codants ouvrent de nouvelles perspectives pour tous les malades dont la DI n’est pas expliquée par des mutations génétiques, soit environ 50 % des cas.
Le cerveau reste « plastique » tout au long de la vie, et les mécanismes épigénétiques sont des contributeurs forts de cette plasticité. Ils modulent l’expression des gènes impliqués dans la structuration et dans la réorganisation des circuits neuronaux.
Ainsi, nos connexions synaptiques évoluent constamment en fonction de ce que nous vivons, ressentons ou apprenons, permettant au cerveau de s’ajuster continuellement à son environnement. Cependant cette précieuse capacité d’adaptation peut être altérée. Lorsque les mécanismes épigénétiques sont déréglés (par l’âge, par le stress chronique, par l’inflammation…), la plasticité cérébrale s’affaiblit voire disparaît. Cette dégradation est impliquée dans le développement de maladies neurodégénératives (Alzheimer ou Parkinson), de troubles du neurodéveloppement (spectre autistique) et de certains cancers cérébraux. Les recherches récentes soulignent à quel point épigénétique et santé mentale sont étroitement intriquées.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Corinne Augé a reçu des financements de l'INCa et La Ligue
Stéphane Mortaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.10.2025 à 11:10
Pourquoi l’écologie est d’abord une science
Texte intégral (2979 mots)
Souvent assimilée à un courant politique, l’écologie est avant tout une science à part entière, qui étudie les interactions du vivant avec son environnement. Pourtant, en France, ce terme est devenu symbole de militantisme au risque d’invisibiliser le travail précieux des écologues, alors même que leurs connaissances sont indispensables pour affronter la crise environnementale en cours.
Dans « l’Écologie est une science », publié par les éditions Belin, Sébastien Barrot, directeur de recherche à l’IRD, présente son domaine de recherche, encore trop méconnu du grand public. Nous reproduisons ci-dessous un extrait de son avant-propos.
À 10 ans, quand on me demandait quel métier je souhaitais faire plus tard, je répondais « Un -logue quelconque. » Je disais par là que je voulais devenir archéologue ou paléontologue. J’ai mal tourné, je suis devenu écologue, chercheur en écologie, et j’ai commencé à écrire ce livre parce que personne ne sait ce que ça veut dire. Si tout le monde a une idée, juste ou non, de ce qu’est un chercheur, quasiment personne ne sait en France, en dehors du cadre académique, que l’écologie est une science.
Même aujourd’hui, en pleine crise environnementale, je dois expliquer les études que j’ai faites (un master et une thèse en écologie), et on me le fait répéter au moins trois fois car ça ne paraît pas possible. Les gens pensent souvent que j’ai étudié la biologie. Cela paraît beaucoup plus sérieux, mais ce n’est pas le cas. D’autres personnes imaginent que la seule préoccupation d’un écologue est de protéger les petits oiseaux, ou que je développe de nouveaux moyens pour recycler les déchets.
Ce sont deux thématiques importantes, cependant l’écologie scientifique n’a pas uniquement pour but la protection de la nature, et seul le recyclage des déchets organiques entre, en fait, dans le champ des compétences de l’écologie puisqu’il fait intervenir des organismes décomposeurs, comme des bactéries ou des vers de terre.
À lire aussi : L’écologie expliquée aux enfants et aux ados
Un seul terme pour de nombreuses réalités
La méconnaissance de l’écologie scientifique vient de trois facteurs complémentaires.
Tout d’abord, l’écologie est une science relativement jeune. Le mot a été inventé par Ernst Haeckel en 1866, mais les sciences écologiques ne se sont vraiment développées dans le monde académique qu’après la Seconde Guerre mondiale pour les Anglo-Saxons et durant les années 1970 en France. C’est donc un développement très récent, ce qui signifie que les bases de cette science doivent encore être consolidées, et sa structure affinée. Le système académique étant très conservateur, l’écologie scientifique a parfois du mal à trouver sa place parmi les disciplines plus anciennes. Malgré la gravité des problèmes environnementaux actuels, et contrairement à ce qu’on pourrait penser, il est souvent difficile d’augmenter le volume des enseignements d’écologie du primaire à l’université, et la recherche en écologie n’est pas particulièrement bien financée.
De plus, en France, le terme « écologie » est utilisé aussi bien pour désigner une science que des mouvements politiques environnementalistes ou verts, entraînant de fait une confusion entre le travail de recherche et l’action politique, ou même le militantisme. Il est important de souligner que, la plupart du temps, lorsque quelqu’un intervient dans les médias pour parler de protection de la nature, il s’agit d’un militant ou d’une militante (ou parfois même d’un chercheur d’une autre discipline !). Si ces derniers utilisent souvent les connaissances développées par l’écologie scientifique, ils ne sont pas chercheurs en écologie pour autant.
On pense facilement à de grandes figures, comme Hubert Reeves, qui ont joué et jouent un rôle important et utile dans la dissémination des savoirs et idées écologiques. Ces grandes figures médiatiques mêlent toujours dans leurs discours des messages environnementalistes et d’autres plus fondamentaux et proches des sciences écologiques. Tout cela entraîne des conséquences globalement positives, mais contribue à invisibiliser la science écologique et le travail des chercheuses et chercheurs qui la pratique. D’autant que dans les autres sciences (biologie, physique, chimie…), quand les médias ont besoin d’éclairages, c’est bien à un spécialiste du domaine que l’on fait appel en général.
Enfin, l’écologie est une science intégrative. C’est-à-dire qu’elle utilise les autres sciences (biologie, géologie, climatologie, chimie…) et qu’il est donc difficile de l’identifier en elle-même. Ce fonctionnement fait sa force, mais il rend son positionnement plus difficile. En effet, les systèmes académique et médiatique fonctionnent beaucoup « par boîtes » et la mauvaise identification d’une science et de ses spécialistes complique la prise en compte des connaissances qu’elle développe.
Cela explique en partie que les sociétés humaines soient si lentes à prendre des mesures pour atténuer la crise de la biodiversité et qu’elle reste moins bien prise en compte que la crise climatique par les pouvoirs publics (même si de ce côté-là, cela avance, bien que beaucoup trop lentement).
À lire aussi : La biodiversité : pas qu’une affaire d’écologistes, un impératif économique et financier
Mais alors l’écologie, c’est quoi ?
Ma définition préférée de l’écologie est la suivante : c’est la science qui étudie les interactions entre les êtres vivants (par exemple, entre les espèces de plantes d’une prairie) et leur environnement physico-chimique (par exemple, entre les plantes de cette prairie et les caractéristiques du sol comme son pH ou sa teneur en azote) et les conséquences de ces interactions à toutes les échelles temporelles (de la seconde à des millions d’années) et spatiales (de l’agrégat de sol d’un millimètre à la biosphère) possibles. Cette définition peut paraître un peu abstraite mais elle prendra tout son sens au cours du livre.
Il est important de retenir que l’écologie traite bien d’organismes vivants, tout en étant distincte de la biologie. Cette dernière a tendance à étudier le fonctionnement interne des êtres vivants. Historiquement, à l’aide de moyens techniques de plus en plus sophistiqués, la biologie les a découpés en parties de plus en plus petites (l’organe, la cellule, la molécule, le gène) pour analyser la manière dont le fonctionnement interne d’un organisme et de nombreux mécanismes de régulation permet aux organismes de grandir, de survivre et de se reproduire. C’est aussi grâce à la biologie que l’on comprend les mécanismes de développement d’un organisme à partir de ses gènes.
À l’inverse, les sciences de l’univers (géochimie, climatologie, hydrologie…) s’intéressent essentiellement au fonctionnement physico-chimique, aux éléments abiotiques, de l’environnement et de la planète Terre. Par exemple, ces sciences permettent de quantifier les flux d’eau (évaporation, précipitation, ruissellement…) à des échelles variées depuis le mètre carré jusqu’à la planète entière ou encore les flux d’azote, composante chimique essentielle de toute la matière vivante.
L’écologie se trouve exactement à mi-chemin entre la biologie et les sciences de l’univers : elle traite à la fois des organismes vivants et de leur environnement physico-chimique. Elle fait le lien entre les deux et étudie leurs interactions qui sont bidirectionnelles. Les organismes dépendent de leur environnement (température, humidité…) et des ressources qu’ils y puisent. Si les conditions physico-chimiques sont bonnes (ni trop chaud ni trop froid, suffisamment humide…), ils pourront grandir et se reproduire ; si les conditions sont un peu moins bonnes, cela devient plus difficile ; si elles empirent, les organismes ont de grandes chances de mourir. D’une manière peut-être moins évidente, mais tout aussi importante, les organismes modifient leur environnement physico-chimique en y puisant des ressources (CO2, eau et nutriments minéraux pour une plante), par des activités variées (galeries des vers de terre) ou simplement par leur présence (un arbre fait de l’ombre).
L’écologie est une science à part entière qui a développé son propre cadre conceptuel, ses écoles de pensée et ses outils. Elle fonctionne au quotidien comme les autres sciences : il y a des formations (masters, écoles doctorales), des chercheuses et des chercheurs, des laboratoires et des journaux internationaux en anglais spécialisés.
Elle s’appuie cependant, nous l’avons vu, sur de nombreuses sciences, de la biologie à la climatologie, en passant par la physique ou la chimie. Les résultats de ces différents domaines servent d’éléments de contexte et leurs méthodes et outils sont utilisés comme des couteaux suisses modulables pour répondre à des questions propres à l’écologie. Par exemple, l’étude des interactions entre un ver de terre et le sol peut nécessiter de connaître le fonctionnement interne du ver de terre, tel son mode de digestion (biologie), mais aussi l’impact de l’espèce sur la chimie du sol (chimie).
L’écologie peut aussi étudier comment le climat influence la croissance des plantes en prenant en compte la quantité d’énergie apportée par la lumière solaire et utilisable pour la photosynthèse, ou la température et l’humidité de l’air qui influencent la quantité d’eau transpirée par les plantes. Ou encore la manière dont les plantes influencent le climat en fixant plus ou moins de carbone par la photosynthèse ou en renvoyant plus ou moins de vapeur d’eau dans l’atmosphère. Ces résultats peuvent alors servir aux climatologues pour améliorer les prédictions climatiques.
Par ailleurs, l’écologie est indissociable de l’évolution des organismes vivants au sens darwinien, car ils présentent tous une histoire évolutive : ils ont été façonnés par une succession de pressions de sélection et de processus évolutifs qui ont conduit aux caractéristiques actuelles des organismes et ont contribué à leur diversité. De ce fait, les interactions écologiques entre eux ou avec leur milieu physico-chimique ont été façonnées par l’évolution. Il est important de le prendre en compte pour mieux comprendre et interpréter les fonctionnements écologiques actuels.
Ainsi, les plantes ont construit au cours de l’évolution des mutualismes avec leurs pollinisateurs. Étudier cette évolution peut aider à comprendre la pollinisation et ses conséquences. À l’inverse, les interactions écologiques, elles-mêmes, constituent un des principaux moteurs de l’évolution : la sélection naturelle est fondée sur le fait que les organismes les mieux adaptés à une situation écologique donnée (caractéristiques de l’environnement, existence d’un prédateur…) ont plus de descendants si bien que leurs caractéristiques deviennent dominantes au sein de l’espèce du fait de leur transmission génétique.
Dans ce contexte, les mécanismes conférant à certains individus un avantage sont liés à des interactions écologiques : certaines caractéristiques leur permettent de mieux interagir avec les autres organismes ou leur environnement physico-chimique, acquérant ainsi plus de ressources, augmentant leur survie ou leur fécondité. Tous ces mécanismes sont étudiés en écologie. On sait maintenant que l’évolution peut être suffisamment rapide pour interférer avec les processus écologiques à des échelles de temps communes. Cela signifie qu’il ne s’agit pas simplement d’un phénomène ancien qu’il faut étudier pour comprendre les organismes ayant disparu depuis longtemps, mais que les organismes continuent actuellement à évoluer.
De domaines en sous-domaines
Plus généralement, l’écologie aborde des sujets si variés qu’il est nécessaire de la diviser en sous-domaines.
Bien sûr, on peut en classer les différents champs selon le milieu étudié (écologie forestière, écologie aquatique, écologie des sols…), mais il est important de différencier également certaines approches. En effet, une partie importante de l’écologie, l’écologie des populations, se focalise sur les groupes d’individus d’une même espèce qui interagissent entre eux au sein d’un milieu donné (ce qu’on appelle une « population »). Elle se concentre donc sur les individus, sur ce qu’ils font et sur leur démographie (comme on le ferait pour des populations humaines), s’appuyant notamment pour cela sur leur recensement (on peut, par exemple, compter le nombre d’arbres dans une forêt). L’écologie des populations est fortement liée à l’écologie évolutive, qui étudie l’évolution darwinienne des organismes, puisque l’individu est l’unité de base dans tous les processus évolutifs.
Proche de l’écologie des populations, on trouve aussi celle du comportement qui cherche à analyser le comportement des individus au sein d’une population en fonction de leur environnement, avec souvent des interprétations liées à l’évolution darwinienne des organismes. On distingue ensuite l’écologie des communautés qui étudie les interactions entre populations (d’espèces différentes) dans un même milieu. Cela permet d’aborder, par exemple, les relations proie-prédateur, les symbioses, ou de décrire des communautés d’organismes (le nombre d’espèces, leur abondance relative, leurs caractéristiques, et les facteurs qui déterminent tout ça). On arrive alors à l’écologie fonctionnelle qui étudie la manière dont les organismes arrivent à puiser des ressources dans leur milieu et à les transformer en biomasse, ainsi que la quantité de matière et d’énergie qu’ils échangent avec leur milieu…
Enfin, l’écologie des écosystèmes est proche de l’écologie fonctionnelle puisqu’elle étudie la manière dont ils fonctionnent. Un écosystème comprend à la fois l’ensemble des populations en interaction dans un lieu donné et leur milieu physico-chimique (sol, climat…). Il s’agit donc d’intégrer tous les types d’interactions écologiques entre populations ainsi qu’entre elles et leur milieu physico-chimique, et de comprendre comment cela détermine les propriétés émergentes des écosystèmes, telle que leur production primaire. Là où l’écologie des populations est focalisée sur les individus, l’écologie fonctionnelle et celle des écosystèmes étudient plutôt les flux de matière (carbone, azote, eau…) et d’énergie entre les organismes et avec leur milieu. Ce type d’approche permet souvent d’aller vers des échelles spatiales de plus en plus grandes. On peut, par exemple, mesurer la biomasse de la végétation ou la quantité de carbone dans la matière organique du sol à l’échelle du mètre carré, mais aussi d’une prairie, d’une région, d’un continent…
Sébastien Barot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.10.2025 à 12:04
Combien de temps un moustique peut-il survivre sans piquer un humain ?
Texte intégral (811 mots)
La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.
À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.
Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.
Moustiques mâles vs moustiques femelles
Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.
Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.
Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.
La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.
Combien de temps une femelle peut survivre sans piquer ?
Une femelle moustique peut survivre plusieurs jours voire quelques semaines sans piquer pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.
La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies, telles que la fièvre du Nil occidental ou l’encéphalite japonaise.
Influence de l’environnement
La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.
Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette forme de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.
Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP "REPEL".
29.10.2025 à 12:04
Maths au quotidien : Full HD, 4K, 8K… ou pourquoi il n’est pas toujours utile d’augmenter la résolution de sa télévision
Texte intégral (1999 mots)
Pourquoi acheter une télévision 8K plutôt qu’une 4K ou Full HD ? La question revient souvent, tant l’offre technologique semble avancer plus vite que nos besoins. Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ? Derrière cette interrogation se cache un outil mathématique puissant utilisé en traitement du signal et en optique : l’analyse de Fourier.
Une télévision 4K affiche environ 8 millions de pixels, contre 33 millions pour la 8K. Sur le papier, c’est une avalanche de détails supplémentaires.
Mais l’œil humain n’est pas un capteur parfait : sa capacité à distinguer des détails dépend de la distance de visionnage et de l’acuité visuelle. Autrement dit, si vous êtes trop loin de l’écran, les pixels supplémentaires deviennent invisibles. Un écran 8K de 55 pouces vu à trois mètres sera perçu… presque comme un écran 4K.
Les limites de notre perception visuelle
Il existe des méthodes qui permettent de décomposer un signal (une image ou un son, par exemple) en ses fréquences spatiales ou temporelles. Pour une image, comme celles affichées par les télévisions dont nous parlons, les basses fréquences correspondent aux grandes zones uniformes (un ciel bleu, un mur lisse) tandis que les hautes fréquences traduisent les détails fins (les brins d’herbe, le grain de la peau).
À lire aussi : Des caméras 3D dans nos smartphones : comment numériser notre environnement ?
Nos yeux, comme un appareil photo, n’ont qu’une capacité limitée à percevoir ces hautes fréquences. Cette capacité dépend encore plus de l’acuité visuelle de chacun. Ainsi l’œil humain a une résolution maximale proche de 120 pixels par degré angulaire.
Cette acuité correspond à la faculté de discerner un objet de quinze centimètres à une distance d’un kilomètre, ou un grain de poussière à trois mètres : il est clair que la majorité des personnes ont une acuité visuelle moindre !
À lire aussi : Aveugles, malvoyants : que voient-ils ?
Sur une image, cette limite s’appelle la « fréquence de coupure » : au-delà, les détails sont trop fins pour être distingués, quelle que soit la richesse de l’image.
Si l’on applique cette logique, la 8K ne devient vraiment utile que si :
l’écran est très grand,
ou que l’on s’assoit très près,
ou encore si l’on zoome dans l’image (par exemple en retouche professionnelle).
Sinon, la fréquence maximale que peut capter notre œil est déjà atteinte avec la 4K. En d’autres termes, la 8K « code » des détails… que notre système visuel ne peut pas lire.
Un outil mathématique puissant, la « transformée de Fourier », inventée par Joseph Fourier en 1817, permet de quantifier cet effet.
Une transformée de Fourier révèle le « contenu fréquentiel » d’un signal, autrement dit, sa répartition entre les différentes bandes de fréquence. Reposons donc notre question, mais mathématiquement cette fois : « Est-ce que ces pixels additionnels correspondent encore à des fréquences spatiales perceptibles ? »
Ce que dit la transformée de Fourier
Illustrons cela avec un exemple visuel d’une image et son spectre de Fourier. Si pour un son ou pour un signal radio, la transformée de Fourier est elle-même un signal unidimensionnel, pour une image en deux dimensions, le spectre de Fourier est lui-même en deux dimensions avec des fréquences dans chacune des directions de l’espace.
Nous voyons dans l’exemple une image basse résolution (HD simulée) et son spectre de Fourier, ainsi qu’une version haute résolution (4K simulée) et son spectre. Le centre du carré correspond aux faibles fréquences, autour de la valeur (0,0).
Dans la version haute résolution (4K simulée), le spectre contient plus de hautes fréquences (zones colorées vers les bords, contrairement aux zones noires pour le spectre de la version Full HD), ce qui correspond aux détails supplémentaires visibles dans l’image.
Utiliser des filtres pour couper les hautes et basses fréquences
Regardons de plus près ce qui se passe en manipulant ce spectre. On parle alors de filtres.
Alors que l’image originale est nette et contient beaucoup de détails, on voit que l’image filtrée, avec les hautes fréquences supprimées, devient floue, les contours fins disparaissent. On le voit ainsi sur le nouveau spectre de Fourier après filtrage : seules les basses fréquences au centre ont été gardées, les hautes fréquences (détails) sont supprimées.
C’est exactement ce qui se passe quand on compresse trop une image ou quand on affiche une image HD sur un grand écran 4K : les hautes fréquences sont limitées. D’ailleurs, c’est pour cette raison que les téléviseurs 4K et 8K utilisent des techniques de « suréchantillonnage » (upscaling, en anglais) et d’amélioration d’image pour tenter de reconstituer et de renforcer ces hautes fréquences manquantes et offrir ainsi une meilleure qualité visuelle.
Inversement, sur l’image filtrée avec les basses fréquences supprimées, il ne reste que les contours et détails fins, comme un détecteur de bords. Dans le spectre de Fourier, le centre (basses fréquences) est supprimé, seules les hautes fréquences autour des bords subsistent.
Alors, faut-il absolument acheter une 8K pour votre suivre votre prochaine compétition sportive préférée ? Pas forcément. À moins d’avoir un très grand salon !
Saad Benjelloun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.