LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

29.04.2026 à 09:31

Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices

Benoit Ballester, Chercheur en Bioinformatique à l’Inserm, Unité Inserm 1090 TAGC, Théories et Approches de la Complexité Génomique, Aix-Marseille Université, Marseille., Aix-Marseille Université (AMU)

Pendant longtemps on a pensé qu’une séquence d’ADN ne pouvait être que régulatrice ou codante. Pourtant, une nouvelle étude montre que certaines d’entre elles ont ces deux rôles.
Texte intégral (1303 mots)

Pendant longtemps, nous avons appris à lire le génome en séparant deux mondes. D’un côté, les gènes, ces portions d’ADN qui contiennent les instructions pour fabriquer les protéines. À l’intérieur de ces gènes se trouvent les exons, les segments qui servent directement à produire l’ARN puis les protéines. De l’autre côté, l’ADN régulateur, souvent situé dans les régions dites non codantes, qui commande où, quand et à quel niveau les gènes s’expriment. Cette frontière a été très utile. Mais elle est plus poreuse qu’on ne le pensait.

Épissage d’un pré-ARN messager : excision des introns et suture des exons. Fdardel/Wikimédia, CC BY

Dans l’étude que nous venons de publier dans Nature Communications, nous montrons que des milliers d’exons, parmi les quelque 200 000 que compte le génome humain, ne servent pas seulement à coder des protéines. Une partie d’entre eux agissent aussi comme des régulateurs, c’est-à-dire des séquences capables de stimuler l’expression des gènes. Autrement dit, une même portion d’ADN peut porter deux messages à la fois : l’un pour la protéine, l’autre pour la régulation.

Cette idée existait déjà à travers quelques exemples isolés, mais notre travail en propose pour la première fois une vue systématique, à grande échelle, et dans plusieurs espèces, de l’humain à la souris, en passant par la drosophile et même une plante, Arabidopsis thaliana.

Comment avons-nous répondu à cette question ?

Ce phénomène n’était pas totalement inconnu. Depuis les années 1990, il était décrit dans la littérature scientifique, au fil de cas particuliers ou d’analyses plus larges, sans vraiment qu’on en saisisse l’ampleur.

Pour y répondre, nous avons combiné plusieurs approches à grande échelle, exploitant de très grands volumes de données biologiques issues de travaux antérieurs. Nous avons d’abord analysé plus de 20 000 cartes montrant les endroits du génome où se fixent des facteurs de transcription, ces protéines qui contrôlent l’activité des gènes, afin de repérer les exons qui ressemblent à de véritables régions régulatrices.

Nous avons ensuite cherché d’autres indices montrant que ces exons pouvaient vraiment jouer un rôle régulateur. Nous avons notamment vérifié s’ils se trouvent dans les régions de l’ADN les plus accessibles, condition nécessaire pour que les gènes puissent être activés, et s’ils sont capables d’augmenter l’expression d’un gène dans des tests fonctionnels. Nous avons aussi bloqué certaines de ces séquences dans des cellules afin de voir comment leur absence modifiait l’activité des gènes.

Au final, nous avons identifié plus de 10 000 exons candidats chez l’humain, avec des signatures comparables chez les autres espèces étudiées. Cela montre que cette double fonction n’est pas une exception, mais un phénomène largement répandu dans le vivant.

Pourquoi est-ce important ?

Cette découverte change d’abord notre vision de la régulation des gènes. Les séquences activatrices étaient surtout recherchées dans l’ADN non codant qui correspond à 98 % de notre ADN. Nous montrons qu’une partie de cette régulation est aussi inscrite au cœur même des régions codantes. Les exons ne sont donc pas seulement des segments qui produisent des protéines : certains participent aussi au pilotage de l’expression des gènes, parfois pour leur propre gène, parfois pour d’autres gènes à distance.

L’enjeu est aussi médical. En génétique, on accorde beaucoup d’attention aux mutations qui modifient la protéine. Mais les mutations dites synonymes, souvent qualifiées de silencieuses, sont généralement moins regardées. En effet, le code génétique est lu par groupes de trois lettres, appelés codons, et plusieurs codons différents peuvent correspondre au même acide aminé. Autrement dit, une mutation peut modifier la séquence d’ADN sans changer la protéine produite. Or, si un exon est aussi un régulateur, une mutation synonyme peut malgré tout perturber un signal régulateur sans altérer directement la protéine.

Dans notre étude, nous montrons par des tests fonctionnels que certaines de ces variations modifient bien l’activité régulatrice de l’exon. Dans des données issues de tumeurs, nous observons aussi que des mutations situées dans ces exons sont associées à des changements d’expression de gènes cibles, y compris pour des mutations synonymes.

Quelles suites donner à ce projet ?

Nous n’en sommes probablement qu’au début. Les 10 000 exons identifiés chez l’humain constituent un atlas, mais pas encore une carte complète de tous les contextes biologiques où ces séquences agissent. La suite consiste donc à en tester beaucoup plus, dans davantage de types cellulaires, de tissus et d’espèces, afin de comprendre quand ces régulateurs exoniques sont actifs, quels gènes ils contrôlent et comment ils ont émergé au cours de l’évolution.

Il faudra aussi revoir à grande échelle notre manière d’interpréter les variants situés dans les exons. Jusqu’ici, beaucoup d’analyses demandaient surtout : cette mutation change-t-elle la protéine ? Il faut désormais poser une seconde question : change-t-elle aussi la régulation du gène ? Cette lecture à double entrée pourrait affiner l’interprétation de variants encore mal compris, notamment en cancérologie et en génétique humaine.

The Conversation

Ce travail a été soutenu par le MESR, INSERM, IFB, ANR.

PDF

29.04.2026 à 09:31

Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules

William Barter, UKRI Future Leaders Fellow, School of Physics and Astronomy, University of Edinburgh

Mark Smith, Research Fellow in Collider Physics, Faculty of Natural Sciences, Imperial College London

Une anomalie observée dans la désintégration de mésons B pourrait être le premier signe d’une physique encore inconnue.
Texte intégral (1696 mots)
Après cinquante ans sans faille apparente, le modèle standard pourrait vaciller face à de nouvelles mesures issues du LHC. CERN

Des résultats obtenus au Large Hadron Collider, ou LHC, le Grand Collisionneur de hadrons du Cern, pourraient remettre en cause le modèle standard, pilier de la physique des particules depuis un demi-siècle.


Sommes-nous sur le point de détecter des signes d’une physique encore inconnue ? C’est ce que semblent suggérer les résultats récents des recherches que nous menons au Grand Collisionneur de hadrons du Cern (Large Hadron Collider ou LHC).

Si ces indices se confirmaient, ils remettraient en cause la théorie – appelée modèle standard (MS) – qui domine la physique des particules depuis cinquante ans. Les résultats indiquent, en effet, que le comportement de certaines particules subatomiques dans le LHC n’est pas conforme aux prédictions de ce modèle.

Les particules fondamentales sont les briques élémentaires de la matière : des particules subatomiques indivisibles (qui ne peuvent pas être décomposées en unités plus petites). Quatre forces fondamentales – la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte – régissent leurs interactions.

Le LHC est un immense accélérateur de particules installé dans un tunnel circulaire de 27 kilomètres sous la frontière franco-suisse. Son objectif principal est justement de mettre à l’épreuve le modèle standard.

Cette théorie constitue notre meilleure compréhension des particules et des forces fondamentales, mais elle n’est pas complète. Elle ne rend pas compte de la gravité ni de la matière noire – cette forme de matière invisible, encore jamais mesurée directement, qui représenterait environ 25 % de l’univers.

Au grand collisionneur de hadrons, des faisceaux de protons circulant en sens opposé sont mis en collision afin de déceler des indices d’une physique encore inconnue. Les nouveaux résultats proviennent de LHCb, une expérience du LHC consacrée à l’analyse de ces collisions.

Ce résultat repose sur l’étude de la désintégration – une forme de transformation – de particules subatomiques appelées mésons B. Nous avons analysé la manière dont ces mésons B se désintègrent en d’autres particules, et constaté que ce processus spécifique n’est pas conforme aux prédictions du modèle standard.

Une théorie élégante

Le modèle standard repose sur deux des avancées les plus révolutionnaires de la physique du XXᵉ siècle : la mécanique quantique et la relativité restreinte d’Einstein.

Les physiciens peuvent comparer les mesures réalisées dans des installations comme le LHC aux prédictions issues du modèle standard afin de tester rigoureusement cette théorie. Malgré son caractère incomplet, plus de cinquante ans de tests toujours plus exigeants n’ont encore révélé aucune faille dans ce cadre théorique. Du moins, jusqu’à aujourd’hui.

Notre mesure, acceptée pour publication dans la revue Physical Review Letters, met en évidence un écart de quatre écarts-types par rapport aux prédictions du modèle standard.

Concrètement, cela signifie que, après prise en compte des incertitudes liées aux résultats expérimentaux et aux prédictions théoriques, la probabilité qu’une fluctuation aléatoire des données produise un écart aussi important – si le modèle standard est correct – est d’environ 1 sur 16 000.

Même si ce résultat reste en deçà du standard ultime de la physique – ce que l’on appelle les cinq sigma, soit cinq écarts-types (environ une chance sur 1,7 million) – les indices commencent à s’accumuler. Cette hypothèse est renforcée par des résultats issus d’une autre expérience, CMS, publiés plus tôt en 2025.

Bien que les résultats de CMS soient moins précis que ceux de LHCb, ils sont en bon accord avec ces derniers, ce qui consolide l’ensemble. Nos nouveaux résultats proviennent de l’étude d’un type particulier de processus, appelé désintégration électrofaible « pingouin ».

Des événements rares

Le terme « pingouin » désigne un type particulier de désintégration (transformation) de particules de très courte durée de vie. Dans ce cas, nous étudions la manière dont le méson B se désintègre en quatre autres particules subatomiques – un kaon, un pion et deux muons.

Avec un peu d’imagination, la configuration des particules impliquées peut évoquer la silhouette d’un pingouin. Surtout, l’étude de cette désintégration permet d’observer comment un type de particule fondamentale, le quark bottom, peut se transformer en un autre, le quark étrange.

Cette désintégration « pingouin » est extrêmement rare dans le cadre du modèle standard : sur un million de mésons B, un seul se désintègre de cette manière. Nous avons analysé avec précision les angles et les énergies auxquels ces particules sont produites lors de la désintégration, et déterminé avec exactitude la fréquence du processus. Nos mesures de ces paramètres ne correspondent pas aux prédictions du modèle standard.

L’étude fine de ce type de désintégration constitue l’un des objectifs majeurs de l’expérience LHCb depuis sa création en 1994. Les processus « pingouin » sont particulièrement sensibles aux effets de nouvelles particules potentiellement très massives, qui ne peuvent pas être produites directement au LHC. De telles particules peuvent néanmoins exercer une influence mesurable sur ces désintégrations, en plus de la contribution attendue du modèle standard. Ce type d’observation indirecte n’est pas inédit. Par exemple, une forme de radioactivité a été découverte près de quatre-vingts ans avant que les particules fondamentales qui en sont responsables – les bosons W – ne soient observées directement.

Perspectives

L’étude de ces processus rares nous permet d’explorer des aspects de la nature qui ne deviendront peut-être accessibles autrement qu’avec des collisionneurs de particules dont on ne disposera au mieux que dans les années 2070. Un large éventail de nouvelles théories pourrait expliquer nos résultats. Beaucoup d’entre elles font intervenir de nouvelles particules appelées « leptoquarks », qui unifient deux types de constituants de la matière : les leptons et les quarks.

D’autres théories envisagent des particules plus massives, analogues à celles déjà décrites par le modèle standard. Ces nouveaux résultats permettent de contraindre ces modèles et d’orienter les recherches à venir.

Malgré notre enthousiasme, des questions théoriques ouvertes subsistent et nous empêchent d’affirmer avec certitude que nous avons observé une physique au-delà du modèle standard. La principale difficulté tient aux « pingouins charmants » (charming penguins), un ensemble de processus prévus par le modèle standard dont les contributions sont extrêmement difficiles à estimer. Les évaluations récentes suggèrent que leurs effets ne sont pas suffisamment importants pour rendre compte de nos données.

De plus, la combinaison d’un modèle théorique et des données expérimentales issues de LHCb indique que ces « pingouins charmants » – et donc le modèle standard – peinent à expliquer les résultats anormaux observés.

De nouvelles données, déjà collectées, devraient nous permettre de trancher dans les prochaines années : dans nos travaux actuels, nous avons analysé environ 650 milliards de désintégrations de mésons B enregistrées entre 2011 et 2018 pour identifier ces processus « pingouin ». Depuis, l’expérience LHCb a enregistré trois fois plus de mésons B.

D’autres avancées sont prévues dans les années 2030 afin de tirer parti des futures améliorations du LHC et de constituer un jeu de données 15 fois plus important. Cette étape décisive pourrait permettre d’apporter des preuves définitives – et, peut-être, d’ouvrir la voie à une nouvelle compréhension des lois fondamentales de l’Univers.

The Conversation

William Barter travaille pour l’Université d’Édimbourg. Il reçoit des financements de UKRI. Il est membre de la collaboration LHCb au CERN.

Mark Smith ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 09:30

Masques à lumière rouge : que dit la science de leur efficacité ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech ». Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?
Texte intégral (1823 mots)

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech », portée par les influenceurs et rendue accessible au travers de dispositifs à domicile. Elle est associée à des effets séduisants tels que réduction des signes de l’âge, amélioration de l’acné ou encore accélération de la cicatrisation. Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?


Les dispositifs de thérapie à la lumière rouge destinés au grand public se présentent le plus souvent sous la forme de masques faciaux rigides ou souples, conçus pour épouser les contours du visage. Leur prix varie d’une centaine à environ mille euros. Ils intègrent un ensemble de diodes électroluminescentes (LED) disposées sur leur face interne, émettant une lumière visible rouge, parfois associée à du proche infrarouge. L’utilisateur porte ce masque pendant une durée déterminée (généralement quelques minutes), afin d’exposer uniformément la peau à cette lumière. D’autres formats existent également, tels que des panneaux lumineux ou des dispositifs portatifs ciblant des zones spécifiques du corps, mais le masque facial constitue aujourd’hui la forme la plus emblématique.

Cet intérêt croissant pour la thérapie à la lumière rouge repose sur plusieurs facteurs complémentaires. D’une part, les avancées technologiques ont permis la miniaturisation de systèmes LED, rendant possible leur utilisation hors des cabinets médicaux. Dans ces derniers, la lumière rouge est utilisée notamment en dermatologie, où elle est employée pour le traitement de l’acné, des plaies, des ulcères et des cicatrices. D’autre part, ces dispositifs sont souvent présentés comme des solutions non invasives, ce qui contribue à leur accessibilité et à leur adoption par le grand public. Enfin, les réseaux sociaux participent à leur visibilité, en diffusant des retours d’expérience et des contenus d’usage, qui s’ajoutent aux publications scientifiques et aux communications commerciales existantes.

Commençons par préciser ce que l’on appelle thérapie à la lumière rouge. Aussi appelée photobiomodulation, elle repose sur l’utilisation de longueurs d’onde spécifiques, généralement comprises entre 630 et 660 nm, parfois étendues au proche infrarouge (environ 800–900 nm). Ces longueurs d’onde peuvent pénétrer dans la peau jusqu’au derme sans provoquer d’échauffement significatif ou de dommages comparables aux UV.

Quels sont les effets biologiques de la photobiomodulation ?

Au niveau biologique, la photobiomodulation serait liée à plusieurs mécanismes cellulaires encore en cours d’étude. Le mécanisme principal évoqué dans les travaux repose sur une interaction avec les mitochondries (petites structures cellulaires qui produisent l’énergie – sous forme d’une molécule appelée adénosine triphosphate : ATP – à partir des nutriments et de l’oxygène), en particulier avec l’enzyme cytochrome c oxydase, un acteur clé de la chaîne respiratoire. Plusieurs travaux suggèrent que cette enzyme agit comme un chromophore capable d’absorber la lumière rouge, entraînant des modifications de son état redox (gain ou perte d’électrons) et une stimulation du métabolisme, notamment via une augmentation de la production d’ATP et l’activation de voies de signalisation intracellulaires.

Ces processus s’accompagnent de plusieurs effets biologiques principalement observés in vitro et dans des modèles animaux. Une augmentation de la production d’ATP a notamment été mesurée après exposition à ces longueurs d’onde. Par ailleurs, la lumière semble moduler le stress oxydatif, c’est-à-dire le déséquilibre entre la production de molécules réactives de l’oxygène et les systèmes de défense antioxydants de la cellule. Ce déséquilibre est susceptible d’endommager les lipides, protéines et l’ADN lorsqu’il est excessif, mais peut aussi jouer un rôle de signal biologique à faible niveau. Ce processus implique notamment une production contrôlée d’espèces réactives de l’oxygène (ROS) et de monoxyde d’azote, deux molécules impliquées dans les voies de signalisation cellulaire. Enfin, ces signaux biochimiques activent des cascades intracellulaires (kinases, facteurs de transcription) favorisant des processus de réparation et de régénération tissulaire.

Des effets modestes

Ces mécanismes restent encore débattus, notamment concernant le rôle exact du cytochrome c oxydase, dont l’implication directe n’est pas unanimement démontrée. Malgré ces incertitudes mécanistiques, la photobiomodulation a été largement étudiée sur le plan clinique, avec des résultats globalement positifs mais variables selon les indications.

Dans le cas du vieillissement cutané, plusieurs essais rapportent une légère amélioration des rides fines, de la texture et de l’élasticité de la peau après plusieurs semaines de traitement. Ces effets seraient liés à la stimulation des fibroblastes (cellules de base des tissus conjonctifs) et à l’augmentation de la production de collagène. Une revue souligne que les effets observés sont réels mais hétérogènes et encore mal standardisés.

Concernant la cicatrisation, les données suggèrent un potentiel effet, mais les preuves restent encore incomplètes et parfois contradictoires. La lumière rouge pourrait intervenir dans les différentes phases de la réparation tissulaire (inflammation, prolifération et remodelage) en stimulant l’activité de cellules clés comme les fibroblastes et les macrophages (cellules du système immunitaire). Elle favoriserait ainsi la production de collagène, la migration cellulaire et possiblement l’angiogenèse (formation de nouveaux vaisseaux sanguins à partir de vaisseaux existants), contribuant à la reconstruction du tissu lésé. Cependant, les données cliniques sont hétérogènes : certaines études montrent une accélération de la cicatrisation, tandis que d’autres ne retrouvent pas d’effet significatif.

Enfin, dans le traitement de l’acné, la lumière rouge agit principalement par des effets anti-inflammatoires et une modulation de l’activité des glandes sébacées (situées dans la peau et impliquées dans la synthèse et sécrétion du sébum). Les études rapportent une diminution des lésions inflammatoires et des rougeurs, avec des résultats globalement modérés et variables selon les protocoles. Elle est souvent plus efficace lorsqu’elle est combinée à d’autres thérapies lumineuses.

Un niveau de preuve limité

Malgré des résultats encourageants dans plusieurs domaines, la photobiomodulation reste une discipline en développement, dont le niveau de preuve est limité par plusieurs facteurs méthodologiques. De nombreuses études reposent sur des effectifs réduits, ce qui limite la robustesse statistique et la généralisation des résultats. Par ailleurs, l’hétérogénéité des protocoles expérimentaux (durée d’exposition, intensité lumineuse, fréquence des traitements) complique la comparaison entre études et peut expliquer certaines divergences observées.

Ces limites méthodologiques contrastent avec la diffusion rapide de dispositifs grand public (masques LED, panneaux, appareils portatifs), aux performances variables et peu standardisées. L’écart entre les conditions expérimentales (paramètres contrôlés, doses précises, suivi médical) et l’usage domestique peut conduire à une surestimation des effets, parfois amplifiée par des discours commerciaux optimistes.

En résumé, la photobiomodulation repose sur des mécanismes biologiques plausibles et des résultats expérimentaux et cliniques encore partiellement concordants. Le niveau de preuve reste à ce jour modéré, en raison notamment du nombre limité d’essais randomisés contrôlés de grande ampleur et de l’hétérogénéité des protocoles. Les données disponibles suggèrent des effets potentiels dans plusieurs indications dermatologiques, mais leur amplitude et leur reproductibilité varient selon les conditions d’utilisation. Cette technologie s’inscrit ainsi dans un champ de recherche en structuration, nécessitant des études complémentaires standardisées afin de préciser ses indications et ses paramètres optimaux.

Dans ce contexte, des effets indésirables restent rares mais possibles, principalement sous forme d’irritations cutanées transitoires ou d’inconfort oculaire en cas de mauvaise utilisation. Les données actuelles ne mettent pas en évidence de toxicité majeure aux paramètres utilisés en photobiomodulation, mais les effets d’un usage prolongé ou non encadré restent encore insuffisamment documentés. Certaines situations peuvent également nécessiter des précautions particulières, notamment chez les personnes présentant une sensibilité accrue à la lumière ou des pathologies dermatologiques spécifiques.

L’utilisation de dispositifs commerciaux de lumière rouge doit donc être envisagée avec prudence, en particulier en dehors d’un cadre médical. Il est recommandé de solliciter un avis médical ou dermatologique en cas d’usage à visée thérapeutique. Par ailleurs, les dispositifs disponibles sur le marché présentent une qualité variable : il convient de vérifier des paramètres tels que la longueur d’onde (généralement 630–660 nm pour le rouge), la puissance d’émission, ainsi que la présence de certifications de sécurité.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
3 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓