Menu

Des techniques miracles pour récupérer plus vite après l’effort et tenir toute la durée des JO, vraiment ?

© Inserm/Flore Avram

Participer aux Jeux Olympiques : c’est le graal pour les sportifs de haut niveau qui ont commencé leurs entraînements il y a déjà plusieurs mois, voire des années. Tenir la performance sur toute la durée des épreuves est un enjeu de taille pour ces athlètes qui visent la médaille olympique, et ce quelle que soit la discipline concernée. Certains n’hésitent d’ailleurs pas à partager leurs « secrets » avec leur communauté, racontant avoir trouvé la méthode de préparation et de récupération la plus efficace pour leur permettre d’enchaîner les épreuves. Mais existe-t-il vraiment une technique miracle qui permettrait à notre corps de récupérer en un temps record ?  Canal Détox s’est penché sur quelques-unes des techniques qui semblent avoir le vent en poupe parmi les sportifs. Ventouses, cryothérapie, immersion en bain… Que dit la science ?

 Qui dit JO dit programme de compétition chargé pour les athlètes ! Alors que les épreuves s’enchaînent à un rythme soutenu, les courtes périodes de repos doivent être optimisées et considérées comme des moments clés au service de la performance sportive. D’autant qu’un état de fatigue prolongé dû à un temps de récupération insuffisant ou à une mauvaise préparation peut augmenter le risque de blessures pendant la compétition sportive[1].

 

Ventouses, cryothérapie, immersion en bain…

 De très nombreuses techniques de récupération sont utilisées par les athlètes de haut niveau afin notamment de limiter la fatigue musculaire et les douleurs. Il serait difficile de toutes les citer, même si certaines ont été beaucoup médiatisées.

Récemment, une vidéo du nageur et champion olympique Florent Manaudou a suscité de nombreuses réactions sur les réseaux sociaux, alors que son dos est apparu marqué de plusieurs tâches circulaires de couleur rouge pâle. Il n’est pas le seul : régulièrement, c’est le footballeur international Karim Benzema qui expose fièrement son corps marqué. La technique utilisée par ces athlètes est celle de la ventousothérapie, appelée aussi hijama ou cupping, employée aussi bien en préparation qu’en récupération musculaire – et dans certains cas pour réduire la douleur.

Cette technique traditionnelle est surtout populaire en Chine, en Corée, au Japon et en Arabie saoudite. Des ventouses, en verre ou en plastique, sont utilisées pour exercer des pressions rapides et vigoureuses sur la peau grâce à un dispositif mécanique de pompage ou via le réchauffement de la ventouse à l’aide d’une flamme. La technique peut être déclinée de différentes manières, certaines sollicitant par exemple l’utilisation d’aiguilles ou de scalpels en plus des ventouses dans l’objectif de provoquer un saignement.

Quelques articles scientifiques se sont intéressés à la ventousothérapie et aux effets de cette pratique pour aider les athlètes à récupérer ou à réduire leurs douleurs, d’autres ont été publiés pour tenter d’en expliquer les mécanismes d’action potentiels. Néanmoins, le nombre d’études cliniques réalisées, ainsi que la qualité globale de ces études reposant souvent sur des petits échantillons de participants, ne constituent pas de preuves scientifiques suffisantes pour attester de l’efficacité de cette thérapie dans la gestion de la douleur, ni sur la fatigue musculaire. Pire, les effets néfastes eux sont documentés si la technique est mal utilisée. C’est pour cela d’ailleurs que la pratique des ventouses a été interdite par l’ordre des masseurs-kinésithérapeutes en 2021.

On retrouve un peu les mêmes conclusions[3] en ce qui concerne la cryothérapie, technique qui consiste au refroidissement de l’organisme corporel par exposition entière du corps pendant 2 à 3 minutes à un froid sec (-100 °C à -170 °C). Dans le milieu sportif, cette technique est considérée par certains comme utile pour prévenir les blessures ou traiter les douleurs musculaires après l’exercice, surtout dans le cas des sports d’endurance extrême (triathlon, marathon, etc.), ainsi pour les disciplines qui entraînent des chocs musculaires immédiats importants, comme par exemple le rugby.

Si des présomptions d’effets bénéfiques de la cryothérapie sur la récupération musculaire existent, les études réalisées sont encore trop peu nombreuses pour l’affirmer définitivement. La littérature scientifique manque de preuves cliniques de qualité, et notamment d’études randomisées pour attester de résultats significatifs. La pratique pose par ailleurs des problèmes de sécurité. Brûlures locales au 1er ou 2e degré, céphalées ou accentuation des douleurs présentes sont quelques-uns des effets secondaires qui ont parfois été rapportés.

Enfin, l’immersion en bain est l’une des méthodes de récupération les plus courantes dans le sport. Cette technique consiste à se plonger jusqu’au cou dans l’eau, en alternant des températures chaudes et froides pendant quelques minutes… Une méta-analyse (analyse d’un corpus de 52 publications) récente s’est intéressée à son efficacité selon différents protocoles, concluant à un effet potentiellement bénéfique de l’immersion sur la récupération musculaire 24 heures après un exercice de haute intensité, même si, comme dans les deux cas précédents, il manque des données solides et d’autres études répliquant ce résultat pour établir un niveau de preuve suffisant.

À chaque athlète sa technique de récupération

Vous l’aurez compris, il n’existe pas de méthodes miracles pour récupérer plus vite après l’effort. Aucune des méthodes décrites plus haut n’a encore fait consensus et toutes comportent des risques. Ce qui est sûr, c’est que tout comme l’entraînement, la récupération doit être adaptée et personnalisée selon les disciplines et selon l’athlète, puisque les muscles sollicités et les impacts liés à la pratique sportive sont différents, tout comme le niveau et le type de fatigue ressentie après l’effort. D’ailleurs, une étude publiée dans The International Journal of Sports Physiology and Performance met en avant l’importance de l’individualisation du programme de récupération des athlètes pour maximiser les performances et prévenir les effets néfastes tels que la sous-récupération, le surmenage, le syndrome de surentraînement, les blessures ou les maladies.

Enfin, ces programmes de récupération personnalisés doivent toujours s’accompagner de trois éléments clés pour garantir la performance : une bonne hydratation, une alimentation adaptée, ainsi que du sommeil en quantité suffisante.

 

Texte rédigé avec le soutien de Carole Cometti, directrice du CEP de l’Inserm (Centre d’expertise de la performance)

[1] https://bjsm.bmj.com/content/50/17/1030

[2] Métabolite du glucose produit par les tissus de l’organisme lorsque l’apport en oxygène est insuffisant, notamment dans le cadre d’une activité physique intense.

[3] Lire le rapport de l’Inserm : Évaluation de l’efficacité et de la sécurité de la cryothérapie du corps entier à visées thérapeutique

Bien s’étirer pour lutter contre les courbatures, vraiment ?

vignette BD Canal Détox étirements_femme avec chat s'étirant tous les 2© Inserm/Flore Avram

On s’attaque peut-être ici à l’un des mythes les plus répandus en matière de sport et de récupération après l’effort : les étirements permettent-ils de limiter les courbatures ?  Malgré tout ce qu’on peut entendre lorsqu’on se rend dans certaines salles de sport ou sur quelques comptes « fitness » sur les réseaux sociaux, la réponse est non. Les étirements ne sont pas un exercice utile pour récupérer après un effort sportif. Mais alors pourquoi faire des étirements ? De nombreuses publications scientifiques se penchent sur le sujet des étirements notamment pour tenter d’optimiser les entraînements des sportifs, qu’ils soient des athlètes occasionnels ou de haut niveau, mais leurs conclusions sont parfois contradictoires. On tente donc d’y voir plus clair avec ce nouveau Canal Détox, le troisième de notre série publiée à l’occasion des JOP 2024 !

Avant même de se poser la question du meilleur moment pour réaliser les étirements ou du type d’étirements qui serait le plus bénéfique, il faut bien comprendre à quoi ils servent. Les données disponibles convergent sur ce point : les étirements permettent d’accroître la souplesse mais aussi d’améliorer la mobilité. En effet, plus l’on est souple, plus l’on est capable de maintenir l’amplitude des mouvements des articulations. Et perdre en souplesse, c’est risquer que les muscles ne puissent s’étendre complètement lors d’un mouvement, ce qui peut se traduire par une augmentation du risque de douleurs articulaires et de lésions musculaires. Ces bénéfices des étirements sont observés à des degrés divers selon l’état de santé et le niveau sportif d’une personne mais globalement, on peut dire que s’étirer est une pratique intéressante et utile à tous.

Il est néanmoins faux de considérer que les étirements sont un exercice facile qu’il faut nécessairement pratiquer après une session de sport pour récupérer et lutter contre les courbatures.

Les courbatures sont en fait dues à des microlésions musculaires qui apparaîssent au cours de l’effort, la douleur survenant ensuite, plusieurs heures à quelques jours après, sous l’effet de processus inflammatoires. Or, aucune donnée dans la littérature scientifique ne permet d’affirmer que les étirements ont un effet anti-inflammatoire et donc anti-douleur, même s’ils peuvent momentanément produire une sensation agréable. Qui plus est, des étirements mal réalisés et/ou trop intenses juste après un effort peuvent accentuer les microlésions dans les muscles et donc accroitre la douleur qui sera associée aux courbatures.

Étirements et vieillissement

Des travaux scientifiques essayent de capitaliser sur les bénéfices des étirements dans le contexte du vieillissement, avec l’idée que favoriser les étirements chez les personnes âgées est bénéfique pour favoriser la souplesse et la mobilité, augmenter la force musculaire et donc pour améliorer l’état de santé général.

C’est d’autant plus crucial que le manque de souplesse chez les personnes âgées peut causer des troubles de l’équilibre, une limitation des mouvements et une altération des paramètres spatio-temporels pendant la marche (vitesse de marche, longueur de la foulée, fréquence de la marche et amplitude des mouvements). Ces altérations peuvent entraver les activités quotidiennes et réduire par conséquent la qualité de vie. De plus, la réduction de l’amplitude des mouvements peut augmenter le risque de chute chez les personnes d’âgées.

Les recherches se poursuivent pour définir les programmes d’étirements les plus adaptés pour les personnes âgées, mais aussi pour des populations en contexte clinique, dans le cadre d’une rééducation après une opération de chirurgie orthopédique par exemple.

Quand, comment, pour qui ?    

Au-delà de ces considérations générales, que faut-il recommander aux sportifs en matière d’étirements, que ce soit lorsque l’on pratique en amateur ou pour des athlètes de haut niveau ? Quand est-il pertinent de s’étirer et comment ?

La littérature scientifique est assez hétérogène sur le sujet. On l’a vu, les étirements après un effort ne favorisent pas la récupération et ne limitent pas les courbatures.

Et avant l’effort alors ? De manière générale, les études s’accordent pour dire que des exercices d’étirements de courte durée peuvent être réalisés dans le cadre d’un échauffement complet et que les étirements dynamiques sont plus souvent recommandés par rapport aux étirements statiques[1]. Cependant, l’intérêt des étirements dynamiques par rapport à d’autres types d’étirements reste encore débattu par les spécialistes.

De plus, il faut être prudent lorsqu’on pratique à haut niveau. Si de toute évidence pour certains sports (par exemple la gymnastique ou le patinage artistique), la souplesse fait partie des facteurs déterminants de la performance et les étirements doivent être intégrés à la routine pré-exercice, pour d’autre types de sport où la force et la vitesse sont des paramètres centraux, les étirements peuvent avoir un impact délétère sur la performance. L’une des raisons est qu’avoir des muscles moins « raides », comme c’est le cas après un étirement, ne favorise pas la vitesse des gestes ni l’explosivité[2].

Si l’on résume donc, dans l’absolu, pour un sportif occasionnel sans objectif compétitif, un étirement bien réalisé avant un effort n’handicapera pas outre mesure sa recherche de performance et participera à améliorer sa souplesse globale. Mais pour un sportif compétiteur, l’étirement juste avant l’activité peut se faire au détriment de sa force, et n’est donc pas toujours recommandé. Les conseils de l’entraîneur et la prise en compte du sport pratiqué, de l’entraînement global du sportif, de son niveau de souplesse et de son état physique général seront dans tous les cas déterminants pour décider ou non de s’étirer avant l’effort, et de quelle manière.

Enfin, plus largement, il pourrait être intéressant, peu importe le niveau sportif, de pratiquer des étirements plutôt au cours de sessions dédiées, à distance dans le temps d’un effort sportif, afin d’améliorer le niveau de souplesse globale sans impact sur la performance. C’est d’autant plus intéressant qu’il a aussi été montré que plus l’on est souple, moins le fait de réaliser des étirements avant un effort aura un impact délétère sur la performance.

Une chose est certaine : lorsque l’on fait du sport, surtout avec un objectif précis en tête, il est utile de bien s’entourer, et de se faire conseiller par un professionnel, qu’il s’agisse d’un entraîneur, d’un athlète plus aguerri, d’un kinésithérapeute, d’un médecin du sport…

Dans une récente étude, des sportifs (occasionnels et de haut niveau) ont été interrogés sur leur pratique des étirements. Seuls 37 % d’entre eux rapportaient avoir été supervisés pour la réalisation de leurs étirements. Il pourrait être intéressant de renverser cette tendance, en encourageant toutes les personnes qui font régulièrement du sport à aller chercher les conseils et l’accompagnement d’un professionnel, afin d’apprendre à s’étirer avec la bonne intensité, la bonne technique et le bon positionnement, et en accord avec ses propres objectifs de performance et de souplesse.

 

Texte rédigé avec le soutien de Nicolas Babault, chercheur au CAPS de l’Inserm (unité 1093 Inserm/Université de Bourgogne) et professeur à l’université de Bourgogne 

[1]Les étirements statiques consistent à pratiquer un mouvement pour « tendre » un muscle et à maintenir la position pendant plusieurs secondes. À l’inverse, les étirements dynamiques se caractérisent par l’absence de maintien d’une position. En effet, il s’agit d’effectuer lentement des mouvements actifs, répétés dans des amplitudes de plus en plus grandes, pour amener les muscles en position d’étirement.  

[2]L’explosivité est la capacité à enclencher, en un temps court, une forte contraction musculaire.

Consommer plus de protéines quand on pratique du sport à haut niveau, vraiment ?

Canal Détox BD semaine 2© Flore Avram/Inserm

Gagner en force musculaire, construire du muscle, réduire la masse grasse, améliorer la récupération musculaire… Autant de promesses qui sont faites aux consommateurs lorsqu’ils décident d’acheter des compléments alimentaires à base de protéines. Il est vrai qu’avoir un apport élevé en protéines est souvent conseillé pour les sportifs, au-delà de l’apport journalier recommandé. Le recours à des poudres protéinées pose néanmoins question, des inquiétudes pour la santé en cas de surconsommation ayant parfois été rapportées.

Comment expliquer l’importance accordée aux protéines dans le sport de haut niveau ? Quel est le rôle des protéines dans les performances sportives ? Faut-il éviter les poudres protéinées ? Canal Détox fait le point.

Les protéines sont des constituants indispensables à notre corps et environ 40 % d’entre elles sont stockées dans nos muscles. Elles jouent différents rôles importants dans l’organisme, dont un rôle de transport et un rôle structural. Ainsi, des protéines comme l’hémoglobine assurent par exemple le transport de l’oxygène dans le corps et l’élimination du dioxyde de carbone. Le rôle structural des protéines détermine quant à lui la forme des cellules et intervient dans le renouvellement des tissus, notamment des tissus musculaires.

 

Protéines et acides aminés

Les protéines sont constituées d’une chaîne de composés individuels, appelés « acides aminés ». Cette chaîne est spécifique pour une protéine donnée. Les acides aminés sont indispensables à la synthèse des protéines.

Même si le corps humain en produit certains, neuf acides aminés ne peuvent pas être synthétisés par l’organisme. Ces derniers, dits « acides aminés essentiels », doivent donc être apportés par l’alimentation, essentiellement sous forme de protéines. La quantité de chaque acide aminé nécessaire au besoin d’un organisme et à la fabrication des protéines dépend notamment de l’âge, de la taille, de la masse musculaire et de l’activité physique.

L’apport journalier recommandé (AJR) est de 0,8 à 1 g de protéines par kilogramme de poids corporel par jour pour les personnes de plus de 19 ans. Ce qui représente par exemple une consommation de 60 à 75 g par jour pour une personne de 75 kg.

Cet apport journalier peut être facilement atteint grâce à un régime équilibré. Lors d’un repas équilibré, un quart des aliments sélectionnés doit apporter des protéines. Les protéines sont présentes dans beaucoup d’aliments de notre quotidien, sous forme de protéines animales comme dans la viande de poulet (100 g contient environ 22 g de protéines), le poisson (100 g contient environ 20 g de protéines), le lait, ou encore les œufs ou bien sous forme de protéines végétales comme dans les céréales (blé, avoine) et les légumineuses (lentilles, pois chiches…).

 

Protéines et masse musculaire

Si consommer une quantité de protéines en accord avec l’AJR recommandé est suffisant pour la majorité des personnes, qu’en est-il pour les sportifs de haut niveau ? On entend régulièrement que les sportifs chevronnés devraient avoir recours à une supplémentation en protéines. Certains affirment même qu’une consommation élevée de protéines est indispensable pour atteindre ses objectifs de performance sportive.

On sait en effet que la sollicitation répétée d’un muscle normal, comme c’est le cas chez les sportifs, favorise l’accroissement de sa masse de deux façons. La première en entraînant une augmentation de la synthèse de protéine, qui ne peut se faire qu’avec des acides aminés essentiels apportés par l’alimentation.

La deuxième est que les stimuli mécaniques du muscle entraînent la survenue de microlésions musculaires. Celles-ci vont favoriser la stimulation des cellules souches du muscle et leur incorporation à la fibre musculaire, ce qui va participer à l’augmentation de la masse musculaire. Ces microlésions sont ensuite réparées grâce à l’intervention de protéines. Il est donc important d’avoir un bon apport alimentaire en acides aminés essentiels pour que tout ce mécanisme se fasse correctement.

Mais si les protéines sont centrales dans le régime d’un sportif de haut niveau, quelle doit être la quantité exacte consommée au quotidien ? Il est difficile de répondre de manière précise et de généraliser. En fait, et de manière assez logique, la quantité doit être pensée en fonction de l’activité pratiquée et de son intensité. Le mot clé ici : l’équilibre. Un entraînement intensif devra être équilibré par un grand apport en protéines, et un entraînement plus « léger » ne demandera qu’un petit apport supplémentaire, voire simplement de modifier légèrement son alimentation. Un déséquilibre pourrait avoir un effet délétère.

Pour trouver cet équilibre, le mieux est de demander de l’aide à un spécialiste (par exemple un préparateur sportif ou un médecin) qui pourra apporter des conseils sur les quantités qui sont les plus pertinentes en fonction des attentes, des objectifs et des entraînements pratiqués.

 

Quelles sont les sources de protéines ?

Quelles possibilités ont les sportifs pour consommer plus de protéines ? Une alimentation équilibrée faisant la part belle à des aliments riches en protéines (animales ou végétales) est le premier réflexe à avoir pour augmenter son apport.

Les sportifs choisissent parfois d’avoir recours à des compléments alimentaires en poudre à base de protéines. Quand on parle de ces compléments, on cite souvent la protéine « whey », aussi appelée lactosérum, ou bien la « caséine ». Ces deux protéines sont issues du lait et ont la caractéristique de contenir les neuf acides aminés essentiels, que le corps ne peut pas fabriquer lui-même.

Il faut bien avoir en tête que ces produits ne sont pas miraculeux. Les protéines en poudre ne sont utiles que si elles accompagnent un entraînement sportif intense et régulier, et qu’elles sont consommées dans le cadre d’une alimentation équilibrée, sur les conseils d’un entraîneur sportif qualifié.

D’autant qu’on sait que, contrairement aux protéines consommées via l’alimentation, on ne consomme pas en même temps d’autres nutriments utiles à l’organisme comme des fibres par exemple, lorsqu’on prend ces compléments. Attention donc, si l’on utilise ces poudres, de continuer aussi de consommer des protéines animales et/ou végétales dans le cadre de son régime alimentaire pour éviter les carences.

 

Les risques possibles

Y a-t-il un risque à consommer des protéines au-delà de l’apport journalier recommandé ?

De manière générale, la consommation à long terme de tout nutriment en grandes quantités peut avoir des effets néfastes sur la santé humaine. Dans la population générale, une consommation de protéines de manière régulière supérieure aux apports journaliers recommandés peut avoir un impact sur la capacité du foie, de l’intestin et des reins à détoxifier l’ammoniaque[1]. Parmi les effets indésirables qui peuvent alors être observés : inconfort intestinal et troubles digestifs, hyperammonémie (élévation de l’ammoniac dans le sang), hyperinsulinémie (élévation de l’insuline), déshydratation, nausées, lésions hépatiques et rénales, fatigue, maux de tête…

Certains travaux ont particulièrement insisté sur les effets délétères sur les reins et le risque d’insuffisance rénale. Cependant, en l’état actuel des connaissances, ce sont surtout les personnes ayant déjà des problèmes rénaux chroniques qui semblent être les plus vulnérables (chez elles, il est recommandé de ne pas dépasser 0,8 g d’apport protéique par kg de poids corporel par jour). D’autres craintes existent sur des possibles risques cardiovasculaires liés à un apport trop grand en protéines, même si les données sur le sujet sont encore parcellaires.

Sur les risques spécifiques à la consommation de poudres, la présence d’additifs comme des édulcorants, des émulsifiants ou des épaississants peut aussi présenter des risques pour la santé à long terme. Par ailleurs, certaines de ces poudres peuvent contenir des produits dopants comme des hormones de croissance et des stéroïdes anabolisants. Des labels antidopage existent, il est important de rester vigilant. L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a mis en place une nutrivigilance sur les compléments alimentaires en général et ces produits en particulier.

Si les protéines sont un allié pour les grands sportifs et peuvent les aider dans leur recherche de performance, il faut néanmoins rester prudent afin de limiter aux mieux les effets potentiellement délétères qu’une surconsommation ou un recours à des compléments alimentaires pourrait entraîner.

Pour éviter les faux pas, le mieux est encore de se faire aider d’un spécialiste de la préparation physique qui saura vous conseiller au mieux pour maximiser vos efforts et les résultats ou d’un expert en nutrition pour adapter au mieux son alimentation.

 

 

Texte rédigé avec le soutien de Catherine Coirault, directrice de recherche Inserm au Centre de Recherche en Myologie, et de Catherine Feart-Couret, chargée de recherche au Bordeaux population health research center.

[1] Dans un foie sain, l’ammoniac n’est présent dans l’organisme qu’en très petites quantités. Chez les personnes en bonne santé, l’intestin et le foie doivent détoxifier environ 5000 mg d’ammoniaque par jour.

Médecine psychédélique : du tourisme thérapeutique aux essais cliniques

© Photo de Possessed Photography sur Unsplash

En février 2024, débutait un essai clinique français impliquant l’usage d’une substance psychédélique, le premier depuis plus de cinquante ans. Mené au CHU de Nîmes, il vise à tester les effets de la psilocybine chez des patients atteint de troubles d’usage de l’alcool associés à la dépression. La France rejoint ainsi les nombreuses études conduites dans la dernière décennie à l’étranger – notamment au Royaume-Uni et aux États-Unis – explorant les effets thérapeutiques des substances psychédéliques pour le traitement de divers troubles psychiatriques.

Bien que présenté par certains professionnels de santé mentale comme un traitement « révolutionnaire », l’usage des psychédéliques à des fins thérapeutiques n’est pas nouveau. D’abord parce qu’une première vague d’essais cliniques avait été conduite en Europe et en Amérique du nord au cours des années 1950-1970. Rappelons en outre que de nombreuses sociétés autochtones des Amériques mobilisent traditionnellement ces substances issues de plantes dans le cadre de rituels thérapeutiques : l’ayahuasca en Amazonie, les champignons psilocybes ou peyotl en Mésoamérique, ou encore le cactus San Pedro dans le monde andin.

Depuis une trentaine d’années, une forme de tourisme thérapeutique s’est développée dans ces régions, et tout particulièrement en Amazonie péruvienne, où se rendent chaque année de nombreux voyageurs internationaux qui souhaitent participer à des pratiques rituelles mobilisant l’usage de l’ayahuasca, un breuvage hallucinogène préparé à partir de plantes endémiques. Principalement issus des classes moyennes ou supérieures américaines et européennes, ces personnes voyagent dans le cadre d’une quête thérapeutique, pour tenter de régler des troubles de santé mentale, améliorer leur bien-être général ou encore faire face à de évènements de vie difficiles. Cette démarche s’inscrit généralement dans un parcours de soins ayant mobilisé, le plus souvent sans succès, d’autres formes de thérapies plus « conventionnelles » dans leur pays d’origine.

Ce tourisme psychédélique a eu un impact important sur les communautés autochtones et leurs pratiques culturelles. Ce phénomène soulève notamment des questions relatives aux dynamiques d’appropriation culturelle – dans la mesure où nombre des « centres chamaniques » accueillant la clientèle internationale sont fondés et dirigés par des occidentaux – mais également aux effets potentiels sur le mode de vie de ces communautés lorsqu’elles s’engagent dans l’industrie du tourisme.

Enfin, s’ils s’appuient sur des pratiques et savoirs « traditionnels », les centres d’Amazonie péruvienne proposant des « retraites chamaniques », transforment également ces pratiques, pour proposer une offre très standardisée aux clients internationaux.

Ceux-ci se voient ainsi presque systématiquement proposer une expérience fondée sur le recours à des plantes dites « purgatives » (vomitives ou laxatives) utilisées à des fins de purification, des retraites dans la jungle accompagnant l’ingestion d’autres plantes (« diètes ») et de rituels d’ayahuasca, souvent accompagnés de groupes de parole, voire d’un accompagnement psychothérapeutique. Au sein de ces institutions éminemment interculturelles, on voit ainsi les guérisseurs autochtones adapter leurs pratiques traditionnelles et adopter un vocabulaire emprunté à la médecine et à la psychologique occidentale. Nombre d’entre affirment par exemple être à même de guérir le « burnout » ou la « dépression ».

Un intérêt scientifique renouvelé

La popularité de ce tourisme psychédélique est l’un des facteurs qui a contribué à renouveler l’intérêt de la science et de la médecine pour les propriétés thérapeutiques de ces substances. Mais cet intérêt a également été soutenu par le travail d’associations anglo-saxonnes comme la fondation Beckley ou MAPS, qui militent depuis plusieurs décennies pour la reprise des essais cliniques sur ces substances.

Ces efforts ont conduit à une réintroduction progressive de ces substances dans la recherche. Depuis le début du 21e siècle, un nombre croissant d’essais clinique a été initié, principalement dans les pays anglo-saxons, mais également en Suisse, en Allemagne ou au Brésil. Ces recherches visent à évaluer l’efficacité des psychédéliques dans le traitement de divers troubles de santé mentale (dépression, anxiété, syndrome de stress post-traumatique, troubles obsessionnels-compulsifs ou addictions), notamment pour les patients ne répondant pas aux interventions thérapeutiques conventionnelles ou aux traitements médicamenteux actuellement disponibles.

Les premiers résultats de ces études, publiés dans de prestigieuses revues scientifiques, laissent entrevoir plusieurs applications thérapeutiques possibles pour ces substances. Parmi les travaux les plus aboutis, des études mettent par exemple en évidence l’efficacité de l’ayahuasca et de la psilocybine, substance active des champignons hallucinogènes, dans le traitement de la dépression, ou du LSD dans le traitement de l’anxiété. Dans l’attente des résultats définitifs d’essais cliniques de phase 3, certains pays, dont l’Australie et les États-Unis, ont déjà accordé des autorisations préliminaires de mise sur le marché de certains psychédéliques pour le traitement de certains troubles tels que le syndrome de stress post-traumatique et la dépression.

En France, en plus de l’étude lancée à Nîmes début 2024, trois autres essais devraient prochainement voir le jour. La première étude testera les effets du LSD dans le traitement de l’alcoolisme, la seconde ceux de la psilocybine sur cette même indication, et la dernière, menée sur plusieurs sites hospitaliers français, les effets de la psilocybine sur la dépression résistance aux traitements. Je collabore pour ma part avec les équipes de ces deux derniers projets.

Des défis cliniques et éthiques

Si la dynamique en faveur de la mise à disposition des patients de ces substances est forte, il ne suffira pas de consolider les résultats scientifiques pour que les psychédéliques soient déployés rapidement dans la pratique médicale. La « médicalisation » des psychédéliques suscite en effet d’importantes enjeux socio-économiques, culturels et éthiques, et pose des questions tout à fait inédites en termes cliniques.

A la différence des traitements psychotropes habituellement prescrits, les effets – et donc les bénéfices – de ces substances dépendent en effet fortement du contexte d’administration. Il est donc indispensable d’accompagner leur administration dans des salles dédiées et adaptées, par des équipes formées et mobilisées pendant plusieurs heures, le temps que les effets de la substance s’atténuent.

Pour en savoir plus lire notre article dans le magazine 60 de l’Inserm : « Substances psychédéliques : une révolution pour traiter la dépression ? »

La disposition psychologique des patients joue également un rôle central dans l’efficacité des psychédéliques. Des séances de préparation sont ainsi nécessaires en amont afin d’expliquer et de prévenir les effets parfois éprouvants de ces substances, tel que l’anxiété. De nombreuses études soulignant l’importance d’articuler l’usage de ces substances à des séances de psychothérapie, qui permettent d’inscrire ces expériences dans un processus thérapeutique.

Ces substances nécessitent donc un dispositif plus lourd et coûteux que les thérapies médicamenteuses conventionnelles, ce qui pose la question de sa capacité à être diffusé largement et des inégalités d’accès qui pourraient se poser.

Enfin, les psychédéliques sont connus pour susciter des expériences « mystiques », amenant certains patients à faire l’expérience du « divin », à « voir » des personnes décédées ou à se « remémorer » des expériences traumatiques supposées. Comment accompagner au mieux ces expériences, qui peuvent être vécues par les patients comme plus réelles que la réalité ordinaire? Quel statut leur accorder au sein de la prise en charge thérapeutique ? Alors que la suggestibilité est augmentée lors de ces expériences, quelles bonnes pratiques les cliniciens doivent-ils adopter pour éviter d’influencer les patients lors de leurs interventions ?

Autant de questions passionnantes et nouvelles dans le domaine de la psychiatrie, sur lesquelles les chercheurs et cliniciens ne pourront pas faire l’impasse.

 

 Texte rédigé avec le soutien de David Dupuis, chargé de recherche à l’Inserm, docteur en anthropologie et commissaire de l’exposition « Visions chamaniques » au Musée du Quai Branly.

Mincir grâce aux médicaments « coupe-faim », vraiment ?

balance© Photo i yunmai/Unsplash

Des vidéos sur TikTok qui vantent les mérites d’un médicament contre le diabète de type 2 « détourné » pour perdre du poids, des unes de journaux qui s’interrogent pour savoir si nous pourrions tous devenir « minces » grâce à une nouvelle génération de traitements de l’obésité… Ce n’est pas une nouveauté : la perte de poids est fréquemment présentée comme une préoccupation majeure dans les médias et sur les réseaux sociaux.

Sur ces plateformes, des messages de prévention pour lutter contre l’obésité, qui constitue une priorité de santé publique, fondés sur des bases scientifiques solides, sont véhiculés aux côtés de nombreux stéréotypes associant beauté et minceur ainsi que de recettes « miraculeuses » pour perdre du poids. Dans ce contexte où la confusion règne et où le public se retrouve exposé à des injonctions contradictoires, le sujet des « coupe-faim », des molécules présentées comme efficaces pour perdre du poids, trouve régulièrement un écho important.

Mais à quoi renvoie réellement ce terme de « coupe-faim » et est-il vraiment adapté ? Au-delà des tendances et des soi-disant remèdes pour perdre du poids qui s’affichent sur les réseaux sociaux, quelles approches thérapeutiques sont réellement pertinentes pour les personnes en situation d’obésité ? Canal Détox fait le point.  

À l’échelle de la planète, le surpoids et l’obésité sont en augmentation depuis 1990 dans la plupart des pays, comme l’indique un récent article dans The Lancet, et touchent plus d’une personne sur huit dans le monde. Il s’agit d’un problème de santé publique très important, d’autant que cette maladie chronique est associée à de nombreuses comorbidités (diabète, cancers, maladies cardiovasculaires, du foie, des articulations…). Toutes les données scientifiques et cliniques actuellement disponibles soulignent que, pour être efficace, la prise en charge de l’obésité doit être multidisciplinaire et tenir compte du contexte et de l’environnement propre à chaque personne.

Ainsi, des interventions pour transformer les habitudes alimentaires et lutter contre la sédentarité sont nécessaires. Elles doivent néanmoins être combinées à un accompagnement personnalisé qui tienne compte des freins psychologiques, du mode de vie et de l’histoire personnelle de chacun, de la nécessité de traiter les comorbidités, mais aussi du fait que la perte de poids est conditionnée par une grande variabilité interindividuelle. En bref, la médecine de l’obésité doit être globale et holistique.

Dans certains cas, quand l’obésité est installée de manière durable et particulièrement complexe à prendre en charge, il peut être nécessaire d’avoir recours à des outils médicamenteux ou à la chirurgie bariatrique. Toutefois, cette dernière est réservée uniquement aux cas les plus sévères, c’est-à-dire à des personnes avec un indice de masse corporelle (IMC) supérieur ou égal à 35 kg/m² avec une complication associée ou avec un indice de masse corporelle supérieur à 40 kg/m².

 

Liraglutide et sémaglutide

Sur le plan des médicaments, un traitement de première génération, l’orlistat, a longtemps été prescrit aux patients souffrant d’obésité (IMC > 30 kg/m²). Cette molécule fonctionne en bloquant l’action d’une enzyme qui permet l’absorption des graisses. Néanmoins, bien qu’une réduction du risque de diabète ait été observée, son efficacité demeure assez limitée, la perte de poids moyenne constatée avec ce traitement étant relativement modérée

Ces dernières années, d’autres avancées thérapeutiques se sont matérialisées grâce au développement d’une nouvelle classe de médicaments qui imitent l’hormone glucagon-like peptide 1 (GLP-1) : les analogues du GLP-1. Ces médicaments contiennent généralement soit du liraglutide, soit du sémaglutide. Ces deux molécules analogues du GLP-1 ont notamment pour effet d’augmenter la sensation de satiété, et donc de permettre aux personnes de mieux contrôler leurs apports alimentaires.

À l’heure actuelle, le liraglutide peut être prescrit à raison d’une injection par jour, mais il n’est pas remboursé par la Sécurité sociale. Quant au sémaglutide, il n’est aujourd’hui autorisé en France que pour le traitement du diabète de type 2 et commercialisé sous le nom de marque Ozempic.

Le sémaglutide sous une forme plus dosée que l’Ozempic a par ailleurs été développé pour le traitement de l’obésité (il s’agit d’un médicament appelé Wegowy). Déjà autorisé aux États-Unis, il a pu être proposé à près de 10 000 personnes avec une obésité sévère avec au moins une comorbidité (IMC > 40 kg/m²) en France dans le cadre d’une expérimentation qui doit se poursuivre jusqu’à l’automne 2024. Cependant, des retours des agences réglementaires sont désormais attendus pour étendre sa prescription à un plus grand nombre de patients.

Les « coupe-faim », un terme inadapté ?

Dans les médias, les analogues du GLP-1 sont souvent désignés comme des « coupe- faim ». Un terme que certains médecins estiment être inadapté. En effet, ces médicaments régulent l’appétit et augmentent la sensation de satiété. Résultat : l’envie de manger n’est plus une préoccupation centrale et permanente, et les patients reprennent le contrôle de leur appétit, sans pour autant que toute sensation de faim disparaisse.

 

La folie de l’Ozempic

Ces bases étant posées, revenons sur la popularité qu’a connue l’une de ces molécules, l’Ozempic, sur les réseaux sociaux. Au cours de l’année écoulée, dans des vidéos ou des articles partagés de nombreuses fois, certains créateurs de contenus ont conseillé aux personnes qui les suivent d’utiliser ce médicament (indiqué, rappelons-le, pour le traitement du diabète de type 2), comme un « coupe-faim », afin de perdre quelques kilos. Cette tendance, qui consiste à détourner un médicament prescrit dans des circonstances bien spécifiques pour favoriser la perte de poids, est problématique à plusieurs égards.

Premièrement, parce que prendre un médicament pour une autre indication que celle pour laquelle il a été mis sur le marché, ici simplement pour perdre quelques kilos, comporte des risques pour la santé. Parmi les effets secondaires associés à l’Ozempic, on retrouve par exemple fréquemment des problèmes digestifs qui peuvent avoir un impact sur la qualité de vie.

On peut aussi citer une étude parue en octobre dans la revue JAMA, qui suggère que la prise d’analogues du GLP-1 pour perdre du poids peut entraîner des affections gastro-intestinales rares mais sévères (pancréatite, obstruction intestinale, pathologies biliaires ainsi qu’un retard dans le passage des aliments de l’estomac vers l’intestin grêle). S’exposer à ce type d’effets alors que l’on n’est pas malade et qu’on souhaite juste perdre quelques kilos n’est pas anodin. Enfin, ce médicament peut entraîner une perte de poids importante qui peut être dangereuse sans contrôle médical.

Il faut bien avoir en tête qu’il n’y a pas de solution « miracle » pour perdre du poids. Cela repose toujours sur une combinaison de facteurs individuels (adapter son mode de vie et son alimentation, avoir une activité physique régulière, changer son rythme de sommeil, agir sur le stress…) et non sur la prise d’un médicament unique qui résoudrait d’un coup tous les problèmes. Les facteurs impliqués dans l’obésité sont différents d’une personne à l’autre et doivent être analysés. Du fait, en fonction de notre patrimoine génétique, nous prenons (et perdons !) du poids différemment en réponse à l’environnement.

Deuxièmement, on sait qu’il existe déjà des tensions d’approvisionnement sur l’Ozempic : même les personnes diabétiques qui en ont vraiment besoin peuvent avoir du mal à s’en procurer. Soulignons que le mésusage et le détournement de ce médicament existe en France mais ne correspondrait qu’à 1,5 % des prescriptions selon les données de la Caisse nationale d’assurance maladie. Il n’est donc pas directement en cause dans ces tensions d’approvisionnement. Néanmoins, il s’agit d’une tendance à surveiller et à ne pas prendre la légère, ne serait-ce que pour assurer l’accès à long terme du médicament aux patients qui en ont besoin.

 

Que disent les essais pour le traitement de l’obésité ?

Au-delà de ces considérations, les scientifiques s’accordent pour dire que les analogues du GLP-1 s’avèrent prometteurs pour les personnes en situation d’obésité et pour qui la perte de poids est un impératif de santé.

Plusieurs essais cliniques (notamment les essais STEP) ont montré que chez des participants en situation d’obésité, sans diabète, la prise d’un médicament comme le Wegovy à une dose de 2,4 mg par semaine entraîne une perte de poids allant de 10 à 20 % sur un an. Par ailleurs, plusieurs études ont aussi indiqué une amélioration notable des paramètres métaboliques chez les participants (glycémie, cholestérol, inflammation…). Un suivi sur plus de trois ans a également permis de montrer une diminution de la mortalité cardiovasculaire chez des personnes obèses ou en surpoids ayant un historique de maladie cardiovasculaire.

Toutefois, là encore, la prise de ces médicaments doit se faire avec l’accompagnement d’un médecin, dans le cadre d’une prise en charge globale et en tenant bien entendu compte des éventuels effets secondaires. Ces options thérapeutiques ouvrent également de nouvelles questions sur la durée du traitement dans cette maladie chronique, avec un risque de reprise de poids en cas d’arrêt, sur lesquelles la recherche doit se pencher.

Une chose est sûre : si ces médicaments peuvent aboutir à une perte de poids importante et soutenue sur le long terme chez les patients obèses et s’ils représentent donc un outil très important à ajouter à l’arsenal thérapeutique, il faut aussi rappeler qu’aucune molécule « miracle » ne pourra à elle seule mettre fin à l’obésité.

Ces progrès ne doivent pas non plus faire oublier que l’obésité est un problème de santé publique global, majeur et qui prend un peu plus d’ampleur chaque année. Il est donc nécessaire de continuer à proposer une prise en charge complète, interdisciplinaire et, à mesure que les connaissances progressent sur la biologie de l’obésité, de plus en plus personnalisée, pour répondre aux problématiques spécifiques à chaque individu.  Mais aussi d’insister sur les mesures de prévention et politiques de santé publique, tout aussi essentielles pour agir sur les comportements et les modes de vie. Soutenir la recherche est primordial pour continuer à faire progresser les connaissances sur cette maladie complexe, et notamment tous ses mécanismes biologiques sous-jacents.

 Texte rédigé avec le soutien de Karine Clément, médecin, professeure de nutrition, directrice du laboratoire NutriOmique (Inserm/Sorbonne Université/APHP) et présidente de l’Association française d’étude et de recherche sur l’obésité – AFERO (afero.fr)

La « malbouffe » une cause de dépression, vraiment ?

aliments ultra-transformésAliments ultra-transformés © Photo de No Revisions sur Unsplash

La « malbouffe » augmenterait le risque de dépression. C’est avec ce titre qu’une étude a récemment été reprise très largement dans les médias. Mais au-delà des raccourcis médiatiques, que montrent précisément ces travaux scientifiques et quelles sont les implications en matière de santé publique ? Plus généralement, que sait-on aujourd’hui des associations entre alimentation et santé mentale ? Canal Détox revient sur ce sujet aussi complexe que passionnant.

Symptômes dépressifs et dépression – quelques repères

La dépression, ou « épisode dépressif caractérisé », touche tous les âges de la vie.  Elle est définie par la présence de trois symptômes dépressifs (tristesse/humeur dépressive, perte d’intérêt et abattement, perte d’énergie) associés sur la même période à au moins deux autres symptômes secondaires. Ces symptômes doivent être présents durant une période minimum de deux semaines, presque tous les jours, induire une détresse significative et avoir un retentissement sur les activités habituelles.

Attention, l’épisode dépressif caractérisé doit être distingué d’un sentiment de tristesse, d’un état réactionnel, d’un deuil… Il n’est pas à confondre avec le terme « déprime » utilisé dans le langage courant, qui correspond à un moment de vie passager où l’on peut ressentir des symptômes dépressifs isolés ou transitoires. Son diagnostic nécessite une démarche clinique approfondie – parfois sur plusieurs consultations – avec un professionnel de santé.

On peut aussi dire que la « déprime » se distingue de l’épisode dépressif caractérisé par la non-persistance des symptômes et le fait qu’elle n’a pas ou peu d’impact sur les activités quotidiennes des individus. L’épisode dépressif caractérisé affecte en revanche en profondeur la vie sociale, familiale et professionnelle des patients, augmente le risque de mortalité prématurée et, dans les cas les plus graves, mène au suicide : il est la première cause de mortalité chez les jeunes. Il est associé à un dysfonctionnement social et à une souffrance personnelle majeurs, avec des conséquences parfois lourdes en matière de fonctionnement social, de santé et même de décès, le risque de passage de suicide étant particulièrement élevé.

La crise sanitaire de la Covid-19 a engendré une augmentation importante d’épisodes dépressifs caractérisés.

Lire le dossier complet sur notre site : https://www.inserm.fr/dossier/depression/

L’étude en question, qui a beaucoup été médiatisée, a été publiée dans la revue Nutritional Neurosciences en mars 2023. Si c’est le terme « malbouffe » qui a été retenu pour communiquer auprès du public, il faut souligner que l’équipe de recherche s’est en fait spécifiquement intéressée à la consommation d’aliments dits « ultra-transformés ». Il s’agit des aliments qui nécessitent l’utilisation de plusieurs procédés de transformation et d’additifs qui vont modifier leur texture, leur saveur, leur durée de conservation.

Les scientifiques ont étudié l’association entre des apports élevés de ces aliments ultra-transformés et la récurrence de symptômes dépressifs au sein d’une population britannique. Ils ont examiné le poids de ces aliments dans les relations entre alimentation et symptômes dépressifs.

Les analyses des chercheurs suggèrent qu’il existe bien une association significative entre une consommation élevée d’aliments ultra-transformés et le risque de récurrence de symptômes dépressifs au cours du suivi de la cohorte. Ainsi, les participants qui consommaient le plus d’aliments ultra-transformés (soit un tiers de leurs apports totaux) avaient 30 % de risque supplémentaire de présenter des épisodes de symptômes dépressifs récurrents, en comparaison avec les participants consommant moins d’aliments ultra-transformés.

Cette étude menée au sein d’une cohorte britannique conforte des résultats observés auparavant dans des populations méditerranéennes, dont la consommation d’aliments ultra-transformés est pourtant plus modérée. Ce type d’étude nécessiterait cependant d’être reproduite afin de pouvoir généraliser les conclusions.

Par ailleurs, il est important de souligner que dans les études observationnelles comme celle-ci, la mesure des symptômes dépressifs repose souvent sur des échelles auto-remplies par les participants à propos de leurs symptômes, et ne constitue donc pas un diagnostic de dépression.

Ajoutons aussi que si l’association ente aliments ultra-transformés et symptômes dépressifs mise en lumière dans cette étude semble robuste, et que de potentiels facteurs environnementaux et socioéconomiques confondants ont bien été pris en compte pour estimer les associations, le lien de causalité ne peut toutefois pas être établi.  On ne peut pas affirmer que le fait de manger des aliments ultra-transformés en grande quantité va automatiquement causer le développement de symptômes dépressifs.

Quelle est la différence entre lien de causalité et association statistique ?

Attention, les études observationnelles en épidémiologie permettent d’établir des associations statistiques mais pas des relations causales. Prenons un exemple : les ventes de glaces et les attaques de requins augmentent quand il fait chaud – il y a donc une association statistique entre les deux phénomènes – mais on ne peut pas parler de relation causale. En effet, les ventes de glaces ne poussent pas plus les requins à attaquer les humains et les attaques de requins n’incitent pas les humains à consommer des glaces !

En revanche, les deux phénomènes arrivent plus fréquemment par beau temps, quand les températures sont élevées et que les gens sont à la plage.

 

Il est enfin utile à ce stade de rappeler que la dépression est une maladie psychiatrique multifactorielle et complexe. Certains types de régimes alimentaires pourraient peut-être constituer un facteur de risque d’en développer certains symptômes, et font à ce titre l’objet de recherches, comme en témoigne cette étude. En revanche, l’alimentation ne peut seule être mise en cause dans le développement de symptômes dépressifs et de la dépression.

 

L’importance de poursuivre les recherches

Revenir sur cette étude permet aussi de souligner à quel point il s’agit d’un domaine de recherche en plein essor. Un nombre croissant de scientifiques s’intéressent au lien entre alimentation et santé mentale.

Un axe de recherche récent a par exemple consisté à s’interroger sur le sens de la relation entre alimentation et épisode dépressif caractérisé : est-ce vraiment le fait de mal manger qui augmente le risque de dépression ou est-ce plutôt le fait d’être déprimé qui inciterait à la malbouffe ? Le lien est bidirectionnel, mais les analyses d’études prospectives évaluant le risque de dépression à partir du régime renseigné par des participants ont permis de montrer qu’au-delà de la détérioration des habitudes alimentaires constatée lors d’épisodes dépressifs, l’alimentation joue bien un rôle dans le développement de la maladie.

De nombreuses études se sont aussi intéressées à l’impact du régime méditerranéen sur le risque de développer des symptômes dépressifs. La qualité des méthodologies varie avec des différences dans le vocabulaire employé (certaines parlent d’épisode dépressif caractérisé alors que d’autres se concentrent simplement sur les symptômes dépressifs). Néanmoins, dans leur grande majorité, ces travaux concluent que le fait d’adopter un régime de type méditerranéen permettrait de prévenir le développement de symptômes dépressifs mais aussi les troubles de l’anxiété. Des travaux complémentaires devront être réalisés pour parvenir à expliquer ces associations sur le plan biologique et métabolique.

Des travaux suggèrent déjà que le régime méditerranéen a des propriétés anti-inflammatoires, neuroprotectrices, immunomodulatrices et antioxydantes qui sont associées à un risque plus faible de développer de tels symptômes. À l’inverse, un régime alimentaire caractérisé par une forte consommation d’aliments sucrés et d’aliments riches en acides gras saturés et transformés pourrait exercer un effet délétère sur les voies physiopathologiques liées à la dépression, notamment l’inflammation, le stress oxydatif, le microbiome intestinal, les altérations épigénétiques et la neuroplasticité. De nouvelles études sont attendues pour décrire plus précisément ces mécanismes, ce qui permettrait de mieux accompagner les patients et d’apporter des conseils plus ciblés sur les régimes alimentaires à adopter.

En attendant les résultats de tels travaux, la nécessité d’avoir une alimentation équilibrée, s’inspirant du régime méditerranéen, couplée à une activité physique et à une durée de sommeil suffisante, reste un message de santé publique pertinent, qui ne peut qu’être bénéfique pour la santé physique comme mentale.

C’est normal d’avoir mal pendant les règles, vraiment ?

Modélisation en 3D d’un utérusModélisation en 3D d’un utérus. © Adobe Stock

Combien de fois les femmes n’ont-elles pas entendu qu’il était normal d’avoir des douleurs au moment des règles ? Au point que peu d’entre elles consultent aujourd’hui pour ces douleurs et d’autres symptômes prémenstruels et/ou menstruels.  

Pourtant, depuis quelques années, la parole se libère. La visibilité nouvelle donnée à l’endométriose a notamment permis de positionner le sujet des maladies gynécologiques, et plus spécifiquement des douleurs de règles, dans le débat public. Sur les réseaux sociaux, les comptes dédiés aux problématiques gynécologiques se multiplient, on parle de règles sans tabou, et des termes comme « syndrome prémenstruel », « trouble dysphorique prémenstruel » ou « dysménorrhée » commencent à émerger dans les discussions.

Dans ce nouveau Canal Détox, l’Inserm revient sur ces différentes notions qui font souvent l’objet de confusions et d’idées reçues, mais aussi sur l’importance de proposer une prise en charge plus adaptée et plus complète, prenant réellement en compte la parole et les expériences des femmes.

 

Comprendre la situation et la prévalence de la douleur  

On dit souvent que les douleurs associées aux règles sont « normales ». En fait, dans la pratique clinique, la question est rarement posée aux femmes et nombre d’entre elles choisissent de ne pas consulter, craignant qu’il ne s’agisse pas d’un problème de santé considéré « légitime » et redoutant de ne pas être prises au sérieux, comme l’ont rapporté plusieurs études qualitatives portant sur l’expérience des femmes face aux services de santé. Dans les faits, le tableau complet de situation concernant les douleurs de règles – scientifiquement appelées « dysménorrhées » – est souvent mal compris, de même que leur impact sanitaire et socio-économique.

Une équipe de recherche impliquant des scientifiques de l’Inserm a permis d’y voir plus clair sur la situation française, en menant une large étude s’appuyant sur les données de la cohorte Constances[1]. Plus spécifiquement, les chercheurs se sont intéressés à 21 287 femmes âgées de 18 à 49 ans ayant répondu à des questionnaires de santé, et notamment à des questions sur d’éventuelles dysménorrhées, dyspareunies (douleurs pendant et après les rapports sexuels) et douleurs pelviennes non liées aux règles.

Le résultat concernant les dysménorrhées est sans appel : les douleurs de règles seraient particulièrement fréquentes dans la population française. Environ 90 % des femmes réglées de 18 à 49 ans présentent une dysménorrhée cotée de 1 à 10 (sur une échelle où 0 correspond à aucune douleur et 10 à une douleur maximale insupportable). Parmi elles, 40 % vont présenter une dysménorrhée modérée à sévère avec une douleur comprise entre 4 et 10.

Les causes de ces douleurs peuvent être variées. L’endométriose concerne environ 1 femme sur 10 : les formes symptomatiques pourraient donc expliquer une partie des cas, mais ne peuvent seules être mises en cause dans la prévalence élevée des douleurs menstruelles. D’autres facteurs ont parfois été avancés comme des malformations utérines, des maladies inflammatoires du bas ventre… Il faut néanmoins souligner que les douleurs ne sont pas toujours associées à une pathologie sous-jacente. Au moment des règles, l’utérus produit des substances inflammatoires nommées prostaglandines, provoquant des contractions musculaires pouvant être douloureuses, sans qu’une maladie particulière ne soit responsable.

Pourquoi certaines femmes sont-elles tout de même plus sujettes que d’autres à ces douleurs ? La réponse n’est pas encore tout à fait claire. Des publications, comme par exemple une revue de littérature dans Epidemiologic Reviews, suggèrent que les antécédents familiaux de dysménorrhée augmentent fortement le risque pour une femme de souffrir à son tour de ces douleurs. Par ailleurs, des données épidémiologiques indiquent que des facteurs modifiables tels que le tabagisme, l’alimentation ou l’obésité pourraient jouer un rôle, mais ces données ne sont pas encore assez nombreuses ni assez solides pour être concluantes, et les scientifiques ne comprennent pas encore quels pourraient être les mécanismes physiopathologiques sous-jacents.

Il est surtout crucial de s’intéresser au retentissement de ces douleurs sur le quotidien des femmes, en prenant le temps de les écouter et de leur poser des questions spécifiquement sur ce sujet. Avoir mal pendant les règles n’est ni normal, ni une fatalité et une prise en charge adaptée, passant parfois par l’utilisation de certains traitements (antidouleurs, traitements hormonaux dans certains cas…) peut avoir des effets bénéfiques.

Des études plus précises pour comprendre l’impact des douleurs sur les activités quotidiennes mais aussi sur les barrières à l’accès aux soins pourraient apporter de précieuses informations, permettant de mieux prendre en charge les patientes à l’avenir.

 

Et le syndrome prémenstruel dans tout cela ?

Au-delà de la discussion qui commence à s’ouvrir au sujet des douleurs, quand on aborde le sujet des règles, c’est surtout les termes de « syndrome prémenstruel » et de « trouble dysphorique prémenstruel » qui sont le plus souvent évoqués dans les médias et sur les réseaux sociaux. Les deux notions sont parfois confondues et pas toujours bien définies – d’autant qu’aucun mécanisme physiopathologique n’a été bien décrit dans la littérature scientifique jusqu’ici.

On s’accorde toutefois généralement pour dire que le syndrome prémenstruel est une série de symptômes physiques et psychiques qui démarrent entre quelques heures et plusieurs jours avant les règles, et qui disparaissent généralement peu après leur arrivée. A priori sans gravité, ces symptômes sont néanmoins désagréables, franchement pénibles voire handicapants pour certaines femmes. Comme on ne comprend pas encore bien l’origine de ces symptômes, il n’existe aucun traitement spécifique actuellement.

Lire notre article sur le sujet : C’est quoi le syndrome prémenstruel ?

Cependant, plusieurs approches peuvent être proposées aux patientes pour réduire les désagréments, notamment en agissant sur certaines habitudes (tenter d’avoir un meilleur sommeil, pratiquer une activité physique, réduire la consommation d’alcool et de caféine…) ou en prescrivant des traitements pour lutter contre les symptômes. En gardant en tête que toutes les femmes sont différentes et que ce qui fonctionne pour l’une n’est pas toujours efficace pour une autre. Là encore, écouter la parole des patientes, s’efforcer de personnaliser l’approche thérapeutique et prendre en compte le vécu de la personne est essentiel.

Que sait-on du trouble dysphorique prémenstruel ?

Depuis quelque temps, on entend aussi souvent parler de « trouble dysphorique prémenstruel ». Celui-ci est souvent défini comme une forme sévère de syndrome prémenstruel, avec au premier plan d’importants symptômes psychologiques (symptômes dépressifs, anxiété, sautes d’humeur…). Au point que certains médecins le rangent même dans la catégorie des troubles psychiatriques. Ce point fait néanmoins débat dans la communauté scientifique, d’autant que les mécanismes biologiques et fonctionnels sous-jacents ne sont pas encore compris.

En bref, il n’y a pas encore de définition claire et consensuelle de ce trouble, de sa prévalence et de qui sont les personnes qui sont le plus touchées. La bonne nouvelle, c’est que de plus en plus de recherches s’intéressent au sujet, et plus précisément au rôle des hormones et d’autres mécanismes biologiques. Mais les limites méthodologiques demeurent importantes et la distinction avec la notion de « trouble prémenstruel » n’est pas toujours faite dans ces études. Des travaux de qualité, s’appuyant sur une définition plus précise de ce trouble, seraient nécessaires pour y voir plus clair et pour apporter de véritables réponses aux patientes.

 

Quelques idées reçues sur les règles et le cycle menstruel

1) « L’ovulation se produit nécessairement le 14e jour après le début des règles » : la première moitié du cycle menstruel (phase folliculaire) peut avoir une longueur très variable, entre 5 et 20 jours sans que ce soit pathologique. L’ovulation peut donc intervenir plus tôt ou plus tard que le 14e jour.

2) « Le sport et les règles sont incompatibles » : cette idée est répandue, probablement parce que les douleurs et autres symptômes que l’on peut ressentir pendant les règles peuvent décourager la pratique de l’exercice. Et pourtant, de nombreuses études ont permis de montrer que l’activité physique a au contraire un impact bénéfique sur les douleurs. Une revue Cochrane a récemment montré que les exercices de faible intensité, comme le yoga, ou de forte intensité, comme l’aérobic, peuvent réduire considérablement l’intensité des douleurs par rapport à l’absence d’exercice.

3) « Il est impossible de tomber enceinte pendant ses règles » : si la probabilité est effectivement proche de 0, il faut garder en tête que les cycles ne sont pas toujours réguliers et varient aussi d’une femme à l’autre. Les femmes sont généralement fertiles environ entre les jours 10 et 21 du cycle. Si les règles durent 5 à 7 jours et qu’un rapport sexuel intervient vers la fin de celles-ci, il est théoriquement possible de concevoir, car le sperme peut survivre jusqu’à 5 jours après les rapports sexuels dans le tractus génital féminin.

4) « Notre cycle menstruel se synchronise avec celui de nos proches » : si vous habitez avec d’autres femmes, vous avez peut-être déjà eu vos règles au même moment et vous vous êtes donc fait la réflexion que vos cycles se calaient l’un sur l’autre. La plupart des études qui tentent de confirmer ce phénomène ont été critiquées pour leur méthodologie peu rigoureuse et il n’existe pour l’heure aucune preuve d’une possible « synchronisation des cycles ». Comme les règles durent plusieurs jours par mois et reviennent en moyenne toutes les trois semaines, le fait de les avoir en même temps qu’une proche tient plus de la probabilité statistique que d’un phénomène biologique. On peut ici aussi rappeler qu’aucune étude non plus n’a apporté de preuve concernant un quelconque lien entre le cycle lunaire et le cycle menstruel.

5) « Un cycle irrégulier est un signe d’infertilité » :  cette idée est également fausse. Une femme peut ovuler un jour différent à chaque cycle et donc présenter des cycles irréguliers, sans qu’il y ait infertilité. D’ailleurs, il est utile de rappeler que lorsqu’on parle d’« infertilité », on parle d’un couple et non d’une personne seule.

[1] Constances est une cohorte épidémiologique « généraliste » constituée d’un échantillon représentatif de 200 000 adultes âgés de 18 à 69 ans à l’inclusion, consultant des centres d’examens de santé (CES) de la Sécurité sociale.

 

Texte rédigé avec le soutien du Dr François Margueritte, gynécologue obstétricien et  chercheur au CESP Inserm U1018, équipe soins primaires et prévention

 

Les infections fongiques, la nouvelle pandémie, vraiment ?

Spores fongiques et "tête aspergillaire" du champignon microscopique Aspergillus fumigatus en culture (grossissement x 400)
Spores fongiques et « tête aspergillaire » du champignon microscopique Aspergillus fumigatus en culture (grossissement x 400) © JP Gangneux/CHU de Rennes
(Mis à jour le 15 avril 2025)

Alors que les bactéries résistantes aux antibiotiques constituent un problème de santé publique toujours plus important, le corps médical et scientifique est aujourd’hui confronté à l’émergence d’une nouvelle menace infectieuse : celle des champignons résistants aux traitements antifongiques. Depuis quelques années, des épidémies dues à des champignons microscopiques ont émergé dans le monde, et la transmission de ces agents infectieux a été particulièrement visible lors de la pandémie de Covid-19, profitant de la promiscuité et des protocoles de soins dégradés causés par l’afflux massif de patients. Preuve que ce sujet est de plus en plus prégnant, l’Organisation mondiale de la santé a publié fin 2022 la toute première liste d’agents pathogènes fongiques prioritaires, répertoriant les dix-neuf champignons les plus menaçants pour la santé publique. L’objectif de cette liste est d’alerter et d’orienter les travaux de recherche et les politiques publiques sur ces pathogènes encore mal connus et peu étudiés[1].

Dans le même temps, la pop culture a vu revenir les infections fongiques sur le devant de la scène avec la sortie début 2023 de la première saison de la série post-apocalyptique The Last of Us, adaptée du jeu vidéo éponyme. Pourtant, le champignon responsable de la pandémie mis en scène ici ne fait pas partie de ceux considérés comme menaçants par l’OMS. Non, ce supposé pathogène qui transforme les personnes infectées en créatures cannibales est inspiré des champignons macromycètes[2] du genre Ophiocordyceps qui infectent certaines espèces d’insectes chez qui ils provoquent des comportements anormaux. La franchise The Last of Us propose une théorie intéressante : le réchauffement climatique aurait poussé ce champignon – qui habituellement prospère autour de 18 °C –, à s’adapter à des températures plus élevées. Il serait ainsi devenu capable de contaminer des espèces aux organismes plus chauds que les insectes, comme les mammifères et, par extension, les êtres humains.

Mais, au-delà de la fiction, cette théorie inquiétante est-elle scientifiquement crédible ? Peut-on envisager que le réchauffement climatique puisse a minima favoriser les infections fongiques, voire entraîner la mutation ou l’émergence d’une espèce de champignons susceptible d’altérer le comportement humain ? Les infections fongiques constituent-elles déjà la prochaine grande pandémie ? Canal Détox s’est penché sur ces questions.

Les personnes immunodéprimées et fortement médicalisées : une population à risque d’infections fongiques graves

Les champignons dont les spores sont capables d’infecter l’humain[3] peuvent causer des infections superficielles relativement simples à traiter, mais également des infections plus sévères, qui, à partir d’une infection locale, peuvent diffuser vers d’autres parties du corps par la circulation sanguine. Ces infections fongiques graves (dites « invasives et disséminées ») présentent un taux de mortalité élevé alors que le nombre d’antifongiques disponibles demeure limité.

Ces infections graves, responsables annuellement d’environ 1,6 million de décès dans le monde, touchent principalement des populations vulnérables de personnes immunodéprimées : patients bénéficiant d’une greffe d’organe ou de cellules souches hématopoïétiques, touchés par un cancer, par le sida ou atteints d’une maladie respiratoire chronique… Ces patients sont en outre fortement exposés au milieu hospitalier et à des soins et actes médicaux réguliers et parfois invasifs, pouvant favoriser les contaminations.

Dans le contexte de la pandémie de Covid-19, la situation des épidémies fongiques dans les hôpitaux, mais également dans la population générale, s’est brutalement aggravée : tandis que les infections courantes (comme les mycoses orales et vaginales) sont devenues plus résistantes aux traitements, les infections fongiques graves ont augmenté de manière significative chez les patients hospitalisés. Les chiffres étaient ainsi particulièrement alarmants pour les Covid sévères, avec une estimation de 10 à 20 % de patients sous assistance respiratoire infectés en réanimation et présentant un risque de mortalité dépassant 60 %. En 2025, période post-vaccination Covid, les patients souffrant de Covid sévère sont toujours à risque d’infections fongiques invasives.

Plusieurs études se sont penchées sur cette période[4], soulignant que la pandémie de Covid-19 a présenté trois grandes caractéristiques particulièrement propices à la progression des infections fongiques en milieu hospitalier : les poumons des patients endommagés par le SARS-CoV-2 constituaient un environnement favorable à l’infection (notamment par les champignons du genre Aspergillus) ; l’immunodépression des patients, la réanimation et les traitements administrés au cours des Covid sévères ainsi que la saturation et la désorganisation du système de santé étaient également propices à diverses contaminations. Il n’est pas à exclure qu’une potentielle nouvelle pandémie recrée ces mêmes conditions à l’avenir.

Réchauffement climatique et Ophiocordyceps : le combo parfait pour une pandémie zombie ?

Selon des éléments récents rapportés par l’OMS, le réchauffement climatique et les échanges internationaux accrus seraient ensemble responsables de l’augmentation du nombre d’infections fongiques et de leur rayonnement géographique.

La virulence de certains pathogènes fongiques est fortement dépendante de leur tolérance au stress thermique ; ils ne peuvent pas causer de maladie chez les mammifères s’ils ne sont pas capables de supporter la température relativement élevée de leur organisme. Par exemple, début 2023, une équipe britannique a publié des travaux alertant sur l’accroissement du nombre d’infections graves causées par Cryptococcus neoformans sous l’influence du réchauffement climatique. Selon l’équipe de recherche, sous l’effet d’une augmentation de la température de son environnement, ce champignon particulièrement ravageur chez les malades du sida (presque 1 décès sur 5 au niveau mondial lui serait imputable) présenterait une intensification de mutations favorisant à la fois sa résistance à la chaleur et ses capacités infectieuses pour l’être humain. De même, la levure Candida auris est l’exemple type d’une levure émergente, résistante aux antifongiques, transmise sur le mode épidémique, et probablement associée au réchauffement climatique.

Pour autant, est-il crédible d’anticiper une pandémie similaire à celle décrite dans la franchise d’anticipation The Last Of Us ? Sous l’effet du changement climatique, un champignon qui prospère à basse température est-il capable de s’adapter à la chaleur jusqu’à pouvoir contaminer notre espèce et atteindre son système nerveux, voire en prendre le contrôle pour se reproduire ?

La franchise met en scène un futur post-apocalyptique où un champignon appelé « Cordyceps » transforme les personnes infectées en créatures cannibales, mues par un seul objectif : la multiplication.

Ce champignon est inspiré des différentes espèces relatives au genre Ophiocordyceps qui sont des champignons macromycètes effectivement capables de parasiter des arthropodes (insectes, arachnides ou mille-pattes) et d’en altérer le comportement (par exemple hyperactivité et déplacements inhabituels ou encore propension à mordre dans une plante et à s’y accrocher jusqu’à la mort) afin de compléter leur propre cycle reproductif – au détriment de la vie de l’insecte qu’ils finissent par digérer de l’intérieur. Ce phénomène, couplé aux impressionnantes images, presque fantasmagoriques, montrant le champignon émerger progressivement de l’exosquelette de son hôte, est un vivier d’inspiration tout désigné pour une fiction horrifique. Cependant, aussi inquiétante que puisse paraître cette capacité, elle répond à des règles biologiques bien précises.

Tout d’abord, chaque espèce d’Ophiocordyceps est dite super-spécifique, c’est-à-dire qu’elle n’est capable de parasiter qu’une seule espèce bien précise d’arthropode. Les plus connus sont ceux surnommés zombie-ant fungi (champignons de la fourmi zombie), qui infectent chacun une espèce différente de fourmi, mais il existe plusieurs centaines d’espèces distinctes.

En 2020, des scientifiques ont pris en exemple deux espèces d’Ophiocordyceps, O. kimflemingiae et O. camponoti-floridani, et leurs deux espèces cibles de fourmis pour tenter de décrire le mécanisme moléculaire encore mal connu de cette interaction parasitaire. Un séquençage du génome des champignons et de leurs hôtes infectés, depuis la période de manipulation jusqu’après la mort, a permis de mettre en évidence chez les fourmis des modifications génétiques susceptibles d’impacter leurs fonctions neurologiques et, plus étonnant, des gènes fongiques impliqués dans la sécrétion de molécules neurotoxiques. Ces altérations induites par le champignon et touchant le système nerveux de son hôte pourraient ainsi être responsables des modifications comportementales observées.

En outre, il semblerait que l’Ophiocordyceps ne soit pas le seul champignon impliqué dans cette « zombification » comme le montrent de récents travaux parus en 2022. Une équipe de recherche a ainsi découvert que O. camponoti-floridani est lui-même infecté par au moins deux autres champignons parasites jusque-là inconnus : Niveomyces coronatus et Torrubiellomyces zombiae. D’autres espèces d’Ophiocordyceps, en particulier ceux infectant les fourmis, seraient également parasitées par des champignons similaires. Selon les chercheurs, ces derniers semblent se nourrir du champignon hôte voire, dans certains cas, le stériliser. Si les raisons de cette interaction sont encore inconnues, l’une des hypothèses est que ces champignons pourraient participer à la régulation des populations d’Ophiocordyceps.

À la lumière des connaissances actuelles, cet ensemble imbriqué de mécaniques génétiques, moléculaires et environnementales extrêmement précises et finement régulées rend fortement improbable qu’un membre du genre Ophiocordyceps devienne un jour susceptible d’infecter et de contrôler une espèce à sang chaud comme il en est capable avec une espèce d’insecte bien spécifique, et ce, même en étant soumis à des variations environnementales telles que celles induites par le réchauffement climatique.

Le système nerveux sous influence : infection ou intoxication ?

Au tout début du premier épisode de la série The Last of Us, un scientifique fait un rapprochement fallacieux entre la forme de « contrôle » exercée par Ophiocordyceps sur ses hôtes et des champignons dont la consommation génère des effets hallucinogènes comme l’ergot de seigle (dont est extrait le LSD) ou certains champignons du genre Psylocybe consommés comme psychotropes. Cette comparaison erronée met en parallèle deux modes d’action bien distincts : l’infection et l’intoxication. L’infection passe par une contamination via les spores (l’organe de reproduction). Elle est rendue possible par une machinerie génétique et moléculaire extrêmement fine visant à permettre à un micro-organisme donné de se reproduire dans une espèce précise ; dans le cas rare d’Ophiocordyceps cette mécanique lui donne une forme de « contrôle » sur l’hôte pour répondre à des conditions bien spécifiques de reproduction.

L’intoxication, elle, n’a rien à voir avec la reproduction. Elle correspond à la sécrétion par le champignon de certaines substances chimiques. Parmi celles-ci, on retrouve des molécules appelées alcaloïdes, produites par de nombreuses espèces de champignons, végétaux et animaux. Leurs effets sur le système nerveux ne se révèlent que lors d’une consommation des organismes concernés. Au-delà de leurs effets psychotropes et/ou de leur toxicité (certains peuvent s’avérer mortels à très petite dose), nombreux sont ceux qui présentent des propriétés médicamenteuses et ils sont par conséquent très utilisés en pharmacopée (strychnine, quinine, morphine, codéine, scopolamine…). Certaines hypothèses suggèrent que les alcaloïdes pourraient constituer pour le champignon un moyen de défense contre les prédateurs et/ou, dans certains cas, une réserve nutritive d’azote.

Des champignons de plus en plus résistants

Si la menace d’une apocalypse zombie causée par une mutation d’un Ophiocordyceps peut être écartée à l’heure actuelle, l’évolution d’autres pathogènes fongiques microscopiques beaucoup plus proches de nous, bien que moins cinématographique, s’avère malgré tout alarmante. Le réchauffement climatique entre en jeu comme nous avons pu le voir précédemment, mais il n’est pas le seul.

À l’instar de la montée toujours plus préoccupante de l’antibiorésistance de bactéries pathogènes, la résistance des champignons micromycètes aux antifongiques – qui rend de plus en plus difficile la prévention et le soin des infections humaines – est en partie due à une utilisation inappropriée et abusive. Par exemple, selon l’OMS, le renforcement de la résistance du champignon Aspergillus fumigatus, dont le nombre d’infections est en forte augmentation, serait en partie lié au recours excessif aux antifongiques azolés dans le domaine agricole. Autre exemple, le champignon Candida auris, lui, a gagné l’appellation de « super champignon » (ou super bug) grâce à sa capacité à s’adapter très rapidement aux antifongiques.

Jusqu’à récemment, on pensait que la résistance des champignons aux antifongiques était permise uniquement par des mutations de leur ADN. Cependant, en 2020 dans la revue Nature, une équipe de recherche de l’université d’Édimbourg a publié une étude mettant à mal ce paradigme. Les travaux suggèrent que, sous l’influence de signaux environnementaux, pourraient survenir des altérations dites épigénétiques[5] susceptibles de modifier l’activité des gènes du champignon pour lui permettre de s’adapter à un environnement hostile. Les auteurs pointent également que les techniques de séquençage du génome habituellement utilisées pour détecter les mutations des pathogènes fongiques – et surveiller ainsi l’évolution de leur résistance ou diagnostiquer une infection – ne sont pas adaptées pour détecter les mutations épigénétiques et passeraient donc à côté de certains cas.

Les stratégies de survie découlant de cette malléabilité génétique se manifestent sous plusieurs formes en fonction de la menace affrontée et de l’espèce fongique concernée : expression de protéines et pigments évitant la reconnaissance ou formation de levures géantes trop grosses pour être digérées par les cellules de l’immunité (ou les prédateurs) et plus résistantes aux facteurs de stress environnementaux, structures permettant l’adhérence (formation de biofilms et production de filaments invasifs) ou encore la production de molécules toxiques. Elles pourraient ainsi expliquer comment ces pathogènes développent une résistance aux traitements antifongiques, et plus largement les raisons de leurs excellentes capacités d’adaptation et de leur virulence chez l’humain.

Beaucoup moins spectaculaires visuellement et plus insidieuses que les infections fongiques mises en scène par la fiction, celles qui nous concernent réellement à l’heure actuelle n’en restent pas moins inquiétantes. Entre manque de connaissances en recherche, capacités d’adaptation efficaces et variées, résistance aux traitements et conditions favorables au développement dans les milieux extérieurs et de soin, les champignons microscopiques constituent une menace bien réelle et de plus en plus prégnante pour la santé humaine.

Texte réalisé avec le soutien de Jean-Pierre Gangneux, médecin, chef du laboratoire de parasitologie-mycologie et du Centre National de Référence pour les aspergilloses chroniques au CHU de Rennes, coordonateur du réseau Européen des Centres d’Excellence en Mycologie Médicale (ECMM),  et responsable de recherche au sein de l’Institut de recherche en santé, environnement et travail (unité 1085 Inserm/École des hautes études en santé publique/Université d’Angers/Université de Rennes 1).

 

[1]Alors que la génétique correspond à l’étude des gènes, l’épigénétique s’intéresse à une « couche » d’informations complémentaires qui définit comment ces gènes vont être utilisés ou non par une cellule. Elle étudie les changements dans l’activité des gènes, qui n’impliquent pas de modification de la séquence d’ADN et peuvent être transmis lors des divisions cellulaires. Contrairement aux mutations qui affectent la séquence d’ADN, les modifications épigénétiques sont réversibles et parfois temporaires. Elles sont induites par l’environnement au sens large : la cellule reçoit en permanence toutes sortes de signaux l’informant sur son environnement, de manière à ce qu’elle se spécialise au cours du développement, ou ajuste son activité à la situation.

[1]Il est estimé que 98 % des champignons restent à ce jour non décrits par la science.

[2]Les macromycètes ou macrochampignons sont des champignons dont la fructification est visible à l’œil nu (par opposition aux micromycètes qui ne sont visibles qu’au microscope).

[3]Les champignons se reproduisent et disséminent grâce à leurs spores qui, en fonction de l’espèce, peuvent se développer sur des plantes, des animaux ou d’autres champignons. La majorité des infections graves chez l’humain sont causées par des champignons appartenant aux genres Candida, Aspergillus, Mucorales et Cryptococcus.

[4]Pour aller plus loin :

[5]Alors que la génétique correspond à l’étude des gènes, l’épigénétique s’intéresse à une « couche » d’informations complémentaires qui définit comment ces gènes vont être utilisés ou non par une cellule. Elle étudie les changements dans l’activité des gènes, qui n’impliquent pas de modification de la séquence d’ADN et peuvent être transmis lors des divisions cellulaires. Contrairement aux mutations qui affectent la séquence d’ADN, les modifications épigénétiques sont réversibles et parfois temporaires. Elles sont induites par l’environnement au sens large : la cellule reçoit en permanence toutes sortes de signaux l’informant sur son environnement, de manière à ce qu’elle se spécialise au cours du développement, ou ajuste son activité à la situation.

Des applications smartphones pour se protéger des moustiques, vraiment ?

moustique

© Fotalia

Les maladies à transmission vectorielle, c’est-à-dire des maladies humaines provoquées par des parasites, des virus ou des bactéries transmis par des vecteurs arthropodes, sont responsables de plus de 17% des maladies infectieuses dans le monde, et provoquent plus d’un million de décès chaque année. Les moustiques constituent de loin le principal vecteur de ces maladies, parmi lesquelles on peut citer le paludisme, le chikungunya, le virus Zika ou la fièvre jaune.

Ces maladies sont-elles en augmentation à travers le monde, et notamment en France, comme les gros titres de l’actualité semblent le suggérer ? Comment s’en protéger, quelles stratégies ont fait leur preuve contre les piqûres de moustiques ? Suffit-il simplement de mettre du répulsif anti-moustiques ou bien de télécharger une application sur son smartphone pour repousser ces insectes ? Canal Détox se penche sur ces questions.

 

Un plus grand nombre de cas, plus dispersés

Récemment, c’est plutôt le virus du Nil occidental[1] qui a fait la une de l’actualité, se propageant dans le sud de la France, avec l’apparition d’un cas autochtone[2] pour la première fois dans le territoire de la Nouvelle-Aquitaine. La région s’était déjà illustrée l’an dernier avec un premier cas autochtone du virus Usutu, un virus à ARN considéré comme émergent.

De manière générale, les maladies transmises par les moustiques sont en hausse en Europe et en France depuis plusieurs années, avec une accélération très nette en 2022. En effet, cette année-là, il y a eu 66 cas autochtones de dengue en France métropolitaine, soit le double du nombre de cas cumulés sur les quinze années précédentes. Alors que la dengue est la maladie virale transmise par les moustiques la plus répandue dans le monde, la reprise du trafic aérien et les flux de voyageurs ont aussi favorisé l’augmentation du nombre de cas importés (272 cas au total).

Par ailleurs, les cas de dengue sont aujourd’hui beaucoup plus dispersés géographiquement, ils ne sont plus uniquement circonscrits au pourtour méditerranéen. Notons que la population de moustiques tigres, responsable de la transmission de la dengue mais aussi du virus Zika et du Chikungunya a été identifiée dans 71 départements ce qui représente un plus grand risque de la diffusion de ces maladies sur tout le territoire.

Nous sommes donc dans une situation où le nombre de cas de maladies à transmission vectorielle est de plus en plus important, avec un risque de propagation à des régions où les moustiques n’étaient traditionnellement pas présents. Le réchauffement climatique serait un facteur aggravant à la fois parce qu’un climat chaud est propice au développement des moustiques et parce que des températures élevées favorisent la multiplication des virus au sein des moustiques.

 

Traitements et prévention : quelles stratégies ?

Si des traitements existent pour certaines maladies transmises par les moustiques, l’arsenal thérapeutique demeure encore limité dans la plupart des cas. Ainsi par exemple, le seul vaccin contre le virus du Nil occidental disponible est à destination des chevaux mais pas de l’humain, tandis que pour la dengue, le degré d’efficacité de la vaccination varie d’une personne à l’autre.

La prévention des piqûres est dans ce contexte une stratégie incontournable pour réduire la transmission et l’impact de ces maladies. Elle passe notamment par l’utilisation de protections individuelles, dont l’usage de vêtements amples couvrants et de moustiquaires traitées avec des insecticides dans les zones endémiques, mais aussi de répulsifs anti-moustiques.

Par exemple, depuis 2005, plus de 2 milliards de moustiquaires imprégnées d’insecticide ont été distribuées dans le monde pour prévenir le paludisme. Toutes ces moustiquaires ont été traitées avec une seule classe d’insecticide : les pyréthrinoïdes. En 2015, une modélisation publiée dans Nature a souligné que ces moustiquaires ont été à l’origine de la plupart des reculs des cas de paludisme observés entre 2005 et 2015, en particulier dans les zones de transmission modérée à élevée. Toutefois, depuis 10 ans, cette progression a nettement ralenti. Cela s’explique notamment parce que les moustiques sont désormais résistants aux pyréthrinoïdes dans de nombreuses régions, ce qui implique l’utilisation de moustiquaires traitées avec d’autres ingrédients actifs. Dans le même temps, la liste des insecticides autorisés s’est réduite, des données scientifiques ayant montré l’impact délétère de certains produits sur l’environnement.

Un autre axe très important de la prévention consiste à lutter contre les lieux de ponte des moustiques, en particulier à agir pour limiter le nombre de points d’eau stagnante, qui sont propices au développement et à la diffusion de moustiques dans le périmètre proche (les moustiques n’étant pas capables de voler plus d’une centaine de mètres).

De nombreux répulsifs olfactifs sont également disponibles sur le marché, notamment des produits à appliquer sur la peau (sprays, crèmes…) ou à diffuser dans l’environnement immédiat (bougies, prises électriques…). Si ces produits ont montré leur efficacité pour réduire les piqûres de moustiques, il s’agit tout de même de produits chimiques qu’il convient de ne pas utiliser en trop grande quantité. Par ailleurs, ils n’ont pas le même degré d’efficacité pour tout le monde (voir encadré à la suite de l’article), et la protection qu’ils confèrent est limitée dans le temps.

Face à cela, la recherche sur de nouveaux répulsifs est en plein essor, mais certaines dérives sont observées. L’une des plus notables, actuellement, est la popularité grandissante d’applications smartphones à télécharger, qui diffuseraient des ondes à basse fréquence pour repousser les moustiques. Cette idée de combattre les moustiques par le son et les ondes n’est pas nouvelle, et basée sur un argument simple : ces dispositifs seraient efficaces parce qu’ils imiteraient les ondes sonores produites par les battements d’ailes des moustiques mâles ou des libellules. Or les moustiques femelles qui piquent les humains, seraient repoussées par ce son, dans le premier cas parce qu’elles ne s’accouplent qu’une seule fois dans leur vie, dans le second parce que la libellule est leur prédateur.

Cependant, les données scientifiques ne sont actuellement ni assez nombreuses ni assez solides pour confirmer une quelconque efficacité de ce type de répulsif, d’autant que les ondes qui pourraient éventuellement être entendues par les moustiques femelles sont trop puissantes pour être reproduites par un smartphone.

Déjà en 2010, une revue de littérature sur dix études solides, publiée par l’organisation Cochrane, soulignait une absence de preuves concernant l’utilité de répulsifs anti-moustiques fondés sur les ondes, et allait même jusqu’à juger inutile la poursuite de recherches sur le sujet. Depuis, aucune étude n’est venue contredire ces conclusions avec des données plus robustes, mais ces applications – qui ont rarement été testées et validées en laboratoire -continuent à être téléchargées régulièrement.

Les experts déconseillent donc leur utilisation, au mieux parce qu’elles n’ont pas d’utilité, au pire parce qu’elles peuvent procurer un faux sentiment de protection, qui conduit les utilisateurs à négliger d’autres approches pour se protéger des piqûres.

 

Qu’est-ce qui attire les moustiques ?

Nous ne sommes pas tous égaux face aux piqûres de moustiques ! Parce qu’il existe de nombreuses espèces différentes, que certains climats sont plus propices que d’autres à leur prolifération… Mais aussi et surtout car nous pouvons leur sembler plus ou moins attirants. Sur ce dernier point, de nombreuses études scientifiques renseignent justement sur la susceptibilité individuelle aux piqûres.

Parmi les éléments « attractifs » documentés, on retrouve l’odeur : l’olfaction étant le principal sens par lequel les moustiques localisent leurs hôtes cibles. Les insectes seraient sensibles à divers composés organiques volatils présents sur la peau de l’humain, et dans sa transpiration (ex. ammonium, acide lactique…), ainsi qu’au CO2 qu’il rejette en respirant… Et comme nous sommes tous différents, l’intensité de la libération de ces composés « attractifs » varie selon les individus, ce qui explique que certains ont de plus grandes chances d’être piqués ! Les facteurs génétiques impliqués sont par ailleurs bien documentés par la littérature, d’autant qu’il est établi que la signature olfactive humaine propre à chacun est partiellement déterminée par des facteurs génétiques, notamment les allèles de l’antigène leucocytaire humain (HLA).

En outre, le régime alimentaire peut faire changer l’odeur corporelle : des scientifiques ont ainsi étudié les effets de la consommation de certains aliments sur l’attirance des moustiques. Contrairement à ce qu’on peut lire sur internet, rien ne prouve que l’ail et la vitamine B n’éloignent les moustiques ; alors que la consommation de bananes ou de bière pourrait augmenter cette attraction.

Par ailleurs les femmes enceintes libéreraient plus encore de composés attractifs que les autres individus. Il en serait de même pour les personnes atteintes de paludisme et porteuses du Plasmodium, qui peuvent donc, en se faisant piquer à nouveau, être à l’origine de la transmission de la maladie.

Toutes ces observations indiquent, qu’en plus de varier d’un individu à l’autre, l’attractivité humaine peut être modifiée en fonction des changements physiologiques et métaboliques observés chez un individu particulier…

Au-delà de cette susceptibilité individuelle, sur laquelle on ne peut malheureusement pas toujours agir, les scientifiques ont récemment découvert que certaines couleurs chaudes apparentées à celles de la peau humaine, comme le rouge, le noir et l’orange, sont perçues comme plus attirantes par les insectes. Se vêtir de bleu, de vert ou de violet pourrait donc permettre de passer un peu plus inaperçu.

 

Texte rédigé avec le soutien de Yannick Simonin, chercheur au sein de l’unité Inserm Pathogenèse et contrôle des infections chroniques et émergentes (unité 1058 Inserm/Université de Montpellier/EFS)

[1] Maladie virale transmise par les moustiques du genre Culex qui se contaminent exclusivement au contact d’oiseaux infectés. Les oiseaux sont les réservoirs du virus.

[2] On parle de cas autochtone quand une personne a contracté la maladie sur le territoire national et n’a pas voyagé en zone contaminée dans les 15 jours précédant l’apparition des symptômes.

De nouveaux médicaments pour lutter contre la résistance aux antibiotiques, vraiment ?

médicaments

Il y a quelques semaines, plusieurs articles de la presse internationale rapportaient les résultats préliminaires, non encore publiés dans une revue scientifique, d’une étude portant sur la découverte d’un nouvel antibiotique. Appelé clovibactine, celui-ci est décrit comme efficace contre plusieurs espèces bactériennes, sans qu’aucune résistance ne se développe. Alors que la résistance aux antibiotiques – ou antibiorésistance – est considérée partout dans le monde comme un problème de santé publique très important, cette nouvelle a forcément suscité de l’intérêt.

Mais comment interpréter concrètement ces résultats ? Et plus généralement, où en est-on dans la recherche de nouveaux antibiotiques ou d’approches alternatives qui permettraient de réduire la menace de l’antibiorésistance ? Canal Détox se penche sur cette problématique.

L’utilisation massive et répétée des antibiotiques en santé humaine et animale a entraîné l’apparition de souches de bactéries résistantes, contre lesquelles les traitements antibiotiques ne fonctionnent plus. Dans certains cas, la situation est très préoccupante puisque certaines souches bactériennes sont devenues multirésistantes, c’est-à-dire résistantes à plusieurs familles d’antibiotiques.

Cette situation implique que certains patients se retrouvent en impasse thérapeutique, car il n’y a plus d’options de traitement à leur proposer contre leur infection. Il s’agit donc d’un problème de santé publique majeur, qui est associé à 700 000 décès chaque année à travers le monde, dont environ 25 000 en Europe.

Lire notre dossier complet sur le sujet : « Résistance aux antibiotiques »

Actuellement, tous les antibiotiques sont concernés par des phénomènes d’antibiorésistance. C’est un peu moins le cas des molécules mises le plus récemment sur le marché, même si des résistances commencent là aussi à apparaître au fil des utilisations.

On peut par ailleurs souligner que certaines souches bactériennes sont plus problématiques que d’autres. Schématiquement, il existe deux grandes familles de bactéries, les GRAM+ (comme par exemple le staphylocoque doré) et les GRAM- (comme par exemple Escherichia coli, appelé communément le colibacille). La classification dans l’une ou l’autre de ces deux familles dépend de la structure de la bactérie. Aujourd’hui, ce sont plutôt les bactéries à GRAM- que les bactéries à GRAM+ qui sont multirésistantes aux antibiotiques, avec toutefois des différences selon les pays.

Les antibiotiques sont des substances chimiques, naturelles ou synthétiques, qui ont une action spécifique sur les bactéries. Ils peuvent tuer les bactéries ou limiter leur prolifération.

Les antibiotiques sont développés à partie de cultures de microorganismes ou entièrement synthétisés en laboratoire.

Les premiers antibiotiques isolés (pénicillines) ont été des substances naturelles produites par un champignon du genre Penicillium. Un des axes de recherche dans le domaine consiste à rechercher des antibiotiques naturels en testant des milliers de microorganismes (levures ou bactéries) susceptibles d’en produire spontanément.

 

La clovibactine, un nouvel antibiotique efficace ?

 Les travaux concernant la clovibactine n’étant pas encore publiés dans une revue scientifique validée par les pairs, il est difficile de se prononcer sur ces résultats et sur leur potentiel impact clinique. Ce qui se dessine toutefois aux premiers abords, c’est que la clovibactine est un antibiotique issu d’une bactérie identifiée dans les sols qui n’était pas connue des scientifiques auparavant. Les scientifiques expliquent que la clovibactine agirait en bloquant la synthèse des précurseurs des protéines qui constituent le « bouclier » des bactéries. Ils écrivent aussi que in vitro, aucune résistance ne semble se développer contre ce nouvel antibiotique. Néanmoins, celui-ci semblerait surtout efficace contre les bactéries à GRAM+, ce qui limiterait sa portée clinique.

Quoi qu’il en soit, ces données permettent d’ores et déjà de rappeler que les bactéries non cultivées représentent environ 99 % de toutes les bactéries présentes dans les environnements extérieurs et qu’elles constituent une source encore inexploitée de nouveaux antibiotiques. La clovibactine a été identifiée et développée à partir d’une bactérie issue des sols que les scientifiques n’avaient jamais réussi auparavant à mettre en culture. Ils y sont ici parvenus grâce à une technologie récente qui permet d’isoler une seule bactérie au sein d’un échantillon et de la mettre en culture durant plusieurs semaines pour qu’elle puisse se développer.

Cet article scientifique sur la clovibactine souligne donc qu’il pourrait être intéressant de continuer ce type de travaux en s’appuyant sur des méthodes de pointe pour découvrir de nouvelles bactéries dans l’environnement, à partir desquelles on pourra éventuellement développer de nouveaux antibiotiques. Déjà en 2015, des recherches similaires avaient abouti au développement d’un nouvel antibiotique appelé teixobactine.

Depuis la première publication de cet article, l’étude a été publiée.

 

Des pistes à explorer

Par ailleurs, de nombreuses autres pistes de recherche font l’objet de travaux rigoureux. Ainsi, de multiples essais cliniques testent par exemple l’efficacité de nouvelles molécules inhibant l’action d’enzymes appelées bêta-lactamases. Ces enzymes, qui sont produites par certaines bactéries, et notamment les bactéries à GRAM-, contribuent à les rendre résistantes à de nombreux antibiotiques. On peut donner l’exemple d’un nouvel inhibiteur de bêta-lactamase appelé avibactam, qui fonctionne selon ce mode d’action et qui est désormais commercialisé en association avec un antibiotique. Plusieurs inhibiteurs appartenant à la famille chimique de l’avibactam, en association avec d’autres molécules, sont actuellement en cours d’évaluation.

La phagothérapie demeure aussi une piste de recherche particulièrement active. Le principe de base est simple : il s’agit d’administrer des phages, c’est-à-dire des virus qui infectent et tuent spécifiquement certaines bactéries. Les phages pourraient donc être une option thérapeutique intéressante pour remplacer les antibiotiques. Connus de la communauté scientifique avant même la découverte des antibiotiques, ils sont tombés en désuétude avec l’arrivée de ces derniers.

La nécessité de trouver des solutions à l’antibiorésistance a contribué à un renouvellement de l’intérêt pour la phagothérapie et aujourd’hui, ce traitement est parfois autorisé à titre compassionnel. Néanmoins, certaines questions scientifiques demeurent encore sans réponse. Quel est le devenir des phages dans l’organisme ? Comment les purifier et préparer les dosages adaptés pour un usage clinique ? Si des essais sont en cours, le développement industriel de cocktails de phages, préparés à l’avance ou « sur mesure » pour lutter contre une bactérie spécifique, paraît encore complexe à l’heure actuelle.

Enfin, une dernière piste de recherche intéressante peut aussi être mentionnée : celle des anticorps monoclonaux. Ces molécules produites en laboratoire sur le modèle des anticorps naturels agiraient ici en luttant contre l’effet de toxines ou de facteurs de virulence des bactéries, les rendant moins agressives. Ils constitueraient donc une thérapeutique adjonctive ou une alternative intéressante aux antibiotiques. Des résultats prometteurs ont déjà été publiés.

Si toutes ces recherches doivent continuer à avancer, la prévention reste primordiale. Il s’agit même de la priorité numéro 1 pour lutter efficacement contre l’antibiorésistance. En vue de préserver le plus longtemps possible l’efficacité des antibiotiques disponibles, des mesures pour réduire leur consommation afin de limiter la pression de sélection sur les bactéries ont déjà été prises, comme par exemple le fait de sensibiliser les médecins et les patients à limiter la durée des traitements au strict nécessaire ou à bien distinguer les infections bactériennes des infections virales (contre lesquelles les antibiotiques sont inutiles). Poursuivre ces efforts est aujourd’hui plus que jamais nécessaire pour endiguer le fléau de la résistance aux antibiotiques.

Texte rédigé avec le soutien d’Olivier Barraud, Maître de Conférences des Universités – Praticien Hospitalier (MCU-PH), Université de Limoges et Bruno François, CHU de Limoges-Centre d’investigation clinique Inserm 1435.

 

fermer