Menu

Mincir grâce aux médicaments « coupe-faim », vraiment ?

balance© Photo i yunmai/Unsplash

Des vidéos sur TikTok qui vantent les mérites d’un médicament contre le diabète de type 2 « détourné » pour perdre du poids, des unes de journaux qui s’interrogent pour savoir si nous pourrions tous devenir « minces » grâce à une nouvelle génération de traitements de l’obésité… Ce n’est pas une nouveauté : la perte de poids est fréquemment présentée comme une préoccupation majeure dans les médias et sur les réseaux sociaux.

Sur ces plateformes, des messages de prévention pour lutter contre l’obésité, qui constitue une priorité de santé publique, fondés sur des bases scientifiques solides, sont véhiculés aux côtés de nombreux stéréotypes associant beauté et minceur ainsi que de recettes « miraculeuses » pour perdre du poids. Dans ce contexte où la confusion règne et où le public se retrouve exposé à des injonctions contradictoires, le sujet des « coupe-faim », des molécules présentées comme efficaces pour perdre du poids, trouve régulièrement un écho important.

Mais à quoi renvoie réellement ce terme de « coupe-faim » et est-il vraiment adapté ? Au-delà des tendances et des soi-disant remèdes pour perdre du poids qui s’affichent sur les réseaux sociaux, quelles approches thérapeutiques sont réellement pertinentes pour les personnes en situation d’obésité ? Canal Détox fait le point.  

À l’échelle de la planète, le surpoids et l’obésité sont en augmentation depuis 1990 dans la plupart des pays, comme l’indique un récent article dans The Lancet, et touchent plus d’une personne sur huit dans le monde. Il s’agit d’un problème de santé publique très important, d’autant que cette maladie chronique est associée à de nombreuses comorbidités (diabète, cancers, maladies cardiovasculaires, du foie, des articulations…). Toutes les données scientifiques et cliniques actuellement disponibles soulignent que, pour être efficace, la prise en charge de l’obésité doit être multidisciplinaire et tenir compte du contexte et de l’environnement propre à chaque personne.

Ainsi, des interventions pour transformer les habitudes alimentaires et lutter contre la sédentarité sont nécessaires. Elles doivent néanmoins être combinées à un accompagnement personnalisé qui tienne compte des freins psychologiques, du mode de vie et de l’histoire personnelle de chacun, de la nécessité de traiter les comorbidités, mais aussi du fait que la perte de poids est conditionnée par une grande variabilité interindividuelle. En bref, la médecine de l’obésité doit être globale et holistique.

Dans certains cas, quand l’obésité est installée de manière durable et particulièrement complexe à prendre en charge, il peut être nécessaire d’avoir recours à des outils médicamenteux ou à la chirurgie bariatrique. Toutefois, cette dernière est réservée uniquement aux cas les plus sévères, c’est-à-dire à des personnes avec un indice de masse corporelle (IMC) supérieur ou égal à 35 kg/m² avec une complication associée ou avec un indice de masse corporelle supérieur à 40 kg/m².

 

Liraglutide et sémaglutide

Sur le plan des médicaments, un traitement de première génération, l’orlistat, a longtemps été prescrit aux patients souffrant d’obésité (IMC > 30 kg/m²). Cette molécule fonctionne en bloquant l’action d’une enzyme qui permet l’absorption des graisses. Néanmoins, bien qu’une réduction du risque de diabète ait été observée, son efficacité demeure assez limitée, la perte de poids moyenne constatée avec ce traitement étant relativement modérée

Ces dernières années, d’autres avancées thérapeutiques se sont matérialisées grâce au développement d’une nouvelle classe de médicaments qui imitent l’hormone glucagon-like peptide 1 (GLP-1) : les analogues du GLP-1. Ces médicaments contiennent généralement soit du liraglutide, soit du sémaglutide. Ces deux molécules analogues du GLP-1 ont notamment pour effet d’augmenter la sensation de satiété, et donc de permettre aux personnes de mieux contrôler leurs apports alimentaires.

À l’heure actuelle, le liraglutide peut être prescrit à raison d’une injection par jour, mais il n’est pas remboursé par la Sécurité sociale. Quant au sémaglutide, il n’est aujourd’hui autorisé en France que pour le traitement du diabète de type 2 et commercialisé sous le nom de marque Ozempic.

Le sémaglutide sous une forme plus dosée que l’Ozempic a par ailleurs été développé pour le traitement de l’obésité (il s’agit d’un médicament appelé Wegowy). Déjà autorisé aux États-Unis, il a pu être proposé à près de 10 000 personnes avec une obésité sévère avec au moins une comorbidité (IMC > 40 kg/m²) en France dans le cadre d’une expérimentation qui doit se poursuivre jusqu’à l’automne 2024. Cependant, des retours des agences réglementaires sont désormais attendus pour étendre sa prescription à un plus grand nombre de patients.

Les « coupe-faim », un terme inadapté ?

Dans les médias, les analogues du GLP-1 sont souvent désignés comme des « coupe- faim ». Un terme que certains médecins estiment être inadapté. En effet, ces médicaments régulent l’appétit et augmentent la sensation de satiété. Résultat : l’envie de manger n’est plus une préoccupation centrale et permanente, et les patients reprennent le contrôle de leur appétit, sans pour autant que toute sensation de faim disparaisse.

 

La folie de l’Ozempic

Ces bases étant posées, revenons sur la popularité qu’a connue l’une de ces molécules, l’Ozempic, sur les réseaux sociaux. Au cours de l’année écoulée, dans des vidéos ou des articles partagés de nombreuses fois, certains créateurs de contenus ont conseillé aux personnes qui les suivent d’utiliser ce médicament (indiqué, rappelons-le, pour le traitement du diabète de type 2), comme un « coupe-faim », afin de perdre quelques kilos. Cette tendance, qui consiste à détourner un médicament prescrit dans des circonstances bien spécifiques pour favoriser la perte de poids, est problématique à plusieurs égards.

Premièrement, parce que prendre un médicament pour une autre indication que celle pour laquelle il a été mis sur le marché, ici simplement pour perdre quelques kilos, comporte des risques pour la santé. Parmi les effets secondaires associés à l’Ozempic, on retrouve par exemple fréquemment des problèmes digestifs qui peuvent avoir un impact sur la qualité de vie.

On peut aussi citer une étude parue en octobre dans la revue JAMA, qui suggère que la prise d’analogues du GLP-1 pour perdre du poids peut entraîner des affections gastro-intestinales rares mais sévères (pancréatite, obstruction intestinale, pathologies biliaires ainsi qu’un retard dans le passage des aliments de l’estomac vers l’intestin grêle). S’exposer à ce type d’effets alors que l’on n’est pas malade et qu’on souhaite juste perdre quelques kilos n’est pas anodin. Enfin, ce médicament peut entraîner une perte de poids importante qui peut être dangereuse sans contrôle médical.

Il faut bien avoir en tête qu’il n’y a pas de solution « miracle » pour perdre du poids. Cela repose toujours sur une combinaison de facteurs individuels (adapter son mode de vie et son alimentation, avoir une activité physique régulière, changer son rythme de sommeil, agir sur le stress…) et non sur la prise d’un médicament unique qui résoudrait d’un coup tous les problèmes. Les facteurs impliqués dans l’obésité sont différents d’une personne à l’autre et doivent être analysés. Du fait, en fonction de notre patrimoine génétique, nous prenons (et perdons !) du poids différemment en réponse à l’environnement.

Deuxièmement, on sait qu’il existe déjà des tensions d’approvisionnement sur l’Ozempic : même les personnes diabétiques qui en ont vraiment besoin peuvent avoir du mal à s’en procurer. Soulignons que le mésusage et le détournement de ce médicament existe en France mais ne correspondrait qu’à 1,5 % des prescriptions selon les données de la Caisse nationale d’assurance maladie. Il n’est donc pas directement en cause dans ces tensions d’approvisionnement. Néanmoins, il s’agit d’une tendance à surveiller et à ne pas prendre la légère, ne serait-ce que pour assurer l’accès à long terme du médicament aux patients qui en ont besoin.

 

Que disent les essais pour le traitement de l’obésité ?

Au-delà de ces considérations, les scientifiques s’accordent pour dire que les analogues du GLP-1 s’avèrent prometteurs pour les personnes en situation d’obésité et pour qui la perte de poids est un impératif de santé.

Plusieurs essais cliniques (notamment les essais STEP) ont montré que chez des participants en situation d’obésité, sans diabète, la prise d’un médicament comme le Wegovy à une dose de 2,4 mg par semaine entraîne une perte de poids allant de 10 à 20 % sur un an. Par ailleurs, plusieurs études ont aussi indiqué une amélioration notable des paramètres métaboliques chez les participants (glycémie, cholestérol, inflammation…). Un suivi sur plus de trois ans a également permis de montrer une diminution de la mortalité cardiovasculaire chez des personnes obèses ou en surpoids ayant un historique de maladie cardiovasculaire.

Toutefois, là encore, la prise de ces médicaments doit se faire avec l’accompagnement d’un médecin, dans le cadre d’une prise en charge globale et en tenant bien entendu compte des éventuels effets secondaires. Ces options thérapeutiques ouvrent également de nouvelles questions sur la durée du traitement dans cette maladie chronique, avec un risque de reprise de poids en cas d’arrêt, sur lesquelles la recherche doit se pencher.

Une chose est sûre : si ces médicaments peuvent aboutir à une perte de poids importante et soutenue sur le long terme chez les patients obèses et s’ils représentent donc un outil très important à ajouter à l’arsenal thérapeutique, il faut aussi rappeler qu’aucune molécule « miracle » ne pourra à elle seule mettre fin à l’obésité.

Ces progrès ne doivent pas non plus faire oublier que l’obésité est un problème de santé publique global, majeur et qui prend un peu plus d’ampleur chaque année. Il est donc nécessaire de continuer à proposer une prise en charge complète, interdisciplinaire et, à mesure que les connaissances progressent sur la biologie de l’obésité, de plus en plus personnalisée, pour répondre aux problématiques spécifiques à chaque individu.  Mais aussi d’insister sur les mesures de prévention et politiques de santé publique, tout aussi essentielles pour agir sur les comportements et les modes de vie. Soutenir la recherche est primordial pour continuer à faire progresser les connaissances sur cette maladie complexe, et notamment tous ses mécanismes biologiques sous-jacents.

 Texte rédigé avec le soutien de Karine Clément, médecin, professeure de nutrition, directrice du laboratoire NutriOmique (Inserm/Sorbonne Université/APHP) et présidente de l’Association française d’étude et de recherche sur l’obésité – AFERO (afero.fr)

La « malbouffe » une cause de dépression, vraiment ?

aliments ultra-transformésAliments ultra-transformés © Photo de No Revisions sur Unsplash

La « malbouffe » augmenterait le risque de dépression. C’est avec ce titre qu’une étude a récemment été reprise très largement dans les médias. Mais au-delà des raccourcis médiatiques, que montrent précisément ces travaux scientifiques et quelles sont les implications en matière de santé publique ? Plus généralement, que sait-on aujourd’hui des associations entre alimentation et santé mentale ? Canal Détox revient sur ce sujet aussi complexe que passionnant.

Symptômes dépressifs et dépression – quelques repères

La dépression, ou « épisode dépressif caractérisé », touche tous les âges de la vie.  Elle est définie par la présence de trois symptômes dépressifs (tristesse/humeur dépressive, perte d’intérêt et abattement, perte d’énergie) associés sur la même période à au moins deux autres symptômes secondaires. Ces symptômes doivent être présents durant une période minimum de deux semaines, presque tous les jours, induire une détresse significative et avoir un retentissement sur les activités habituelles.

Attention, l’épisode dépressif caractérisé doit être distingué d’un sentiment de tristesse, d’un état réactionnel, d’un deuil… Il n’est pas à confondre avec le terme « déprime » utilisé dans le langage courant, qui correspond à un moment de vie passager où l’on peut ressentir des symptômes dépressifs isolés ou transitoires. Son diagnostic nécessite une démarche clinique approfondie – parfois sur plusieurs consultations – avec un professionnel de santé.

On peut aussi dire que la « déprime » se distingue de l’épisode dépressif caractérisé par la non-persistance des symptômes et le fait qu’elle n’a pas ou peu d’impact sur les activités quotidiennes des individus. L’épisode dépressif caractérisé affecte en revanche en profondeur la vie sociale, familiale et professionnelle des patients, augmente le risque de mortalité prématurée et, dans les cas les plus graves, mène au suicide : il est la première cause de mortalité chez les jeunes. Il est associé à un dysfonctionnement social et à une souffrance personnelle majeurs, avec des conséquences parfois lourdes en matière de fonctionnement social, de santé et même de décès, le risque de passage de suicide étant particulièrement élevé.

La crise sanitaire de la Covid-19 a engendré une augmentation importante d’épisodes dépressifs caractérisés.

Lire le dossier complet sur notre site : https://www.inserm.fr/dossier/depression/

L’étude en question, qui a beaucoup été médiatisée, a été publiée dans la revue Nutritional Neurosciences en mars 2023. Si c’est le terme « malbouffe » qui a été retenu pour communiquer auprès du public, il faut souligner que l’équipe de recherche s’est en fait spécifiquement intéressée à la consommation d’aliments dits « ultra-transformés ». Il s’agit des aliments qui nécessitent l’utilisation de plusieurs procédés de transformation et d’additifs qui vont modifier leur texture, leur saveur, leur durée de conservation.

Les scientifiques ont étudié l’association entre des apports élevés de ces aliments ultra-transformés et la récurrence de symptômes dépressifs au sein d’une population britannique. Ils ont examiné le poids de ces aliments dans les relations entre alimentation et symptômes dépressifs.

Les analyses des chercheurs suggèrent qu’il existe bien une association significative entre une consommation élevée d’aliments ultra-transformés et le risque de récurrence de symptômes dépressifs au cours du suivi de la cohorte. Ainsi, les participants qui consommaient le plus d’aliments ultra-transformés (soit un tiers de leurs apports totaux) avaient 30 % de risque supplémentaire de présenter des épisodes de symptômes dépressifs récurrents, en comparaison avec les participants consommant moins d’aliments ultra-transformés.

Cette étude menée au sein d’une cohorte britannique conforte des résultats observés auparavant dans des populations méditerranéennes, dont la consommation d’aliments ultra-transformés est pourtant plus modérée. Ce type d’étude nécessiterait cependant d’être reproduite afin de pouvoir généraliser les conclusions.

Par ailleurs, il est important de souligner que dans les études observationnelles comme celle-ci, la mesure des symptômes dépressifs repose souvent sur des échelles auto-remplies par les participants à propos de leurs symptômes, et ne constitue donc pas un diagnostic de dépression.

Ajoutons aussi que si l’association ente aliments ultra-transformés et symptômes dépressifs mise en lumière dans cette étude semble robuste, et que de potentiels facteurs environnementaux et socioéconomiques confondants ont bien été pris en compte pour estimer les associations, le lien de causalité ne peut toutefois pas être établi.  On ne peut pas affirmer que le fait de manger des aliments ultra-transformés en grande quantité va automatiquement causer le développement de symptômes dépressifs.

Quelle est la différence entre lien de causalité et association statistique ?

Attention, les études observationnelles en épidémiologie permettent d’établir des associations statistiques mais pas des relations causales. Prenons un exemple : les ventes de glaces et les attaques de requins augmentent quand il fait chaud – il y a donc une association statistique entre les deux phénomènes – mais on ne peut pas parler de relation causale. En effet, les ventes de glaces ne poussent pas plus les requins à attaquer les humains et les attaques de requins n’incitent pas les humains à consommer des glaces !

En revanche, les deux phénomènes arrivent plus fréquemment par beau temps, quand les températures sont élevées et que les gens sont à la plage.

 

Il est enfin utile à ce stade de rappeler que la dépression est une maladie psychiatrique multifactorielle et complexe. Certains types de régimes alimentaires pourraient peut-être constituer un facteur de risque d’en développer certains symptômes, et font à ce titre l’objet de recherches, comme en témoigne cette étude. En revanche, l’alimentation ne peut seule être mise en cause dans le développement de symptômes dépressifs et de la dépression.

 

L’importance de poursuivre les recherches

Revenir sur cette étude permet aussi de souligner à quel point il s’agit d’un domaine de recherche en plein essor. Un nombre croissant de scientifiques s’intéressent au lien entre alimentation et santé mentale.

Un axe de recherche récent a par exemple consisté à s’interroger sur le sens de la relation entre alimentation et épisode dépressif caractérisé : est-ce vraiment le fait de mal manger qui augmente le risque de dépression ou est-ce plutôt le fait d’être déprimé qui inciterait à la malbouffe ? Le lien est bidirectionnel, mais les analyses d’études prospectives évaluant le risque de dépression à partir du régime renseigné par des participants ont permis de montrer qu’au-delà de la détérioration des habitudes alimentaires constatée lors d’épisodes dépressifs, l’alimentation joue bien un rôle dans le développement de la maladie.

De nombreuses études se sont aussi intéressées à l’impact du régime méditerranéen sur le risque de développer des symptômes dépressifs. La qualité des méthodologies varie avec des différences dans le vocabulaire employé (certaines parlent d’épisode dépressif caractérisé alors que d’autres se concentrent simplement sur les symptômes dépressifs). Néanmoins, dans leur grande majorité, ces travaux concluent que le fait d’adopter un régime de type méditerranéen permettrait de prévenir le développement de symptômes dépressifs mais aussi les troubles de l’anxiété. Des travaux complémentaires devront être réalisés pour parvenir à expliquer ces associations sur le plan biologique et métabolique.

Des travaux suggèrent déjà que le régime méditerranéen a des propriétés anti-inflammatoires, neuroprotectrices, immunomodulatrices et antioxydantes qui sont associées à un risque plus faible de développer de tels symptômes. À l’inverse, un régime alimentaire caractérisé par une forte consommation d’aliments sucrés et d’aliments riches en acides gras saturés et transformés pourrait exercer un effet délétère sur les voies physiopathologiques liées à la dépression, notamment l’inflammation, le stress oxydatif, le microbiome intestinal, les altérations épigénétiques et la neuroplasticité. De nouvelles études sont attendues pour décrire plus précisément ces mécanismes, ce qui permettrait de mieux accompagner les patients et d’apporter des conseils plus ciblés sur les régimes alimentaires à adopter.

En attendant les résultats de tels travaux, la nécessité d’avoir une alimentation équilibrée, s’inspirant du régime méditerranéen, couplée à une activité physique et à une durée de sommeil suffisante, reste un message de santé publique pertinent, qui ne peut qu’être bénéfique pour la santé physique comme mentale.

C’est normal d’avoir mal pendant les règles, vraiment ?

Modélisation en 3D d’un utérusModélisation en 3D d’un utérus. © Adobe Stock

Combien de fois les femmes n’ont-elles pas entendu qu’il était normal d’avoir des douleurs au moment des règles ? Au point que peu d’entre elles consultent aujourd’hui pour ces douleurs et d’autres symptômes prémenstruels et/ou menstruels.  

Pourtant, depuis quelques années, la parole se libère. La visibilité nouvelle donnée à l’endométriose a notamment permis de positionner le sujet des maladies gynécologiques, et plus spécifiquement des douleurs de règles, dans le débat public. Sur les réseaux sociaux, les comptes dédiés aux problématiques gynécologiques se multiplient, on parle de règles sans tabou, et des termes comme « syndrome prémenstruel », « trouble dysphorique prémenstruel » ou « dysménorrhée » commencent à émerger dans les discussions.

Dans ce nouveau Canal Détox, l’Inserm revient sur ces différentes notions qui font souvent l’objet de confusions et d’idées reçues, mais aussi sur l’importance de proposer une prise en charge plus adaptée et plus complète, prenant réellement en compte la parole et les expériences des femmes.

 

Comprendre la situation et la prévalence de la douleur  

On dit souvent que les douleurs associées aux règles sont « normales ». En fait, dans la pratique clinique, la question est rarement posée aux femmes et nombre d’entre elles choisissent de ne pas consulter, craignant qu’il ne s’agisse pas d’un problème de santé considéré « légitime » et redoutant de ne pas être prises au sérieux, comme l’ont rapporté plusieurs études qualitatives portant sur l’expérience des femmes face aux services de santé. Dans les faits, le tableau complet de situation concernant les douleurs de règles – scientifiquement appelées « dysménorrhées » – est souvent mal compris, de même que leur impact sanitaire et socio-économique.

Une équipe de recherche impliquant des scientifiques de l’Inserm a permis d’y voir plus clair sur la situation française, en menant une large étude s’appuyant sur les données de la cohorte Constances[1]. Plus spécifiquement, les chercheurs se sont intéressés à 21 287 femmes âgées de 18 à 49 ans ayant répondu à des questionnaires de santé, et notamment à des questions sur d’éventuelles dysménorrhées, dyspareunies (douleurs pendant et après les rapports sexuels) et douleurs pelviennes non liées aux règles.

Le résultat concernant les dysménorrhées est sans appel : les douleurs de règles seraient particulièrement fréquentes dans la population française. Environ 90 % des femmes réglées de 18 à 49 ans présentent une dysménorrhée cotée de 1 à 10 (sur une échelle où 0 correspond à aucune douleur et 10 à une douleur maximale insupportable). Parmi elles, 40 % vont présenter une dysménorrhée modérée à sévère avec une douleur comprise entre 4 et 10.

Les causes de ces douleurs peuvent être variées. L’endométriose concerne environ 1 femme sur 10 : les formes symptomatiques pourraient donc expliquer une partie des cas, mais ne peuvent seules être mises en cause dans la prévalence élevée des douleurs menstruelles. D’autres facteurs ont parfois été avancés comme des malformations utérines, des maladies inflammatoires du bas ventre… Il faut néanmoins souligner que les douleurs ne sont pas toujours associées à une pathologie sous-jacente. Au moment des règles, l’utérus produit des substances inflammatoires nommées prostaglandines, provoquant des contractions musculaires pouvant être douloureuses, sans qu’une maladie particulière ne soit responsable.

Pourquoi certaines femmes sont-elles tout de même plus sujettes que d’autres à ces douleurs ? La réponse n’est pas encore tout à fait claire. Des publications, comme par exemple une revue de littérature dans Epidemiologic Reviews, suggèrent que les antécédents familiaux de dysménorrhée augmentent fortement le risque pour une femme de souffrir à son tour de ces douleurs. Par ailleurs, des données épidémiologiques indiquent que des facteurs modifiables tels que le tabagisme, l’alimentation ou l’obésité pourraient jouer un rôle, mais ces données ne sont pas encore assez nombreuses ni assez solides pour être concluantes, et les scientifiques ne comprennent pas encore quels pourraient être les mécanismes physiopathologiques sous-jacents.

Il est surtout crucial de s’intéresser au retentissement de ces douleurs sur le quotidien des femmes, en prenant le temps de les écouter et de leur poser des questions spécifiquement sur ce sujet. Avoir mal pendant les règles n’est ni normal, ni une fatalité et une prise en charge adaptée, passant parfois par l’utilisation de certains traitements (antidouleurs, traitements hormonaux dans certains cas…) peut avoir des effets bénéfiques.

Des études plus précises pour comprendre l’impact des douleurs sur les activités quotidiennes mais aussi sur les barrières à l’accès aux soins pourraient apporter de précieuses informations, permettant de mieux prendre en charge les patientes à l’avenir.

 

Et le syndrome prémenstruel dans tout cela ?

Au-delà de la discussion qui commence à s’ouvrir au sujet des douleurs, quand on aborde le sujet des règles, c’est surtout les termes de « syndrome prémenstruel » et de « trouble dysphorique prémenstruel » qui sont le plus souvent évoqués dans les médias et sur les réseaux sociaux. Les deux notions sont parfois confondues et pas toujours bien définies – d’autant qu’aucun mécanisme physiopathologique n’a été bien décrit dans la littérature scientifique jusqu’ici.

On s’accorde toutefois généralement pour dire que le syndrome prémenstruel est une série de symptômes physiques et psychiques qui démarrent entre quelques heures et plusieurs jours avant les règles, et qui disparaissent généralement peu après leur arrivée. A priori sans gravité, ces symptômes sont néanmoins désagréables, franchement pénibles voire handicapants pour certaines femmes. Comme on ne comprend pas encore bien l’origine de ces symptômes, il n’existe aucun traitement spécifique actuellement.

Lire notre article sur le sujet : C’est quoi le syndrome prémenstruel ?

Cependant, plusieurs approches peuvent être proposées aux patientes pour réduire les désagréments, notamment en agissant sur certaines habitudes (tenter d’avoir un meilleur sommeil, pratiquer une activité physique, réduire la consommation d’alcool et de caféine…) ou en prescrivant des traitements pour lutter contre les symptômes. En gardant en tête que toutes les femmes sont différentes et que ce qui fonctionne pour l’une n’est pas toujours efficace pour une autre. Là encore, écouter la parole des patientes, s’efforcer de personnaliser l’approche thérapeutique et prendre en compte le vécu de la personne est essentiel.

Que sait-on du trouble dysphorique prémenstruel ?

Depuis quelque temps, on entend aussi souvent parler de « trouble dysphorique prémenstruel ». Celui-ci est souvent défini comme une forme sévère de syndrome prémenstruel, avec au premier plan d’importants symptômes psychologiques (symptômes dépressifs, anxiété, sautes d’humeur…). Au point que certains médecins le rangent même dans la catégorie des troubles psychiatriques. Ce point fait néanmoins débat dans la communauté scientifique, d’autant que les mécanismes biologiques et fonctionnels sous-jacents ne sont pas encore compris.

En bref, il n’y a pas encore de définition claire et consensuelle de ce trouble, de sa prévalence et de qui sont les personnes qui sont le plus touchées. La bonne nouvelle, c’est que de plus en plus de recherches s’intéressent au sujet, et plus précisément au rôle des hormones et d’autres mécanismes biologiques. Mais les limites méthodologiques demeurent importantes et la distinction avec la notion de « trouble prémenstruel » n’est pas toujours faite dans ces études. Des travaux de qualité, s’appuyant sur une définition plus précise de ce trouble, seraient nécessaires pour y voir plus clair et pour apporter de véritables réponses aux patientes.

 

Quelques idées reçues sur les règles et le cycle menstruel

1) « L’ovulation se produit nécessairement le 14e jour après le début des règles » : la première moitié du cycle menstruel (phase folliculaire) peut avoir une longueur très variable, entre 5 et 20 jours sans que ce soit pathologique. L’ovulation peut donc intervenir plus tôt ou plus tard que le 14e jour.

2) « Le sport et les règles sont incompatibles » : cette idée est répandue, probablement parce que les douleurs et autres symptômes que l’on peut ressentir pendant les règles peuvent décourager la pratique de l’exercice. Et pourtant, de nombreuses études ont permis de montrer que l’activité physique a au contraire un impact bénéfique sur les douleurs. Une revue Cochrane a récemment montré que les exercices de faible intensité, comme le yoga, ou de forte intensité, comme l’aérobic, peuvent réduire considérablement l’intensité des douleurs par rapport à l’absence d’exercice.

3) « Il est impossible de tomber enceinte pendant ses règles » : si la probabilité est effectivement proche de 0, il faut garder en tête que les cycles ne sont pas toujours réguliers et varient aussi d’une femme à l’autre. Les femmes sont généralement fertiles environ entre les jours 10 et 21 du cycle. Si les règles durent 5 à 7 jours et qu’un rapport sexuel intervient vers la fin de celles-ci, il est théoriquement possible de concevoir, car le sperme peut survivre jusqu’à 5 jours après les rapports sexuels dans le tractus génital féminin.

4) « Notre cycle menstruel se synchronise avec celui de nos proches » : si vous habitez avec d’autres femmes, vous avez peut-être déjà eu vos règles au même moment et vous vous êtes donc fait la réflexion que vos cycles se calaient l’un sur l’autre. La plupart des études qui tentent de confirmer ce phénomène ont été critiquées pour leur méthodologie peu rigoureuse et il n’existe pour l’heure aucune preuve d’une possible « synchronisation des cycles ». Comme les règles durent plusieurs jours par mois et reviennent en moyenne toutes les trois semaines, le fait de les avoir en même temps qu’une proche tient plus de la probabilité statistique que d’un phénomène biologique. On peut ici aussi rappeler qu’aucune étude non plus n’a apporté de preuve concernant un quelconque lien entre le cycle lunaire et le cycle menstruel.

5) « Un cycle irrégulier est un signe d’infertilité » :  cette idée est également fausse. Une femme peut ovuler un jour différent à chaque cycle et donc présenter des cycles irréguliers, sans qu’il y ait infertilité. D’ailleurs, il est utile de rappeler que lorsqu’on parle d’« infertilité », on parle d’un couple et non d’une personne seule.

[1] Constances est une cohorte épidémiologique « généraliste » constituée d’un échantillon représentatif de 200 000 adultes âgés de 18 à 69 ans à l’inclusion, consultant des centres d’examens de santé (CES) de la Sécurité sociale.

 

Texte rédigé avec le soutien du Dr François Margueritte, gynécologue obstétricien et  chercheur au CESP Inserm U1018, équipe soins primaires et prévention

 

Les infections fongiques, la nouvelle pandémie, vraiment ?

Spores fongiques et "tête aspergillaire" du champignon microscopique Aspergillus fumigatus en culture (grossissement x 400)
Spores fongiques et « tête aspergillaire » du champignon microscopique Aspergillus fumigatus en culture (grossissement x 400) © JP Gangneux/CHU de Rennes

Alors que les bactéries résistantes aux antibiotiques constituent un problème de santé publique toujours plus important, le corps médical et scientifique est aujourd’hui confronté à l’émergence d’une nouvelle menace infectieuse : celle des champignons résistants aux traitements antifongiques. Depuis quelques années, des épidémies dues à des champignons microscopiques ont émergé dans le monde, et la transmission de ces agents infectieux a été particulièrement visible lors de la pandémie de Covid-19, profitant de la promiscuité et des protocoles de soins dégradés causés par l’afflux massif de patients. Preuve que ce sujet est de plus en plus prégnant, l’Organisation mondiale de la santé a publié fin 2022 la toute première liste d’agents pathogènes fongiques prioritaires, répertoriant les dix-neuf champignons les plus menaçants pour la santé publique. L’objectif de cette liste est d’alerter et d’orienter les travaux de recherche et les politiques publiques sur ces pathogènes encore mal connus et peu étudiés[1].

Dans le même temps, la pop culture a vu revenir les infections fongiques sur le devant de la scène avec la sortie début 2023 de la première saison de la série post-apocalyptique The Last of Us, adaptée du jeu vidéo éponyme. Pourtant, le champignon responsable de la pandémie mis en scène ici ne fait pas partie de ceux considérés comme menaçants par l’OMS. Non, ce supposé pathogène qui transforme les personnes infectées en créatures cannibales est inspiré des champignons macromycètes[2] du genre Ophiocordyceps qui infectent certaines espèces d’insectes chez qui ils provoquent des comportements anormaux. La franchise The Last of Us propose une théorie intéressante : le réchauffement climatique aurait poussé ce champignon – qui habituellement prospère autour de 18 °C –, à s’adapter à des températures plus élevées. Il serait ainsi devenu capable de contaminer des espèces aux organismes plus chauds que les insectes, comme les mammifères et, par extension, les êtres humains.

Mais, au-delà de la fiction, cette théorie inquiétante est-elle scientifiquement crédible ? Peut-on envisager que le réchauffement climatique puisse a minima favoriser les infections fongiques, voire entraîner la mutation ou l’émergence d’une espèce de champignons susceptible d’altérer le comportement humain ? Les infections fongiques constituent-elles déjà la prochaine grande pandémie ? Canal Détox s’est penché sur ces questions.

 

Les personnes immunodéprimées et fortement médicalisées : une population à risque d’infections fongiques graves

Les champignons dont les spores sont capables d’infecter l’humain[3] peuvent causer des infections superficielles relativement simples à traiter, mais également des infections plus sévères, qui, à partir d’une infection locale, peuvent diffuser vers d’autres parties du corps par la circulation sanguine. Ces infections fongiques graves (dites « invasives et disséminées ») présentent un taux de mortalité élevé alors que le nombre d’antifongiques disponibles demeure limité.

Ces infections graves, responsables annuellement d’environ 1,6 million de décès dans le monde, touchent principalement des populations vulnérables de personnes immunodéprimées : patients bénéficiant d’une greffe d’organe ou de moelle osseuse, touchés par un cancer, par le sida ou atteints d’une maladie respiratoire chronique… Ces patients sont en outre fortement exposés au milieu hospitalier et à des soins et actes médicaux réguliers et parfois invasifs, pouvant favoriser les contaminations.

Dans le contexte de la pandémie de Covid-19, la situation des épidémies fongiques dans les hôpitaux, mais également dans la population générale, s’est brutalement aggravée : tandis que les infections courantes (comme les mycoses orales et vaginales) sont devenues plus résistantes aux traitements, les infections fongiques graves ont augmenté de manière significative chez les patients hospitalisés. Les chiffres étaient ainsi particulièrement alarmants pour les Covid sévères, avec une estimation de 10 à 20 % de patients sous assistance respiratoire touchés en réanimation et un risque de mortalité dépassant 60 %.

Plusieurs études se sont penchées sur cette période[4], soulignant que la pandémie de Covid-19 a présenté deux grandes caractéristiques particulièrement propices à la progression des infections fongiques en milieu hospitalier : les poumons des patients endommagés par le SARS-CoV-2 constituaient un environnement favorable à l’infection (notamment par les champignons du genre Aspergillus) ; l’immunodépression des patients, la réanimation et les traitements administrés au cours des Covid sévères ainsi que la saturation et la désorganisation du système de santé étaient également propices à diverses contaminations. Il n’est pas à exclure qu’une potentielle nouvelle pandémie recrée ces mêmes conditions à l’avenir.

 

Réchauffement climatique et Ophiocordyceps : le combo parfait pour une pandémie zombie ?

Selon des éléments récents rapportés par l’OMS, le réchauffement climatique et les échanges internationaux accrus seraient ensemble responsables de l’augmentation du nombre d’infections fongiques et de leur rayonnement géographique.

La virulence de certains pathogènes fongiques est fortement dépendante de leur tolérance au stress thermique ; ils ne peuvent pas causer de maladie chez les mammifères s’ils ne sont pas capables de supporter la température relativement élevée de leur organisme. Par exemple, début 2023, une équipe britannique a publié des travaux alertant sur l’accroissement du nombre d’infections graves causées par Cryptococcus neoformans sous l’influence du réchauffement climatique. Selon l’équipe de recherche, sous l’effet d’une augmentation de la température de son environnement, ce champignon particulièrement ravageur chez les malades du sida (presque 1 décès sur 5 au niveau mondial lui serait imputable) présenterait une intensification de mutations favorisant à la fois sa résistance à la chaleur et ses capacités infectieuses pour l’être humain. De même, Candida auris est l’exemple type d’une levure émergente, résistante aux antifongiques, transmise sur le mode épidémique, et probablement associée au réchauffement climatique.

Pour autant, est-il crédible d’anticiper une pandémie similaire à celle décrite dans la franchise d’anticipation The Last Of Us ? Sous l’effet du changement climatique, un champignon qui prospère à basse température est-il capable de s’adapter à la chaleur jusqu’à pouvoir contaminer notre espèce et atteindre son système nerveux, voire en prendre le contrôle pour se reproduire ?

La franchise met en scène un futur post-apocalyptique où un champignon appelé « Cordyceps » transforme les personnes infectées en créatures cannibales, mues par un seul objectif : la multiplication.

Ce champignon est inspiré des différentes espèces relatives au genre Ophiocordyceps qui sont des champignons macromycètes effectivement capables de parasiter des arthropodes (insectes, arachnides ou mille-pattes) et d’en altérer le comportement (par exemple hyperactivité et déplacements inhabituels ou encore propension à mordre dans une plante et à s’y accrocher jusqu’à la mort) afin de compléter leur propre cycle reproductif – au détriment de la vie de l’insecte qu’ils finissent par digérer de l’intérieur. Ce phénomène, couplé aux impressionnantes images, presque fantasmagoriques, montrant le champignon émerger progressivement de l’exosquelette de son hôte, est un vivier d’inspiration tout désigné pour une fiction horrifique. Cependant, aussi inquiétante que puisse paraître cette capacité, elle répond à des règles biologiques bien précises.

Tout d’abord, chaque espèce d’Ophiocordyceps est dite super-spécifique, c’est-à-dire qu’elle n’est capable de parasiter qu’une seule espèce bien précise d’arthropode. Les plus connus sont ceux surnommés zombie-ant fungi (champignons de la fourmi zombie), qui infectent chacun une espèce différente de fourmi, mais il existe plusieurs centaines d’espèces distinctes.

En 2020, des scientifiques ont pris en exemple deux espèces d’Ophiocordyceps, O. kimflemingiae et O. camponoti-floridani, et leurs deux espèces cibles de fourmis pour tenter de décrire le mécanisme moléculaire encore mal connu de cette interaction parasitaire. Un séquençage du génome des champignons et de leurs hôtes infectés, depuis la période de manipulation jusqu’après la mort, a permis de mettre en évidence chez les fourmis des modifications génétiques susceptibles d’impacter leurs fonctions neurologiques et, plus étonnant, des gènes fongiques relatifs à la sécrétion de molécules neurotoxiques. Ces altérations induites par le champignon et touchant le système nerveux de son hôte pourraient ainsi être responsables des modifications comportementales observées.

En outre, il semblerait que l’Ophiocordyceps ne soit pas le seul champignon impliqué dans cette « zombification » comme le montrent de récents travaux parus en 2022. Une équipe de recherche a ainsi découvert que O. camponoti-floridani est lui-même infecté par au moins deux autres champignons parasites jusque-là inconnus : Niveomyces coronatus et Torrubiellomyces zombiae. D’autres espèces d’Ophiocordyceps, en particulier ceux infectant les fourmis, seraient également parasitées par des champignons similaires. Selon les chercheurs, ces derniers semblent se nourrir du champignon hôte voire, dans certains cas, le stériliser. Si les raisons de cette interaction sont encore inconnues, l’une des hypothèses est que ces champignons pourraient participer à la régulation des populations d’Ophiocordyceps.

À la lumière des connaissances actuelles, cet ensemble imbriqué de mécaniques génétiques, moléculaires et environnementales extrêmement précises et finement régulées rend fortement improbable qu’un membre du genre Ophiocordyceps devienne un jour susceptible d’infecter et de contrôler une espèce à sang chaud comme il en est capable avec une espèce d’insecte bien spécifique, et ce, même en étant soumis à des variations environnementales telles que celles induites par le réchauffement climatique.

Le système nerveux sous influence : infection ou intoxication ?

Au tout début du premier épisode de la série The Last of Us, un scientifique fait un rapprochement fallacieux entre la forme de « contrôle » exercée par Ophiocordyceps sur ses hôtes et des champignons dont la consommation génère des effets hallucinogènes comme l’ergot de seigle (dont est extrait le LSD) ou certains champignons du genre Psylocybe consommés comme psychotropes. Cette comparaison erronée met en parallèle deux modes d’action bien distincts : l’infection et l’intoxication. L’infection passe par une contamination via les spores (l’organe de reproduction). Elle est rendue possible par une machinerie génétique et moléculaire extrêmement fine visant à permettre à un micro-organisme donné de se reproduire dans une espèce précise ; dans le cas rare d’Ophiocordyceps cette mécanique lui donne une forme de « contrôle » sur l’hôte pour répondre à des conditions bien spécifiques de reproduction.

L’intoxication, elle, n’a rien à voir avec la reproduction. Elle correspond à la sécrétion par le champignon de molécules appelées alcaloïdes, produites par de nombreuses espèces de champignons, végétaux et animaux. Leurs effets sur le système nerveux ne se révèlent que lors d’une consommation des organismes concernés. Au-delà de leurs effets psychotropes et/ou de leur toxicité (certains peuvent s’avérer mortels à très petite dose), nombreux sont ceux qui présentent des propriétés médicamenteuses et ils sont par conséquent très utilisés en pharmacopée (strychnine, quinine, morphine, codéine, scopolamine…). Certaines hypothèses suggèrent que les alcaloïdes pourraient constituer pour le champignon un moyen de défense contre les prédateurs et/ou, dans certains cas, une réserve nutritive d’azote.

 

Des champignons de plus en plus résistants

Si la menace d’une apocalypse zombie causée par une mutation d’un Ophiocordyceps peut être écartée à l’heure actuelle, l’évolution d’autres pathogènes fongiques microscopiques beaucoup plus proches de nous, bien que moins cinématographique, s’avère malgré tout alarmante. Le réchauffement climatique entre en jeu comme nous avons pu le voir précédemment, mais il n’est pas le seul.

À l’instar de la montée toujours plus préoccupante de l’antibiorésistance de bactéries pathogènes, la résistance des champignons micromycètes aux antifongiques – qui rend de plus en plus difficile la prévention et le soin des infections humaines – est en partie due à une utilisation inappropriée et abusive. Par exemple, selon l’OMS, le renforcement de la résistance du champignon Aspergillus fumigatus, dont le nombre d’infections est en forte augmentation, serait en partie lié au recours excessif aux antifongiques azolés dans le domaine agricole. Le champignon Candida auris, lui, a gagné l’appellation de « super champignon » (ou super bug) grâce à sa capacité à s’adapter très rapidement aux antifongiques.

Jusqu’à récemment, on pensait que la résistance des champignons aux antifongiques était permise uniquement par des mutations de leur ADN. Cependant, en 2020 dans la revue Nature, une équipe de recherche de l’université d’Édimbourg a publié une étude mettant à mal ce paradigme. Les travaux suggèrent que, sous l’influence de signaux environnementaux, pourraient survenir des altérations dites épigénétiques[5] susceptibles de modifier l’activité des gènes du champignon pour lui permettre de s’adapter à un environnement hostile. Les auteurs pointent également que les techniques de séquençage du génome habituellement utilisées pour détecter les mutations des pathogènes fongiques – et surveiller ainsi l’évolution de leur résistance ou diagnostiquer une infection – ne sont pas adaptées pour détecter les mutations épigénétiques et passeraient donc à côté de certains cas.

Les stratégies de survie découlant de cette malléabilité génétique se manifestent sous plusieurs formes en fonction de la menace affrontée et de l’espèce fongique concernée : expression de protéines et pigments évitant la reconnaissance ou formation de levures géantes trop grosses pour être digérées par les cellules de l’immunité (ou les prédateurs) et plus résistantes aux facteurs de stress environnementaux, structures permettant l’adhérence (formation de biofilms et production de filaments invasifs) ou encore la production de molécules toxiques. Elles pourraient ainsi expliquer comment ces pathogènes développent une résistance aux traitements antifongiques, et plus largement les raisons de leurs excellentes capacités d’adaptation et de leur virulence chez l’humain.

Beaucoup moins spectaculaires visuellement et plus insidieuses que les infections fongiques mises en scène par la fiction, celles qui nous concernent réellement à l’heure actuelle n’en restent pas moins inquiétantes. Entre manque de connaissances en recherche, capacités d’adaptation efficaces et variées, résistance aux traitements et conditions favorables au développement dans les milieux extérieurs et de soin, les champignons microscopiques constituent une menace bien réelle et de plus en plus prégnante pour la santé humaine.

 

Texte réalisé avec le soutien de Jean-Pierre Gangneux, médecin, chef du laboratoire de parasitologie-mycologie et du pôle de biologie médicale au CHU de Rennes et directeur de recherche au sein de l’Institut de recherche en santé, environnement et travail (unité 1085 Inserm/École des hautes études en santé publique/Université d’Angers/Université de Rennes 1).

 

[1]Il est estimé que 98 % des champignons restent à ce jour non décrits par la science.

[2]Les macromycètes ou macrochampignons sont des champignons dont la fructification est visible à l’œil nu (par opposition aux micromycètes qui ne sont visibles qu’au microscope).

[3]Les champignons se reproduisent et se disséminent grâce à leurs spores qui, en fonction de l’espèce, peuvent se développer sur des plantes, des animaux ou d’autres champignons. La majorité des infections touchant l’humain sont causées par des champignons appartenant aux genres Candida, Aspergillus et Cryptococcus.

[4]Pour aller plus loin :

[5]Alors que la génétique correspond à l’étude des gènes, l’épigénétique s’intéresse à une « couche » d’informations complémentaires qui définit comment ces gènes vont être utilisés ou non par une cellule. Elle étudie les changements dans l’activité des gènes, qui n’impliquent pas de modification de la séquence d’ADN et peuvent être transmis lors des divisions cellulaires. Contrairement aux mutations qui affectent la séquence d’ADN, les modifications épigénétiques sont réversibles et parfois temporaires. Elles sont induites par l’environnement au sens large : la cellule reçoit en permanence toutes sortes de signaux l’informant sur son environnement, de manière à ce qu’elle se spécialise au cours du développement, ou ajuste son activité à la situation.

Des applications smartphones pour se protéger des moustiques, vraiment ?

moustique

© Fotalia

Les maladies à transmission vectorielle, c’est-à-dire des maladies humaines provoquées par des parasites, des virus ou des bactéries transmis par des vecteurs arthropodes, sont responsables de plus de 17% des maladies infectieuses dans le monde, et provoquent plus d’un million de décès chaque année. Les moustiques constituent de loin le principal vecteur de ces maladies, parmi lesquelles on peut citer le paludisme, le chikungunya, le virus Zika ou la fièvre jaune.

Ces maladies sont-elles en augmentation à travers le monde, et notamment en France, comme les gros titres de l’actualité semblent le suggérer ? Comment s’en protéger, quelles stratégies ont fait leur preuve contre les piqûres de moustiques ? Suffit-il simplement de mettre du répulsif anti-moustiques ou bien de télécharger une application sur son smartphone pour repousser ces insectes ? Canal Détox se penche sur ces questions.

 

Un plus grand nombre de cas, plus dispersés

Récemment, c’est plutôt le virus du Nil occidental[1] qui a fait la une de l’actualité, se propageant dans le sud de la France, avec l’apparition d’un cas autochtone[2] pour la première fois dans le territoire de la Nouvelle-Aquitaine. La région s’était déjà illustrée l’an dernier avec un premier cas autochtone du virus Usutu, un virus à ARN considéré comme émergent.

De manière générale, les maladies transmises par les moustiques sont en hausse en Europe et en France depuis plusieurs années, avec une accélération très nette en 2022. En effet, cette année-là, il y a eu 66 cas autochtones de dengue en France métropolitaine, soit le double du nombre de cas cumulés sur les quinze années précédentes. Alors que la dengue est la maladie virale transmise par les moustiques la plus répandue dans le monde, la reprise du trafic aérien et les flux de voyageurs ont aussi favorisé l’augmentation du nombre de cas importés (272 cas au total).

Par ailleurs, les cas de dengue sont aujourd’hui beaucoup plus dispersés géographiquement, ils ne sont plus uniquement circonscrits au pourtour méditerranéen. Notons que la population de moustiques tigres, responsable de la transmission de la dengue mais aussi du virus Zika et du Chikungunya a été identifiée dans 71 départements ce qui représente un plus grand risque de la diffusion de ces maladies sur tout le territoire.

Nous sommes donc dans une situation où le nombre de cas de maladies à transmission vectorielle est de plus en plus important, avec un risque de propagation à des régions où les moustiques n’étaient traditionnellement pas présents. Le réchauffement climatique serait un facteur aggravant à la fois parce qu’un climat chaud est propice au développement des moustiques et parce que des températures élevées favorisent la multiplication des virus au sein des moustiques.

 

Traitements et prévention : quelles stratégies ?

Si des traitements existent pour certaines maladies transmises par les moustiques, l’arsenal thérapeutique demeure encore limité dans la plupart des cas. Ainsi par exemple, le seul vaccin contre le virus du Nil occidental disponible est à destination des chevaux mais pas de l’humain, tandis que pour la dengue, le degré d’efficacité de la vaccination varie d’une personne à l’autre.

La prévention des piqûres est dans ce contexte une stratégie incontournable pour réduire la transmission et l’impact de ces maladies. Elle passe notamment par l’utilisation de protections individuelles, dont l’usage de vêtements amples couvrants et de moustiquaires traitées avec des insecticides dans les zones endémiques, mais aussi de répulsifs anti-moustiques.

Par exemple, depuis 2005, plus de 2 milliards de moustiquaires imprégnées d’insecticide ont été distribuées dans le monde pour prévenir le paludisme. Toutes ces moustiquaires ont été traitées avec une seule classe d’insecticide : les pyréthrinoïdes. En 2015, une modélisation publiée dans Nature a souligné que ces moustiquaires ont été à l’origine de la plupart des reculs des cas de paludisme observés entre 2005 et 2015, en particulier dans les zones de transmission modérée à élevée. Toutefois, depuis 10 ans, cette progression a nettement ralenti. Cela s’explique notamment parce que les moustiques sont désormais résistants aux pyréthrinoïdes dans de nombreuses régions, ce qui implique l’utilisation de moustiquaires traitées avec d’autres ingrédients actifs. Dans le même temps, la liste des insecticides autorisés s’est réduite, des données scientifiques ayant montré l’impact délétère de certains produits sur l’environnement.

Un autre axe très important de la prévention consiste à lutter contre les lieux de ponte des moustiques, en particulier à agir pour limiter le nombre de points d’eau stagnante, qui sont propices au développement et à la diffusion de moustiques dans le périmètre proche (les moustiques n’étant pas capables de voler plus d’une centaine de mètres).

De nombreux répulsifs olfactifs sont également disponibles sur le marché, notamment des produits à appliquer sur la peau (sprays, crèmes…) ou à diffuser dans l’environnement immédiat (bougies, prises électriques…). Si ces produits ont montré leur efficacité pour réduire les piqûres de moustiques, il s’agit tout de même de produits chimiques qu’il convient de ne pas utiliser en trop grande quantité. Par ailleurs, ils n’ont pas le même degré d’efficacité pour tout le monde (voir encadré à la suite de l’article), et la protection qu’ils confèrent est limitée dans le temps.

Face à cela, la recherche sur de nouveaux répulsifs est en plein essor, mais certaines dérives sont observées. L’une des plus notables, actuellement, est la popularité grandissante d’applications smartphones à télécharger, qui diffuseraient des ondes à basse fréquence pour repousser les moustiques. Cette idée de combattre les moustiques par le son et les ondes n’est pas nouvelle, et basée sur un argument simple : ces dispositifs seraient efficaces parce qu’ils imiteraient les ondes sonores produites par les battements d’ailes des moustiques mâles ou des libellules. Or les moustiques femelles qui piquent les humains, seraient repoussées par ce son, dans le premier cas parce qu’elles ne s’accouplent qu’une seule fois dans leur vie, dans le second parce que la libellule est leur prédateur.

Cependant, les données scientifiques ne sont actuellement ni assez nombreuses ni assez solides pour confirmer une quelconque efficacité de ce type de répulsif, d’autant que les ondes qui pourraient éventuellement être entendues par les moustiques femelles sont trop puissantes pour être reproduites par un smartphone.

Déjà en 2010, une revue de littérature sur dix études solides, publiée par l’organisation Cochrane, soulignait une absence de preuves concernant l’utilité de répulsifs anti-moustiques fondés sur les ondes, et allait même jusqu’à juger inutile la poursuite de recherches sur le sujet. Depuis, aucune étude n’est venue contredire ces conclusions avec des données plus robustes, mais ces applications – qui ont rarement été testées et validées en laboratoire -continuent à être téléchargées régulièrement.

Les experts déconseillent donc leur utilisation, au mieux parce qu’elles n’ont pas d’utilité, au pire parce qu’elles peuvent procurer un faux sentiment de protection, qui conduit les utilisateurs à négliger d’autres approches pour se protéger des piqûres.

 

Qu’est-ce qui attire les moustiques ?

Nous ne sommes pas tous égaux face aux piqûres de moustiques ! Parce qu’il existe de nombreuses espèces différentes, que certains climats sont plus propices que d’autres à leur prolifération… Mais aussi et surtout car nous pouvons leur sembler plus ou moins attirants. Sur ce dernier point, de nombreuses études scientifiques renseignent justement sur la susceptibilité individuelle aux piqûres.

Parmi les éléments « attractifs » documentés, on retrouve l’odeur : l’olfaction étant le principal sens par lequel les moustiques localisent leurs hôtes cibles. Les insectes seraient sensibles à divers composés organiques volatils présents sur la peau de l’humain, et dans sa transpiration (ex. ammonium, acide lactique…), ainsi qu’au CO2 qu’il rejette en respirant… Et comme nous sommes tous différents, l’intensité de la libération de ces composés « attractifs » varie selon les individus, ce qui explique que certains ont de plus grandes chances d’être piqués ! Les facteurs génétiques impliqués sont par ailleurs bien documentés par la littérature, d’autant qu’il est établi que la signature olfactive humaine propre à chacun est partiellement déterminée par des facteurs génétiques, notamment les allèles de l’antigène leucocytaire humain (HLA).

En outre, le régime alimentaire peut faire changer l’odeur corporelle : des scientifiques ont ainsi étudié les effets de la consommation de certains aliments sur l’attirance des moustiques. Contrairement à ce qu’on peut lire sur internet, rien ne prouve que l’ail et la vitamine B n’éloignent les moustiques ; alors que la consommation de bananes ou de bière pourrait augmenter cette attraction.

Par ailleurs les femmes enceintes libéreraient plus encore de composés attractifs que les autres individus. Il en serait de même pour les personnes atteintes de paludisme et porteuses du Plasmodium, qui peuvent donc, en se faisant piquer à nouveau, être à l’origine de la transmission de la maladie.

Toutes ces observations indiquent, qu’en plus de varier d’un individu à l’autre, l’attractivité humaine peut être modifiée en fonction des changements physiologiques et métaboliques observés chez un individu particulier…

Au-delà de cette susceptibilité individuelle, sur laquelle on ne peut malheureusement pas toujours agir, les scientifiques ont récemment découvert que certaines couleurs chaudes apparentées à celles de la peau humaine, comme le rouge, le noir et l’orange, sont perçues comme plus attirantes par les insectes. Se vêtir de bleu, de vert ou de violet pourrait donc permettre de passer un peu plus inaperçu.

 

Texte rédigé avec le soutien de Yannick Simonin, chercheur au sein de l’unité Inserm Pathogenèse et contrôle des infections chroniques et émergentes (unité 1058 Inserm/Université de Montpellier/EFS)

[1] Maladie virale transmise par les moustiques du genre Culex qui se contaminent exclusivement au contact d’oiseaux infectés. Les oiseaux sont les réservoirs du virus.

[2] On parle de cas autochtone quand une personne a contracté la maladie sur le territoire national et n’a pas voyagé en zone contaminée dans les 15 jours précédant l’apparition des symptômes.

De nouveaux médicaments pour lutter contre la résistance aux antibiotiques, vraiment ?

médicaments

Il y a quelques semaines, plusieurs articles de la presse internationale rapportaient les résultats préliminaires, non encore publiés dans une revue scientifique, d’une étude portant sur la découverte d’un nouvel antibiotique. Appelé clovibactine, celui-ci est décrit comme efficace contre plusieurs espèces bactériennes, sans qu’aucune résistance ne se développe. Alors que la résistance aux antibiotiques – ou antibiorésistance – est considérée partout dans le monde comme un problème de santé publique très important, cette nouvelle a forcément suscité de l’intérêt.

Mais comment interpréter concrètement ces résultats ? Et plus généralement, où en est-on dans la recherche de nouveaux antibiotiques ou d’approches alternatives qui permettraient de réduire la menace de l’antibiorésistance ? Canal Détox se penche sur cette problématique.

L’utilisation massive et répétée des antibiotiques en santé humaine et animale a entraîné l’apparition de souches de bactéries résistantes, contre lesquelles les traitements antibiotiques ne fonctionnent plus. Dans certains cas, la situation est très préoccupante puisque certaines souches bactériennes sont devenues multirésistantes, c’est-à-dire résistantes à plusieurs familles d’antibiotiques.

Cette situation implique que certains patients se retrouvent en impasse thérapeutique, car il n’y a plus d’options de traitement à leur proposer contre leur infection. Il s’agit donc d’un problème de santé publique majeur, qui est associé à 700 000 décès chaque année à travers le monde, dont environ 25 000 en Europe.

Lire notre dossier complet sur le sujet : « Résistance aux antibiotiques »

Actuellement, tous les antibiotiques sont concernés par des phénomènes d’antibiorésistance. C’est un peu moins le cas des molécules mises le plus récemment sur le marché, même si des résistances commencent là aussi à apparaître au fil des utilisations.

On peut par ailleurs souligner que certaines souches bactériennes sont plus problématiques que d’autres. Schématiquement, il existe deux grandes familles de bactéries, les GRAM+ (comme par exemple le staphylocoque doré) et les GRAM- (comme par exemple Escherichia coli, appelé communément le colibacille). La classification dans l’une ou l’autre de ces deux familles dépend de la structure de la bactérie. Aujourd’hui, ce sont plutôt les bactéries à GRAM- que les bactéries à GRAM+ qui sont multirésistantes aux antibiotiques, avec toutefois des différences selon les pays.

Les antibiotiques sont des substances chimiques, naturelles ou synthétiques, qui ont une action spécifique sur les bactéries. Ils peuvent tuer les bactéries ou limiter leur prolifération.

Les antibiotiques sont développés à partie de cultures de microorganismes ou entièrement synthétisés en laboratoire.

Les premiers antibiotiques isolés (pénicillines) ont été des substances naturelles produites par un champignon du genre Penicillium. Un des axes de recherche dans le domaine consiste à rechercher des antibiotiques naturels en testant des milliers de microorganismes (levures ou bactéries) susceptibles d’en produire spontanément.

 

La clovibactine, un nouvel antibiotique efficace ?

 Les travaux concernant la clovibactine n’étant pas encore publiés dans une revue scientifique validée par les pairs, il est difficile de se prononcer sur ces résultats et sur leur potentiel impact clinique. Ce qui se dessine toutefois aux premiers abords, c’est que la clovibactine est un antibiotique issu d’une bactérie identifiée dans les sols qui n’était pas connue des scientifiques auparavant. Les scientifiques expliquent que la clovibactine agirait en bloquant la synthèse des précurseurs des protéines qui constituent le « bouclier » des bactéries. Ils écrivent aussi que in vitro, aucune résistance ne semble se développer contre ce nouvel antibiotique. Néanmoins, celui-ci semblerait surtout efficace contre les bactéries à GRAM+, ce qui limiterait sa portée clinique.

Quoi qu’il en soit, ces données permettent d’ores et déjà de rappeler que les bactéries non cultivées représentent environ 99 % de toutes les bactéries présentes dans les environnements extérieurs et qu’elles constituent une source encore inexploitée de nouveaux antibiotiques. La clovibactine a été identifiée et développée à partir d’une bactérie issue des sols que les scientifiques n’avaient jamais réussi auparavant à mettre en culture. Ils y sont ici parvenus grâce à une technologie récente qui permet d’isoler une seule bactérie au sein d’un échantillon et de la mettre en culture durant plusieurs semaines pour qu’elle puisse se développer.

Cet article scientifique sur la clovibactine souligne donc qu’il pourrait être intéressant de continuer ce type de travaux en s’appuyant sur des méthodes de pointe pour découvrir de nouvelles bactéries dans l’environnement, à partir desquelles on pourra éventuellement développer de nouveaux antibiotiques. Déjà en 2015, des recherches similaires avaient abouti au développement d’un nouvel antibiotique appelé teixobactine.

Depuis la première publication de cet article, l’étude a été publiée.

 

Des pistes à explorer

Par ailleurs, de nombreuses autres pistes de recherche font l’objet de travaux rigoureux. Ainsi, de multiples essais cliniques testent par exemple l’efficacité de nouvelles molécules inhibant l’action d’enzymes appelées bêta-lactamases. Ces enzymes, qui sont produites par certaines bactéries, et notamment les bactéries à GRAM-, contribuent à les rendre résistantes à de nombreux antibiotiques. On peut donner l’exemple d’un nouvel inhibiteur de bêta-lactamase appelé avibactam, qui fonctionne selon ce mode d’action et qui est désormais commercialisé en association avec un antibiotique. Plusieurs inhibiteurs appartenant à la famille chimique de l’avibactam, en association avec d’autres molécules, sont actuellement en cours d’évaluation.

La phagothérapie demeure aussi une piste de recherche particulièrement active. Le principe de base est simple : il s’agit d’administrer des phages, c’est-à-dire des virus qui infectent et tuent spécifiquement certaines bactéries. Les phages pourraient donc être une option thérapeutique intéressante pour remplacer les antibiotiques. Connus de la communauté scientifique avant même la découverte des antibiotiques, ils sont tombés en désuétude avec l’arrivée de ces derniers.

La nécessité de trouver des solutions à l’antibiorésistance a contribué à un renouvellement de l’intérêt pour la phagothérapie et aujourd’hui, ce traitement est parfois autorisé à titre compassionnel. Néanmoins, certaines questions scientifiques demeurent encore sans réponse. Quel est le devenir des phages dans l’organisme ? Comment les purifier et préparer les dosages adaptés pour un usage clinique ? Si des essais sont en cours, le développement industriel de cocktails de phages, préparés à l’avance ou « sur mesure » pour lutter contre une bactérie spécifique, paraît encore complexe à l’heure actuelle.

Enfin, une dernière piste de recherche intéressante peut aussi être mentionnée : celle des anticorps monoclonaux. Ces molécules produites en laboratoire sur le modèle des anticorps naturels agiraient ici en luttant contre l’effet de toxines ou de facteurs de virulence des bactéries, les rendant moins agressives. Ils constitueraient donc une thérapeutique adjonctive ou une alternative intéressante aux antibiotiques. Des résultats prometteurs ont déjà été publiés.

Si toutes ces recherches doivent continuer à avancer, la prévention reste primordiale. Il s’agit même de la priorité numéro 1 pour lutter efficacement contre l’antibiorésistance. En vue de préserver le plus longtemps possible l’efficacité des antibiotiques disponibles, des mesures pour réduire leur consommation afin de limiter la pression de sélection sur les bactéries ont déjà été prises, comme par exemple le fait de sensibiliser les médecins et les patients à limiter la durée des traitements au strict nécessaire ou à bien distinguer les infections bactériennes des infections virales (contre lesquelles les antibiotiques sont inutiles). Poursuivre ces efforts est aujourd’hui plus que jamais nécessaire pour endiguer le fléau de la résistance aux antibiotiques.

Texte rédigé avec le soutien d’Olivier Barraud, Maître de Conférences des Universités – Praticien Hospitalier (MCU-PH), Université de Limoges et Bruno François, CHU de Limoges-Centre d’investigation clinique Inserm 1435.

 

Diagnostiquer l’endométriose avec un test salivaire, vraiment ? Un point sur les nouvelles données

endométriose

Crédits : Inserm

L’endométriose est une maladie gynécologique répandue qui touche une femme sur dix. Pourtant, jusqu’à présent, elle demeurait relativement mal connue du grand public. Ce n’est que récemment que les pouvoirs publics ont commencé à s’y intéresser.

En janvier 2022, le président Emmanuel Macron a ainsi annoncé le déploiement d’une stratégie nationale de lutte contre l’endométriose. Par ailleurs, le Plan interministériel 2023-2027 pour l’égalité entre les femmes et les hommes, présenté le 7 mars 2023 par la Première ministre Élisabeth Borne, a annoncé l’accélération des actions de recherche contre l’endométriose. Un programme et équipement prioritaire de recherche (PEPR) confié à l’Inserm (PEPR Santé des femmes, santé des couples) devrait permettre de matérialiser cette ambition, puisqu’il a pour objectif de développer les connaissances sur cette maladie mais aussi sur la fertilité et l’assistance médicale à la procréation.

Si ces mesures ont été bien accueillies par les patientes, la situation actuelle n’en reste pas moins compliquée, tant les retards de diagnostic sont fréquents et la prise en charge pas toujours adaptée.

Dans ce contexte, l’annonce en 2022 qu’un test salivaire avait été développé par la start-up lyonnaise Ziwig pour diagnostiquer rapidement et de manière non invasive l’endométriose n’était pas passée inaperçue. Les résultats publiés à l’époque dans le Journal of Clinical Medicine avait été considérés comme une première étape prometteuse qui ouvrait la porte à une confirmation à grande échelle en population générale.

Dans la suite de ce travail, l’équipe de recherche publie ce mois-ci de nouvelles données dans le journal NEJM Evidence. Canal Détox se penche sur leur portée clinique concrète.

 

Lire notre premier Canal Détox portant sur les données de 2022

 

Des retards de diagnostic

L’endométriose est une maladie caractérisée par la présence anormale, en dehors de la cavité utérine, de fragments de tissu semblable à celui de la muqueuse de l’utérus. Ces fragments vont s’implanter et proliférer sur de nombreux organes sous l’effet de stimulations hormonales. Les principaux symptômes sont des douleurs (notamment pelviennes, surtout pendant les règles) et, dans certains cas, une infertilité.

Il n’existe aujourd’hui pas de technique de dépistage de la maladie, que ce soit pour les femmes à risque ou en population générale. Les patientes qui présentent des symptômes peuvent se voir proposer un examen clinique (examen gynécologique) qui permet ensuite d’orienter la prescription d’une échographie ou d’une IRM. Seuls ces examens couplés à une biopsie (lorsque celle-ci est possible) sont capables de donner des réponses fiables aux patientes.

Cette situation, associée à une connaissance insuffisante de l’endométriose par les professionnels de santé, engendre des retards de diagnostic importants, et explique qu’à l’heure actuelle, il s’écoule en moyenne un délai de 6 à 10 ans avant que le diagnostic ne soit définitivement posé. Disposer d’un test rapide, fiable et non invasif pouvant être proposé aux femmes qui présentent des symptômes constituerait donc une avancée majeure.

De nouvelles perspectives pour les patientes

Le test salivaire mis au point ici a été développé à partir d’un échantillon de 200 femmes dont 153 présentaient un diagnostic d’endométriose. Concrètement, les scientifiques avaient cherché à identifier chez ces patientes des biomarqueurs caractéristiques de la maladie et étaient parvenus à isoler 109 microARN[1] exprimés différemment chez ces femmes par rapport à des femmes non atteintes mais présentant des symptômes évocateurs d’endométriose.

Dans leur premier article de 2022, les chercheurs avaient ainsi pu montrer que leur test présentait une sensibilité de 96 %, c’est-à-dire qu’il pouvait identifier 96 % des patientes atteintes d’endométriose, avec une excellente spécificité (très peu de faux positifs, voir encadré ci-dessous). Cependant, quelques limites méthodologiques avaient aussi été pointées.

 

Sensibilité et spécificité d’un test de diagnostic

La sensibilité et la spécificité expriment la capacité d’un test à catégoriser les patients (négatifs ou positifs pour la maladie considérée) :

  • la sensibilité est la probabilité du résultat positif du test chez les sujets porteurs de la maladie. On parle aussi de « taux de vrais positifs » ;
  • la spécificité est la probabilité du résultat négatif de test chez des patients non malades. On parle aussi de « taux de vrais négatifs ».

 

La nouvelle étude parue dans NEJM Evidence en juin 2023 est une analyse intermédiaire portant sur 200 nouvelles patientes (159 avec endométriose et 41 témoins) recrutées dans plusieurs centres en France. Il s’agit d’une analyse réalisée en cours d’essai, avant que toutes les patientes prévues aient été recrutées et/ou avant la fin de la période de suivi initialement prévue. Elle devrait être suivie à terme de résultats plus complets portant sur 800 femmes supplémentaires qui ont maintenant été recrutées.

L’équipe de recherche a ici procédé une nouvelle fois à un séquençage à haut débit des petits ARN pour identifier les microARN particulièrement exprimés chez les femmes présentant un diagnostic d’endométriose. De ces données ont été extraites les valeurs d’expression des 109 microARN précédemment identifiés, confirmant une nouvelle fois que le test a une forte sensibilité (96 %) et une forte spécificité (95 %). Ces résultats valident donc le panel de 109 microARN publié en 2022.

Il aurait toutefois pu être intéressant de refaire une nouvelle analyse sans rechercher spécifiquement ces 109 biomarqueurs, afin d’identifier indépendamment, et sans être influencé par les précédents résultats, un panel de microARN permettant le diagnostic mais aussi de répondre à d’autres questions essentielles au parcours de soins des patientes comme la réponse au traitement médical ou encore le risque de récidive après chirurgie.

Il est aussi important de noter que ce test a été développé et validé auprès d’une cohorte de patientes présentant des symptômes différenciant entre celles avec endométriose et celles du groupe témoin. Ces résultats ne peuvent donc pas être transposés à la population générale, comme un test de dépistage généralisé mais comme un test de diagnostic qui s’adresserait à la population de patientes qui présente des symptômes évocateurs d’endométriose selon les recommandations européennes.

Lors de la publication de la première étude, il avait été souligné que certaines femmes atteintes d’autres pathologies inflammatoires chroniques, comme la maladie de Crohn, pourraient présenter des signes d’inflammation similaires à ceux de l’endométriose en matière d’expression de biomarqueurs. Il semblait donc possible que les profils de microARN de ces patientes soient également similaires à ceux des femmes atteintes d’endométriose et qu’il soit difficile de distinguer ces maladies.

Cependant, parmi les microARN identifiés, il semblerait que certains permettent de caractériser d’autres mécanismes physiopathologiques que l’inflammation impliqués dans l’endométriose, par exemple des mécanismes liés à l’immunité ou à la prolifération cellulaire… Cet aspect pourrait expliquer la précision diagnostique du test salivaire aussi bien pour les stades précoces que pour les autres formes de l’endométriose.

L’analyse des 800 femmes additionnelles recrutées par l’équipe devrait désormais permettre d’apporter de nouvelles confirmations et perspectives. Cette étude représente une innovation technique, scientifique et médicale destinée à résoudre un problème de santé publique qui est l’errance diagnostique des patientes et à les orienter vers des choix thérapeutiques adéquats.

Texte rédigé avec le soutien de Daniel Vaiman, chercheur Inserm à l’institut Cochin à Paris, et Samir Hamamah, professeur de médecine et de biologie de la reproduction à la Faculté de médecine de Montpellier-Nîmes

[1] Un microARN est un ARN non codant qui joue un rôle important dans la régulation de l’expression des gènes. 

FIV : des interrogations sur la santé à long terme, vraiment ?

Embryon humain à huit cellules observé 72 heures après fécondation © Inserm/Lassalle, Bruno

L’assistance médicale à la procréation (AMP) concerne environ une naissance sur 30 en France, selon les données les plus récentes publiées sur le sujet. Parmi les techniques proposées (voir à la fin de l’article), la fécondation in vitro (FIV) est la plus utilisée, représentant 70 % des enfants conçus par AMP. Au cours des quarante dernières années, depuis les premiers succès de la FIV, ces chiffres n’ont cessé de croître.

En parallèle, de nombreux travaux ont été menés afin d’explorer les questionnements médicaux, scientifiques et éthiques suscités par ces techniques. L’une des interrogations centrales, régulièrement évoquée par les médias de manière plutôt pessimiste, concerne la santé à moyen et long terme des enfants nés par FIV.

Ces individus sont-ils vraiment plus à risque de développer certains problèmes de santé en grandissant – par exemple des altérations de la croissance, des troubles cardiovasculaires ou neuro-développementaux, ou même des cancers ? À l’âge adulte, sont-ils plus concernés par des problèmes de fertilité ? Quels travaux de recherche seraient aujourd’hui nécessaires afin de mieux appréhender ce sujet complexe ? Canal Détox fait le point.

Cet article a été préparé en s’appuyant sur le rapport très complet de l’Académie nationale de médecine sur le sujet : «  « Santé à moyen et à long terme des enfants conçus par fécondation in vitro (FIV) » Jouannet P., Claris O., Le Bouc Y. au nom d’un groupe de travail de l’Académie nationale de médecine

 

Des résultats globalement rassurants

La première chose à noter c’est que la période qui correspond à la fécondation et au développement embryonnaire avant l’implantation dans l’utérus est particulièrement fragile. Elle est marquée par des évènements majeurs au niveau génétique et épigénétique, qui jouent un rôle clé pour le développement de l’embryon mais aussi après la naissance. Lors de la FIV, cette période correspond aux phases où gamètes et embryons sont manipulés in vitro.

Il est donc logique que les scientifiques se soient intéressés de près aux conséquences de la FIV pour le développement et pour la santé des enfants et des jeunes adultes conçus de cette manière. Les études publiées sur le sujet tentent d’évaluer notamment s’ils sont plus fréquemment atteints de certains troubles – et si c’est le cas, dans quelle mesure un lien de causalité peut être établi avec les manipulations effectuées pendant la FIV.

Les données disponibles issues de ces travaux de recherche sont encore assez hétérogènes. Le message principal est que si les enfants conçus par FIV peuvent parfois être atteints de troubles de la santé, aucun problème particulier ne domine et leur prévalence est relativement modérée. Cette prévalence n’est pas beaucoup plus importante que chez les enfants conçus naturellement.

Prenons quelques exemples de pathologies qui ont souvent fait l’objet d’investigations. Dans un contexte où il a parfois été rapporté dans les médias que les enfants conçus par FIV présentent des retards de croissance, plusieurs études se sont intéressées à ce sujet, mettant en lumière des résultats plutôt rassurants. Si certains travaux soulignent bien des indices de masses corporels (IMC) plus faibles chez les enfants conçus par FIV, surtout en dessous de l’âge de 3 ans, des données ont ensuite montré que les éventuelles différences de croissance s’estompent à l’adolescence.

Autre inquiétude souvent relayée, celle d’une prévalence accrue des cancers pédiatriques chez les enfants nés par FIV. Si les résultats divergent d’une étude à l’autre, des travaux solides menés à partir des données de milliers d’enfants, notamment en Scandinavie, se sont montrés rassurants puisque les résultats n’indiquent pas de différence significative du taux de cancer chez les enfants conçus par FIV par rapport à ceux conçus naturellement.

Enfin, un point sur les anomalies cardiovasculaires, qui ont été centrales dans les débats scientifiques et médiatiques. Le consensus qui se dégage pour le moment est que les enfants et jeunes adultes nés par FIV présentent un risque modéré de troubles cardiovasculaires. Une augmentation légère de la pression artérielle est observée dans certaines études chez ces enfants et pourrait être associée à l’âge adulte à l’hypertension artérielle et à des maladies cardiovasculaires. Il est donc nécessaire de bien informer les parents à propos de ce risque et des stratégies de prévention pour le réduire, tout en y consacrant une attention particulière dans le suivi médical des enfants.

 

Des mécanismes imputables à la FIV ?

Un autre point intéresse les scientifiques et médecins qui travaillent dans le domaine : comment expliquer les incertitudes qui persistent sur certains troubles et les données contradictoires qui se dégagent parfois d’une étude à l’autre ?

Cela peut être en partie dû à des variations méthodologiques. En effet, les effectifs étudiés sont très variables, souvent avec un nombre faible de sujets et les groupes contrôles ne sont pas toujours pertinents. Les résultats peuvent aussi varier en fonction des catégories d’âge considérées, et les perturbations observées à un âge donné peuvent disparaitre à un âge plus avancé. Enfin, il n’est pas à exclure que le diagnostic des différents troubles puisse en partie être lié à une plus grande attention portée par les parents au développement et à la santé de leurs enfants nés par FIV par rapport au reste de la population.

Par ailleurs, les altérations observées chez les enfants ne sont pas forcément toutes directement imputables à la FIV. D’autres facteurs de risque propres à cette population pourraient aussi expliquer certains des troubles décrits.

Par exemple, dans le cas des troubles neuro-développementaux, la FIV ne semble globalement pas avoir d’effet délétère. Lorsque certains troubles sont diagnostiqués (troubles du spectre de l’autisme, de l’apprentissage, hyperactivité, anxiété…), ils pourraient plutôt être dus à d’autres facteurs de risque comme la prématurité. En outre, le contexte socio-familial doit mieux être pris en compte dans ce type d’étude.

Les couples infertiles peuvent aussi être plus à risque de transmettre à leurs enfants des facteurs responsables de perturbations de santé. Par exemple, certains garçons nés à la suite d’une FIV avec micro-injection de spermatozoïde dans l’ovocyte (ICSI), une technique proposée en cas d’infertilité masculine d’origine génétique, ont un risque accru d’être stériles comme leur père.

Priorités de recherche

Enfin, il est important de continuer les travaux pour mieux comprendre les mécanismes impliqués dans la survenue des troubles, notamment au niveau épigénétique, ainsi que les étapes de la FIV qui peuvent potentiellement augmenter certains des risques décrits.

Des études s’intéressent donc actuellement aux procédures utilisées pour réaliser une FIV, et suggèrent que dans ce cadre, ce sont les traitements hormonaux de stimulation ovarienne, les conditions de la culture embryonnaire et la congélation des embryons qui sont le plus souvent suspectés d’être à l’origine des troubles observés.

À l’heure actuelle, la priorité est aussi de poursuivre les études scientifiques dans des populations mieux caractérisées, notamment à des âges plus avancés de la vie, pour étudier la santé à long terme des individus nés par FIV. Il convient de mener des travaux à la fois cliniques et fondamentaux, pour comprendre d’où proviennent les altérations éventuelles et comment les éviter.

Malgré certaines incertitudes qui persistent, il faut enfin surtout continuer à informer, de manière aussi claire, objective et précise que possible, les personnes ayant recours à la FIV en les rassurant face aux messages pessimistes auxquels elles peuvent être confrontées mais aussi en leur donnant tous les éléments sur les risques potentiels à moyen et à long terme pour les enfants qui naitront.

 

L’AMP en pratique

Il existe différentes techniques pouvant être proposées aux couples infertiles candidats à l’AMP : insémination artificielle, FIV, FIV-ICSI…

Retrouvez toutes les informations sur ces différentes approches dans notre dossier dédié : https://www.inserm.fr/dossier/assistance-medicale-procreation-amp/

 

Texte rédigé avec le soutien de Thierry Galli (directeur de recherche Inserm et directeur de l’Institut Biologie cellulaire, développement et évolution), Jean Rosenbaum (directeur de recherche Inserm, Institut Biologie cellulaire, développement et évolution) et Christine Lemaitre (Institut Biologie cellulaire, développement et évolution et secrétaire générale du comité d’éthique de l’Inserm).

La cohérence cardiaque, une technique pour améliorer sa santé, vraiment ?

yoga

La pratique du contrôle de la respiration dans le yoga a été l’une des premières à utiliser des stratégies de respiration pour améliorer le bien-être. © Unsplash.

« Pratiquez la cohérence cardiaque pour obtenir des effets immédiats sur votre santé physique et mentale ! », c’est le genre de promesse que l’on peut lire dans les pages de magazines grand public, sur le site web de certains thérapeutes ou dans des applis « bien-être » qui proposent cette approche à des fins commerciales.

Mais au fil du temps et des usages, la cohérence cardiaque s’est imposée comme concept un peu large, regroupant en fait des pratiques diverses. En général, le point commun des techniques dites de « cohérence cardiaque » est de s’appuyer sur des exercices de respiration pour mettre en phase le rythme du cœur et celui de la respiration et aider ainsi les personnes à se relaxer.

Toutefois, les fondements scientifiques sous-jacents ne sont pas toujours bien compris et les bénéfices de ces techniques, même s’ils existent, sont parfois exagérés. On fait le point dans notre nouveau Canal Détox.

 

La cohérence cardiaque, c’est quoi au juste ?

Dans l’organisme, les fonctions respiratoires et cardiaques sont couplées : les variations de la fréquence cardiaque sont influencées par la respiration. Plus précisément, la fréquence cardiaque augmente pendant l’inspiration et diminue pendant l’expiration. Ce phénomène est appelé « arythmie sinusale respiratoire » (ASR) dans le monde biomédical, ou « cohérence cardiaque » par le grand public (voir encadré pour plus de détails).

L’amplitude de l’ASR est mesurée par la différence entre le rythme cardiaque maximum pendant l’inspiration et le rythme cardiaque minimum pendant l’expiration. Par exemple, si notre rythme cardiaque est de 80 battements par minute pendant l’inspiration, et de 70 battements par minute pendant l’expiration, alors l’amplitude de l’ASR est de 10 battements par minute.

Plusieurs études ont suggéré qu’une amplitude élevée d’ASR est bénéfique sur le plan physiologique et psychologique, tandis qu’une amplitude d’ASR réduite est liée à des troubles cardiovasculaires (hypertension, insuffisance cardiaque chronique) et mentaux (anxiété, stress, voire troubles du spectre autistique). Mais les données sont encore parcellaires et les connaissances sur le sujet reposent pour le moment souvent sur des observations empiriques.

Néanmoins, il s’agit d’un domaine de recherche de plus en plus fertile : la variabilité du rythme cardiaque, dont l’ASR est une des composantes, est d’ores et déjà utilisée comme outil diagnostique pour certaines pathologies (maladies cardiovasculaires, troubles psychiatriques, TSA…), et des essais cliniques qui s’intéressent à l’ASR des participants voient le jour. Ainsi, on dénombre près de 2 000 essais cliniques étudiant la variabilité de la fréquence cardiaque enregistrés sur clinicaltrials.gov. Leur objectif est soit d’augmenter l’amplitude de l’ASR comme stratégie thérapeutique, soit de l’utiliser comme indicateur d’efficacité d’une stratégie thérapeutique.

 

Des retombées sociétales à prendre en compte

Ces dernières années, augmenter l’amplitude de l’ASR grâce à des techniques de respiration, dans l’espoir d’améliorer sa santé, est une pratique qui a aussi gagné en popularité auprès du public. Cependant, le terme d’« arythmie sinusale respiratoire » étant un peu complexe, c’est celui de « cohérence cardiaque » qui s’est imposé dans le discours.

La pratique du contrôle de la respiration dans le yoga, appelée « pranayama », a été l’une des premières à utiliser des stratégies de respiration pour améliorer le bien-être. Aujourd’hui, les stratégies de respiration profonde telles que la technique « 365 » sont courantes et recommandées par les cliniciens. Des dizaines d’appareils et de technologies, y compris des applications pour smartphones développées à des fins commerciales, reprennent le concept à leur compte, enseignant ces stratégies respiratoires et utilisant principalement les mesures de l’ASR comme critère pour évaluer les bénéfices pour la santé.

Il existe des données empiriques et quelques études qui documentent les effets bénéfiques d’exercices respiratoires présentés comme des « techniques de cohérence cardiaque ». Par ailleurs, comme évoqué précédemment, des essais cliniques fondés sur l’ASR s’annoncent prometteurs.

Le problème, c’est que la frontière devient parfois très mince entre les connaissances scientifiques actuelles et les interprétations et usages prodigués au grand public, notamment par des entreprises privées à but lucratif. Les mécanismes biologiques sous-jacents de l’ASR sont mal compris et certaines affirmations concernant les bénéfices de la cohérence cardiaques sont parfois exagérées.

Prétexter par exemple pouvoir guérir de nombreux maux – de la dépression à l’addiction en passant par le stress post-traumatique – grâce à des exercices de respiration, sans tenir compte de l’état actuel des connaissances encore limité et sans proposer d’autres prises en charges thérapeutiques, est une porte ouverte à des dérives.

Zoom sur des études scientifiques solides

Quelques études scientifiques rigoureuses dans le domaine ont récemment été publiées, ouvrant la voie à une meilleure compréhension des bénéfices de l’ASR dans le cadre de certaines pathologies ainsi que des pistes qui doivent être poursuivies.

  • Pour les pathologies cardiovasculaires, travailler sur l’amplitude de l’ASR semble de plus en plus prometteur. Deux études ont montré récemment que le rétablissement d’une variabilité du rythme cardiaque en phase avec la respiration chez des modèles animaux d’insuffisance cardiaque chronique a des effets thérapeutiques importants.
  • Pour la première fois, en 2023, une étude a démontré un concept qui semblait déjà acquis dans l’imaginaire collectif : un rythme cardiaque élevé a un effet anxiogène. Cet article ouvre de nouvelles pistes pour comprendre les causes biologiques des troubles anxieux et les bénéfices de certains exercices de respiration lente et profonde pour calmer ces états. Il met aussi en avant l’idée que comprendre les états émotionnels ne peut se faire sans s’intéresser aux liens entre le cerveau et le reste des cellules de l’organisme.

 

Comment l’arythmie sinusale respiratoire est-elle générée ?

L’ASR est principalement générée par le cerveau. Le tronc cérébral, à la base du cerveau, contient des neurones appelés « respiratoires », à l’origine de la commande nerveuse contrôlant la contraction des muscles respiratoires, mais aussi des neurones « cardiaques », qui génèrent la commande nerveuse régulant l’activité cardiaque.

Certains neurones respiratoires modulent directement l’activité de neurones cardiaques, et plus précisément de ceux dits « parasympathiques », dont l’activité a un rôle de frein sur le rythme cardiaque.

En particulier, un groupe de neurones générant l’inspiration inhibe en parallèle des neurones cardiaques parasympathiques, conduisant à une augmentation du rythme cardiaque pendant l’inspiration. Un autre groupe de neurones qui génère le début de l’expiration active en parallèle les mêmes neurones cardiaques parasympathiques, conduisant à une chute du rythme cardiaque en début d’expiration.

C’est ce mécanisme qui génère l’ASR.

Texte rédigé avec le soutien de Clément Menuet, chercheur Inserm à l’Institut de neurobiologie de la Méditerranée (unité 1249 Inserm/Aix-Marseille Université)

Les psychédéliques, des traitements contre les troubles psychiatriques, vraiment ?

© Photo de Possessed Photography sur Unsplash

En avril 2023, des données issues d’un essai clinique de phase II mené en Suisse ont fait du bruit dans les médias. Et pour cause, il s’agissait d’un sujet plutôt hallucinant : l’étude s’intéressait aux effets d’une consommation de LSD pour des patients atteints de dépression, suggérant que cette substance psychédélique aurait des bénéfices importants. En effet, les premiers résultats indiquaient que les personnes à qui l’on avait administré de plus grandes doses de LSD avaient bénéficié d’une réduction moyenne de leurs symptômes dépressifs presque quatre fois supérieure à celle des personnes exposées à un placebo.

Ces données qui n’ont pas encore fait l’objet d’une publication scientifique revue par les pairs, ont néanmoins remis sur le devant de la scène un débat vieux de plusieurs décennies sur les éventuels bénéfices thérapeutiques du LSD pour tout un tas de troubles psychiatriques, de la dépression à l’anxiété,+ en passant par le stress post-traumatique. Depuis quelques années, l’intérêt pour ce domaine de recherche a repris de l’ampleur et de nombreux essais ont été lancés à travers le monde.

Mais n’est-il pas dangereux de se soigner avec du LSD ? Plus largement, la recherche a-t-elle vraiment déjà des preuves solides de l’efficacité des substances psychédéliques ? Canal Détox fait le point.

Dès les années 1950, deux substances psychédéliques font l’objet de nombreuses recherches : le LSD, dérivé d’une molécule issue d’un champignon parasite du seigle, et la psilocybine, principe actif de champignons hallucinogènes. Les médecins expérimentent, parfois sur eux-mêmes, les effets de ces molécules qui modifient l’état de conscience durant plusieurs heures. Ils étudient notamment leurs effets sur la dépression, l’anxiété, l’alcoolisme, les troubles obsessionnels compulsifs, ou encore en tant que soins palliatifs, avec l’espoir d’en faire des médicaments. Mais le LSD et la psilocybine, qui provoquent des hallucinations avec des distorsions des sens, du temps et de l’espace, vont finir par être considérés comme des drogues dangereuses et être interdits. Les recherches vont s’arrêter durant 30 ans.

Stimulées par les limites des traitements actuels contre les troubles psychiatriques, elles reprennent au milieu des années 1990, encadrées plus strictement, et éclaircissent, en partie, le mode d’action de ces molécules sur le cerveau. Elles révèlent notamment que le LSD et la psilocybine, agissent principalement dans le cerveau sur les récepteurs de la sérotonine, hormone impliquée dans la régulation des comportements, de l’humeur, et de l’anxiété.

C’est aussi sur le système sérotoninergique qu’agissent les antidépresseurs les plus prescrits actuellement, bien que leur effet ne soit bien évidemment pas le même. D’ailleurs, si les antidépresseurs sont moins populaires dans les médias que les substances hallucinogènes, il faut rappeler qu’ils apportent une solution satisfaisante, avec des effets persistants sur le long terme, à environ 70 % des patients traités en dépression.

Les promesses de la psilocybine

Les substances psychédéliques font aujourd’hui l’objet de nombreuses expérimentations en particulier aux États-Unis, en Grande-Bretagne et au Canada. Et jusqu’à maintenant, c’est la psilocybine qui obtient les résultats les plus intéressants dans les études déjà publiées.

Par exemple, son utilisation en complément de séances de thérapie a ainsi permis de réduire durablement l’anxiété et la dépression, notamment les formes résistantes aux antidépresseurs qui concernent environ 30 % des patients traités. Des effets secondaires (maux de tête, étourdissements mais aussi angoisse) ont cependant été notés chez 77 % des participants dans une récente étude.

La psilocybine a aussi eu des effets intéressants dans des essais sur des personnes qui cherchaient à arrêter le tabac ou l’alcool, ou encore pour accompagner les personnes en fin de vie, en favorisant la communication avec les proches et en leur permettant d’affronter plus sereinement la mort.

Autre piste explorée : l’utilisation des substances psychédéliques sur les troubles obsessionnels compulsifs ou TOC, pour les patients qui ne répondent pas aux traitements classiques. Une étude en double aveugle a démarré aux Etats-Unis, à l’université de Yale, pour évaluer l’effet de la psilocybine et décrire ses mécanismes d’action, chez une trentaine de volontaires atteints de TOC.

Enfin, dans le domaine du stress post-traumatique, des publications commencent aussi à voir le jour. Une revue de littérature a récemment rappelé le besoin de thérapies innovantes dans ce domaine et les premiers résultats prometteurs d’études menées chez des vétérans, témoignant d’un effet bénéfique de la prise de psilocybine pour affronter les souvenirs traumatiques et réduire les angoisses associées.

 

Des nuances à apporter

Malgré ces avancées, la prudence reste de mise. En effet si la plupart des études dédiées aux substances psychédéliques apportent des résultats intéressants et utilisent une méthodologie rigoureuse en « double aveugle versus placebo », elles sont encore peu nombreuses, et menées sur un nombre restreint de sujets. En outre, les mécanismes d’actions de ces substances expliquant leurs éventuels effets thérapeutiques demeurent assez peu explorés.

Par ailleurs, ces substances nécessitent d’être employées dans un cadre médical sécurisé : avec une préparation, un accompagnement, un environnement approprié, un dosage adapté, et l’exclusion de certaines interactions médicamenteuses ou certains profils psychologiques incompatibles avec ces traitements. Cela sera aussi de mise si les substances sont un jour autorisées en dehors du cadre d’un essai clinique.

La prise de psychédéliques peut par ailleurs s’accompagner d’effets secondaires comme le montrent certains essais, et dans les cas les plus extrêmes, des états d’intense panique, phobies et de confusion.

La présence d’un professionnel de santé pour s’assurer du bien-être physique et psychologique du patient, pendant et après le traitement semble donc incontournable. Dans la pratique, le nombre limité de psychiatres en France pourrait être un frein. Parmi les chantiers à mener, il faudra aussi déterminer les règles éthiques encadrant l’administration de telles substances hors des essais cliniques et bien définir les patients les plus susceptibles d’en bénéficier.

Alors, même si les effets de ces substances s’avèrent un jour clairement bénéfiques, avec de nombreuses autres études qui confirmeraient les premiers résultats prometteurs, l’idée n’est résolument pas de généraliser la prise de LSD comme celle d’une aspirine.

 

D’autres travaux français et européens à découvrir

À Amiens, l’équipe de Mickaël Naassila (laboratoire Inserm 1247 Groupe de recherche sur l’alcool et les pharmacodépendances) travaille en parallèle sur un autre grand projet, européen cette fois. Ce projet baptisé Psi-Alc a été lancé en 2019 pour une durée de 4 ans, et mené en partenariat avec des chercheurs allemands, italiens et suisses. Leur but est, entre autres, de décrypter les mécanismes d’action qui pourraient réduire l’envie de boire de l’alcool, après absorption de psilocybine.

Lire notre article sur le sujet : https://www.inserm.fr/actualite/therapies-psychedeliques-une-panacee/

fermer