Menu

L’anxiété, « juste une question de stress », vraiment ?

Cette image représente des neurones du cortex insulaire antérieur ciblant l’amygdale basolatérale et dans lesquels est exprimée la protéine fluorescente eYFPs © Yoni Couderc & Anna Beyeler

« Tu es juste un peu stressé », « Reprends-toi, l’anxiété ça n’est pas très grave, ça va passer », ou encore « C’est juste dans ta tête ! » : voilà le type de remarques que les personnes souffrant de troubles anxieux entendent bien souvent, ce qui témoigne d’une méconnaissance de ce qu’elles peuvent vivre au quotidien.

Malgré des progrès réalisés dans le diagnostic et la prise en charge des troubles anxieux, dans un contexte général où la santé mentale s’impose peu à peu comme un enjeu majeur de santé publique, de nombreux mythes persistent sur le sujet.

Alors l’anxiété, c’est quoi exactement et en quoi est-ce différent d’un « trouble anxieux » ? Quelles sont les options thérapeutiques pour les personnes qui en souffrent ? Et comment les recherches scientifiques permettent-elles de mieux prendre en charge les patients, mais aussi de lutter contre les idées reçues ? Canal Détox fait le point.

Il faut d’abord rappeler que l’anxiété est un phénomène physiologique naturel, qui peut toucher tout monde. En effet, lorsque nous sommes face à un danger ou à un stress, le fonctionnement de notre organisme se modifie et certains symptômes se manifestent : accélération du rythme cardiaque, troubles du sommeil, augmentation de la transpiration, difficultés à respirer… Chez la plupart des individus, ces symptômes sont généralement temporaires et disparaissent rapidement.

Toutefois pour d’autres personnes, ces symptômes peuvent s’installer durablement, en devenant très intenses et envahissants. On parle alors de « trouble anxieux », qui peut être diagnostiqué et pris en charge. Celui-ci concerne environ 20 % de la population adulte et, depuis la pandémie de Covid-19, certaines données suggèrent par ailleurs que cette prévalence serait en augmentation partout dans le monde.

Pour être plus précis, on peut dire qu’il existe en fait neuf sous-types[1] de troubles anxieux dont notamment le trouble d’anxiété généralisée, le trouble panique, les phobies spécifiques, l’agoraphobie, le trouble d’anxiété sociale et le trouble d’anxiété de séparation. Leurs symptômes, très variables d’une personne à l’autre, peuvent être à la fois neuropsychologiques (peur, stress, visions négatives de l’avenir, irrationalité…) ou neurosomatiques (insomnies, maux de tête, troubles digestifs, douleurs…).

Il est important de consulter un médecin si ces différents symptômes s’installent sur la durée avec un fort retentissement sur le quotidien, afin d’obtenir un diagnostic précis et de bénéficier d’une prise en charge thérapeutique adaptée.

 Pour plus d’informations, consultez notre dossier « Troubles anxieux, quand l’anxiété devient pathologique »

Pas de cause unique

Contrairement à ce que certains articles de presse un peu simplistes mettent parfois en avant, en tentant par exemple d’identifier un gène unique de l’anxiété, un régime alimentaire « problématique » qui déclencherait les symptômes ou encore un comportement augmentant le risque d’anxiété, aucune cause ne peut expliquer de façon systématique le développement des troubles anxieux.

La vulnérabilité aux troubles anxieux résulte en effet généralement de l’interaction de plusieurs facteurs : génétiques, environnementaux, neurologiques et/ou développementaux. La part de chacun de ces facteurs n’est pas la même d’un individu à l’autre et peut également varier chez une même personne au cours de la vie.

Les recherches actuelles, notamment dans le domaine de la neurobiologie et de l’imagerie cérébrale, permettent néanmoins de mieux comprendre ce qui se passe dans le cerveau d’une personne souffrant d’un trouble anxieux et les facteurs neurobiologiques en cause, ce qui pourrait à terme ouvrir la voie au développement de nouvelles pistes thérapeutiques.

Par exemple, des études ont récemment montré l’implication de plusieurs régions cérébrales comme l’amygdale et le cortex insulaire (ou insula), qui sont suractivées chez les patients. De récents travaux de l’équipe d’Anna Beyeler, chercheuse Inserm au Neurocentre Magendie à Bordeaux, ont mis en évidence grâce à des études sur des modèles animaux que des connexions entre ces deux régions s’activent de façon proportionnelle au niveau d’anxiété des individus. Ces travaux, en parallèle d’autres études, suggèrent que des circuits de neurones spécifiques, incluant l’amygdale et l’insula, sont responsables de l’anxiété et de ses troubles.

 

Pas de traitement miracle

En ce qui concerne les traitements disponibles, de fausses informations sont régulièrement véhiculées en ligne. Par exemple, certains avancent que le fait d’avoir une bonne hygiène de vie (bien dormir, avoir une alimentation équilibrée, faire de l’activité physique…) serait suffisant pour contrôler les troubles anxieux. D’autres mettent en avant les bénéfices de la méditation de pleine conscience pour un certain nombre de patients.

Si ces approches peuvent être utiles, il faut également rappeler que, dans de nombreux cas, des interventions thérapeutiques peuvent s’avérer nécessaires. Il s’agit souvent de proposer des sessions de psychothérapie – notamment thérapie cognitivo-comportementale (TCC) et/ou EMDR dans certains cas – généralement couplées à la prise de médicaments (le plus souvent des anxiolytiques).

Pour la plupart des individus, les troubles anxieux peuvent être efficacement pris en charge grâce à une combinaison de ces différentes méthodes, avec une atténuation très nette des symptômes. Néanmoins, certains patients sont résistants à ces thérapies, et le taux de rechute après arrêt des traitements est extrêmement important.

Il n’existe donc pas de traitement miracle, même si certains arguments marketing affirment le contraire. On peut penser par exemple à la promotion faite autour d’un « patch anti-anxiété » porté par des célébrités comme Meghan Markle. Or l’efficacité d’un tel dispositif ne repose sur aucune donnée scientifique solide, son fonctionnement supposé s’appuie sur une compréhension erronée de ce qu’est le « stress », et l’entreprise demeure résolument opaque sur le développement de ce « traitement ». Ce n’est qu’un exemple parmi d’autres méthodes « miracles » n’ayant en fait aucune utilité.

Pour les prochaines années, un des enjeux majeurs de la recherche fondamentale consiste à identifier les mécanismes neurobiologiques responsables de l’anxiété, afin de pouvoir les réguler et diminuer le niveau d’anxiété des individus. Le cerveau et les circuits de neurones qui le compose sont extrêmement complexes, et il va falloir un nombre considérable de recherches cliniques chez les patients, mais aussi précliniques dans des modèles animaux, pour pouvoir identifier les différentes causes des maladies anxieuses. Après avoir identifié ces biomarqueurs, l’espoir est de pouvoir mettre en place plus facilement des stratégies efficaces pour réduire l’anxiété des patients.

 

Texte rédigé avec le soutien d’Anna Beyeler, chercheuse en neurosciences, chargée de recherche Inserm, cheffe de l’équipe Circuits neuronaux de l’anxiété au Neurocentre Magendie à Bordeaux.

[1] Leur nombre varie légèrement en fonction des ouvrages de références – le DSM5 en mentionne 9.

Le cerveau des hommes, différent de celui des femmes, vraiment ?

cerveau© Fotalia

Dès que la discussion s’oriente sur la comparaison entre le cerveau des hommes et celui des femmes, les clichés du type « les hommes sont doués en maths et les femmes sont nulles en orientation » vont bon train. Ces visions stéréotypées sur les différences de « nature » entre les sexes suggèrent que nos aptitudes et nos personnalités sont programmées génétiquement dans les cerveaux et immuables. C’est pourtant loin d’être le cas, comme le soulignent notamment toutes les connaissances acquises au cours des dernières années sur la notion de « plasticité cérébrale ».

Mais les préjugés restent tenaces, largement relayés dans les médias mais aussi par certains milieux scientifiques qui contribuent à promouvoir l’idée d’un déterminisme biologique inné des différences d’aptitudes et de rôles sociaux entre les sexes. De nombreuses publications traitant des différences cérébrales entre les sexes ont été publiées, mais nombre d’entre elles ont longtemps été entachées de biais, d’interprétations erronées et/ou de méthodologies peu rigoureuses.

Alors, comment répondre à toutes ces idées reçues en s’appuyant sur des données scientifiques rigoureuses ? Et comment les progrès dans le domaine des neurosciences permettent-ils de combattre l’idée d’un déterminisme biologique des différences d’aptitudes cognitives et comportementales entre les femmes et les hommes ? Il ne s’agit pas de nier les différences entre les sexes mais de comprendre leurs origines. Les connaissances scientifiques actuelles montrent que l’argument des différences de « nature » utilisé pour expliquer les différences d’aptitudes, de rôles ou de comportements entre les femmes et les hommes ne tient plus.

 

Aucune différence dans les aptitudes cognitives

La question « le cerveau a-t-il un sexe ? » est au cœur de nombreuses recherches, et ce depuis des décennies. Sachant que le cerveau contrôle les fonctions physiologiques associées à la reproduction sexuée, on peut en partie répondre par l’affirmatif.

Néanmoins, la réponse est tout autre quand on s’intéresse aux fonctions cognitives. En effet, les progrès des recherches sur le développement du cerveau et la plasticité cérébrale montrent que les filles et les garçons ont les mêmes aptitudes cérébrales concernant les fonctions cognitives telles que l’intelligence, la mémoire, l’attention et le raisonnement.

Souvent, la question de la taille du cerveau a été au cœur des débats. C’est un fait, le cerveau des hommes est en moyenne 10 % plus gros que celui des femmes, soit environ 1,350 kg chez les hommes contre 1,200 kg chez les femmes. Si l’on ramène ce chiffre à la taille moyenne des individus (1,78 m chez les hommes contre 1,68 m chez les femmes françaises), cette différence reste significative, de l’ordre de 6 %.

Par ailleurs, concernant la structure interne du cerveau, plusieurs études par IRM ont montré des variations selon le sexe dans les volumes de la matière grise (où sont concentrés les corps cellulaires des neurones) et de la matière blanche (constituée des fibres nerveuses issues des corps cellulaires des neurones). Les filles ont en moyenne un peu plus de matière grise et les garçons un peu plus de matière blanche.

Ces diverses observations sur la taille et la structure du cerveau ont alimenté des théories censées expliquer les différences de comportement, de personnalité ou de raisonnement entre les sexes, mais tout cela a été mis à mal par des travaux récents.

D’abord, les différences structurelles disparaissent quand l’on prend en compte la taille des cerveaux en tant que telle : autrement dit, quand on compare des cerveaux d’hommes et de femmes de même volume, on ne voit plus de différences dans les proportions de matière grise et blanche.

Par ailleurs, il convient de noter que ni la taille du cerveau ni les proportions de matières grise et blanche n’ont un impact sur les capacités intellectuelles des individus. Albert Einstein par exemple avec un cerveau qui pesait 1,250 kg.

En fait, ce qu’il faut surtout retenir c’est qu’aucun cerveau ne ressemble à un autre. Tous les êtres humains ont des cerveaux différents indépendamment du sexe.

 

La notion de plasticité cérébrale est incontournable

Ce sont aussi les connaissances accumulées autour de la notion de plasticité cérébrale qui ont vraiment permis de comprendre que chaque cerveau est différent et que les variations ne sont pas une question de sexe. Autrement dit, il y a autant de différences entre les cerveaux de deux personnes d’un même sexe qu’entre les cerveaux de deux personnes de sexe différent.

Après la naissance, la fabrication du cerveau est loin d’être terminée, car les connexions entre les neurones – les synapses – commencent à peine à se former. La majorité des milliards des circuits de neurones du cerveau humain se fabriquent à partir du moment où le bébé commence à interagir avec le monde extérieur.

Cette multitude de connexions va être façonnée et va évoluer chez l’enfant et chez l’adulte, de manière différente d’un individu à l’autre en fonction de facteurs environnementaux, notamment de notre histoire, de nos expériences et de la société. Nos cerveaux sont donc plastiques, on parle de « plasticité cérébrale ».

Pour illustrer ce concept, on peut prendre l’exemple de personnes qui apprennent à jongler avec trois balles. Après trois mois de pratique, une étude s’appuyant sur des examens IRM a montré un épaississement des zones du cerveau spécialisées dans la vision et la coordination des mouvements des bras et des mains. Quand l’entraînement cesse, ces régions cérébrales rétrécissent.

Les théories qui prétendent que dès la naissance les cerveaux des filles et garçons sont distincts – et que ces différences expliquent celles de leurs rôles dans la société – sont fondées sur une conception figée du fonctionnement cérébral. Elles sont en totale contradiction avec la réalité des nouvelles connaissances sur la plasticité cérébrale.

Continuer à mener des études rigoureuses et éthiques avec des approches interdisciplinaires mêlant biologie, neurosciences et sciences humaines est plus que jamais nécessaire pour combattre les stéréotypes et les préjugés essentialistes et comprendre pourquoi les êtres humains sont tous semblables mais aussi tous différents.

 

La menace du stéréotype

Comme le montre l’expérience suivante, les stéréotypes de genre et la simple façon de présenter un problème peut influencer les performances d’un individu indépendamment de ses connaissances. Dans cette expérience datant de 2014, deux groupes de collégiens et collégiennes sont soumis à un même test qui consiste à mémoriser un dessin puis à le reproduire. Mais tandis que dans le premier groupe, on décrit le test comme une épreuve d’« arts plastiques », dans le second groupe, on parle d’épreuve de « mathématiques » et de « figure géométrique ».

Résultat : les garçons obtiennent de meilleurs résultats que les filles dans le groupe faisant l’épreuve qualifiée de « mathématiques », mais les filles surpassent les garçons dans le groupe faisant celle qualifiée d’« arts plastiques » (alors que ces tests sont pourtant strictement identiques). Ici, le stéréotype selon lequel les filles seraient moins douées que les garçons en mathématiques influence inconsciemment les résultats.

 

Et la testostérone ?

La testostérone est qualifiée à tort d’hormone mâle : elle est présente dans les deux sexes, mais à des niveaux différents. Sa concentration dans le sang est deux à trois fois plus élevée chez les hommes que chez les femmes. Cela n’est pas une règle absolue car le taux de testostérone varie en fonction de l’âge et des modes de vie. Pendant longtemps, on pensait que l’action de la testostérone sur le cerveau du fœtus mâle était responsable de traits de personnalité typiquement « masculins ». La notion de plasticité cérébrale vient là encore déconstruire cette idée.

 

Texte rédigé avec la collaboration de Catherine Vidal, neurobiologiste et membre du comité d’éthique de l’Inserm, cofondatrice du réseau international de recherche sur le cerveau et le genre (Neurogenderings Network)

 

Pour aller plus loin, vous pouvez lire les livres écrits par Catherine Vidal :

Nos cerveaux, tous pareils, tous différents ! Belin, 2015

Cerveau, sexe et pouvoir (avec D. Benoit-Browaeys), Belin, 2015

La « malbouffe » une cause de dépression, vraiment ?

aliments ultra-transformésAliments ultra-transformés © Photo de No Revisions sur Unsplash

La « malbouffe » augmenterait le risque de dépression. C’est avec ce titre qu’une étude a récemment été reprise très largement dans les médias. Mais au-delà des raccourcis médiatiques, que montrent précisément ces travaux scientifiques et quelles sont les implications en matière de santé publique ? Plus généralement, que sait-on aujourd’hui des associations entre alimentation et santé mentale ? Canal Détox revient sur ce sujet aussi complexe que passionnant.

Symptômes dépressifs et dépression – quelques repères

La dépression, ou « épisode dépressif caractérisé », touche tous les âges de la vie.  Elle est définie par la présence de trois symptômes dépressifs (tristesse/humeur dépressive, perte d’intérêt et abattement, perte d’énergie) associés sur la même période à au moins deux autres symptômes secondaires. Ces symptômes doivent être présents durant une période minimum de deux semaines, presque tous les jours, induire une détresse significative et avoir un retentissement sur les activités habituelles.

Attention, l’épisode dépressif caractérisé doit être distingué d’un sentiment de tristesse, d’un état réactionnel, d’un deuil… Il n’est pas à confondre avec le terme « déprime » utilisé dans le langage courant, qui correspond à un moment de vie passager où l’on peut ressentir des symptômes dépressifs isolés ou transitoires. Son diagnostic nécessite une démarche clinique approfondie – parfois sur plusieurs consultations – avec un professionnel de santé.

On peut aussi dire que la « déprime » se distingue de l’épisode dépressif caractérisé par la non-persistance des symptômes et le fait qu’elle n’a pas ou peu d’impact sur les activités quotidiennes des individus. L’épisode dépressif caractérisé affecte en revanche en profondeur la vie sociale, familiale et professionnelle des patients, augmente le risque de mortalité prématurée et, dans les cas les plus graves, mène au suicide : il est la première cause de mortalité chez les jeunes. Il est associé à un dysfonctionnement social et à une souffrance personnelle majeurs, avec des conséquences parfois lourdes en matière de fonctionnement social, de santé et même de décès, le risque de passage de suicide étant particulièrement élevé.

La crise sanitaire de la Covid-19 a engendré une augmentation importante d’épisodes dépressifs caractérisés.

Lire le dossier complet sur notre site : https://www.inserm.fr/dossier/depression/

L’étude en question, qui a beaucoup été médiatisée, a été publiée dans la revue Nutritional Neurosciences en mars 2023. Si c’est le terme « malbouffe » qui a été retenu pour communiquer auprès du public, il faut souligner que l’équipe de recherche s’est en fait spécifiquement intéressée à la consommation d’aliments dits « ultra-transformés ». Il s’agit des aliments qui nécessitent l’utilisation de plusieurs procédés de transformation et d’additifs qui vont modifier leur texture, leur saveur, leur durée de conservation.

Les scientifiques ont étudié l’association entre des apports élevés de ces aliments ultra-transformés et la récurrence de symptômes dépressifs au sein d’une population britannique. Ils ont examiné le poids de ces aliments dans les relations entre alimentation et symptômes dépressifs.

Les analyses des chercheurs suggèrent qu’il existe bien une association significative entre une consommation élevée d’aliments ultra-transformés et le risque de récurrence de symptômes dépressifs au cours du suivi de la cohorte. Ainsi, les participants qui consommaient le plus d’aliments ultra-transformés (soit un tiers de leurs apports totaux) avaient 30 % de risque supplémentaire de présenter des épisodes de symptômes dépressifs récurrents, en comparaison avec les participants consommant moins d’aliments ultra-transformés.

Cette étude menée au sein d’une cohorte britannique conforte des résultats observés auparavant dans des populations méditerranéennes, dont la consommation d’aliments ultra-transformés est pourtant plus modérée. Ce type d’étude nécessiterait cependant d’être reproduite afin de pouvoir généraliser les conclusions.

Par ailleurs, il est important de souligner que dans les études observationnelles comme celle-ci, la mesure des symptômes dépressifs repose souvent sur des échelles auto-remplies par les participants à propos de leurs symptômes, et ne constitue donc pas un diagnostic de dépression.

Ajoutons aussi que si l’association ente aliments ultra-transformés et symptômes dépressifs mise en lumière dans cette étude semble robuste, et que de potentiels facteurs environnementaux et socioéconomiques confondants ont bien été pris en compte pour estimer les associations, le lien de causalité ne peut toutefois pas être établi.  On ne peut pas affirmer que le fait de manger des aliments ultra-transformés en grande quantité va automatiquement causer le développement de symptômes dépressifs.

Quelle est la différence entre lien de causalité et association statistique ?

Attention, les études observationnelles en épidémiologie permettent d’établir des associations statistiques mais pas des relations causales. Prenons un exemple : les ventes de glaces et les attaques de requins augmentent quand il fait chaud – il y a donc une association statistique entre les deux phénomènes – mais on ne peut pas parler de relation causale. En effet, les ventes de glaces ne poussent pas plus les requins à attaquer les humains et les attaques de requins n’incitent pas les humains à consommer des glaces !

En revanche, les deux phénomènes arrivent plus fréquemment par beau temps, quand les températures sont élevées et que les gens sont à la plage.

 

Il est enfin utile à ce stade de rappeler que la dépression est une maladie psychiatrique multifactorielle et complexe. Certains types de régimes alimentaires pourraient peut-être constituer un facteur de risque d’en développer certains symptômes, et font à ce titre l’objet de recherches, comme en témoigne cette étude. En revanche, l’alimentation ne peut seule être mise en cause dans le développement de symptômes dépressifs et de la dépression.

 

L’importance de poursuivre les recherches

Revenir sur cette étude permet aussi de souligner à quel point il s’agit d’un domaine de recherche en plein essor. Un nombre croissant de scientifiques s’intéressent au lien entre alimentation et santé mentale.

Un axe de recherche récent a par exemple consisté à s’interroger sur le sens de la relation entre alimentation et épisode dépressif caractérisé : est-ce vraiment le fait de mal manger qui augmente le risque de dépression ou est-ce plutôt le fait d’être déprimé qui inciterait à la malbouffe ? Le lien est bidirectionnel, mais les analyses d’études prospectives évaluant le risque de dépression à partir du régime renseigné par des participants ont permis de montrer qu’au-delà de la détérioration des habitudes alimentaires constatée lors d’épisodes dépressifs, l’alimentation joue bien un rôle dans le développement de la maladie.

De nombreuses études se sont aussi intéressées à l’impact du régime méditerranéen sur le risque de développer des symptômes dépressifs. La qualité des méthodologies varie avec des différences dans le vocabulaire employé (certaines parlent d’épisode dépressif caractérisé alors que d’autres se concentrent simplement sur les symptômes dépressifs). Néanmoins, dans leur grande majorité, ces travaux concluent que le fait d’adopter un régime de type méditerranéen permettrait de prévenir le développement de symptômes dépressifs mais aussi les troubles de l’anxiété. Des travaux complémentaires devront être réalisés pour parvenir à expliquer ces associations sur le plan biologique et métabolique.

Des travaux suggèrent déjà que le régime méditerranéen a des propriétés anti-inflammatoires, neuroprotectrices, immunomodulatrices et antioxydantes qui sont associées à un risque plus faible de développer de tels symptômes. À l’inverse, un régime alimentaire caractérisé par une forte consommation d’aliments sucrés et d’aliments riches en acides gras saturés et transformés pourrait exercer un effet délétère sur les voies physiopathologiques liées à la dépression, notamment l’inflammation, le stress oxydatif, le microbiome intestinal, les altérations épigénétiques et la neuroplasticité. De nouvelles études sont attendues pour décrire plus précisément ces mécanismes, ce qui permettrait de mieux accompagner les patients et d’apporter des conseils plus ciblés sur les régimes alimentaires à adopter.

En attendant les résultats de tels travaux, la nécessité d’avoir une alimentation équilibrée, s’inspirant du régime méditerranéen, couplée à une activité physique et à une durée de sommeil suffisante, reste un message de santé publique pertinent, qui ne peut qu’être bénéfique pour la santé physique comme mentale.

Les infections fongiques, la nouvelle pandémie, vraiment ?

Spores fongiques et "tête aspergillaire" du champignon microscopique Aspergillus fumigatus en culture (grossissement x 400)
Spores fongiques et « tête aspergillaire » du champignon microscopique Aspergillus fumigatus en culture (grossissement x 400) © JP Gangneux/CHU de Rennes

Alors que les bactéries résistantes aux antibiotiques constituent un problème de santé publique toujours plus important, le corps médical et scientifique est aujourd’hui confronté à l’émergence d’une nouvelle menace infectieuse : celle des champignons résistants aux traitements antifongiques. Depuis quelques années, des épidémies dues à des champignons microscopiques ont émergé dans le monde, et la transmission de ces agents infectieux a été particulièrement visible lors de la pandémie de Covid-19, profitant de la promiscuité et des protocoles de soins dégradés causés par l’afflux massif de patients. Preuve que ce sujet est de plus en plus prégnant, l’Organisation mondiale de la santé a publié fin 2022 la toute première liste d’agents pathogènes fongiques prioritaires, répertoriant les dix-neuf champignons les plus menaçants pour la santé publique. L’objectif de cette liste est d’alerter et d’orienter les travaux de recherche et les politiques publiques sur ces pathogènes encore mal connus et peu étudiés[1].

Dans le même temps, la pop culture a vu revenir les infections fongiques sur le devant de la scène avec la sortie début 2023 de la première saison de la série post-apocalyptique The Last of Us, adaptée du jeu vidéo éponyme. Pourtant, le champignon responsable de la pandémie mis en scène ici ne fait pas partie de ceux considérés comme menaçants par l’OMS. Non, ce supposé pathogène qui transforme les personnes infectées en créatures cannibales est inspiré des champignons macromycètes[2] du genre Ophiocordyceps qui infectent certaines espèces d’insectes chez qui ils provoquent des comportements anormaux. La franchise The Last of Us propose une théorie intéressante : le réchauffement climatique aurait poussé ce champignon – qui habituellement prospère autour de 18 °C –, à s’adapter à des températures plus élevées. Il serait ainsi devenu capable de contaminer des espèces aux organismes plus chauds que les insectes, comme les mammifères et, par extension, les êtres humains.

Mais, au-delà de la fiction, cette théorie inquiétante est-elle scientifiquement crédible ? Peut-on envisager que le réchauffement climatique puisse a minima favoriser les infections fongiques, voire entraîner la mutation ou l’émergence d’une espèce de champignons susceptible d’altérer le comportement humain ? Les infections fongiques constituent-elles déjà la prochaine grande pandémie ? Canal Détox s’est penché sur ces questions.

 

Les personnes immunodéprimées et fortement médicalisées : une population à risque d’infections fongiques graves

Les champignons dont les spores sont capables d’infecter l’humain[3] peuvent causer des infections superficielles relativement simples à traiter, mais également des infections plus sévères, qui, à partir d’une infection locale, peuvent diffuser vers d’autres parties du corps par la circulation sanguine. Ces infections fongiques graves (dites « invasives et disséminées ») présentent un taux de mortalité élevé alors que le nombre d’antifongiques disponibles demeure limité.

Ces infections graves, responsables annuellement d’environ 1,6 million de décès dans le monde, touchent principalement des populations vulnérables de personnes immunodéprimées : patients bénéficiant d’une greffe d’organe ou de moelle osseuse, touchés par un cancer, par le sida ou atteints d’une maladie respiratoire chronique… Ces patients sont en outre fortement exposés au milieu hospitalier et à des soins et actes médicaux réguliers et parfois invasifs, pouvant favoriser les contaminations.

Dans le contexte de la pandémie de Covid-19, la situation des épidémies fongiques dans les hôpitaux, mais également dans la population générale, s’est brutalement aggravée : tandis que les infections courantes (comme les mycoses orales et vaginales) sont devenues plus résistantes aux traitements, les infections fongiques graves ont augmenté de manière significative chez les patients hospitalisés. Les chiffres étaient ainsi particulièrement alarmants pour les Covid sévères, avec une estimation de 10 à 20 % de patients sous assistance respiratoire touchés en réanimation et un risque de mortalité dépassant 60 %.

Plusieurs études se sont penchées sur cette période[4], soulignant que la pandémie de Covid-19 a présenté deux grandes caractéristiques particulièrement propices à la progression des infections fongiques en milieu hospitalier : les poumons des patients endommagés par le SARS-CoV-2 constituaient un environnement favorable à l’infection (notamment par les champignons du genre Aspergillus) ; l’immunodépression des patients, la réanimation et les traitements administrés au cours des Covid sévères ainsi que la saturation et la désorganisation du système de santé étaient également propices à diverses contaminations. Il n’est pas à exclure qu’une potentielle nouvelle pandémie recrée ces mêmes conditions à l’avenir.

 

Réchauffement climatique et Ophiocordyceps : le combo parfait pour une pandémie zombie ?

Selon des éléments récents rapportés par l’OMS, le réchauffement climatique et les échanges internationaux accrus seraient ensemble responsables de l’augmentation du nombre d’infections fongiques et de leur rayonnement géographique.

La virulence de certains pathogènes fongiques est fortement dépendante de leur tolérance au stress thermique ; ils ne peuvent pas causer de maladie chez les mammifères s’ils ne sont pas capables de supporter la température relativement élevée de leur organisme. Par exemple, début 2023, une équipe britannique a publié des travaux alertant sur l’accroissement du nombre d’infections graves causées par Cryptococcus neoformans sous l’influence du réchauffement climatique. Selon l’équipe de recherche, sous l’effet d’une augmentation de la température de son environnement, ce champignon particulièrement ravageur chez les malades du sida (presque 1 décès sur 5 au niveau mondial lui serait imputable) présenterait une intensification de mutations favorisant à la fois sa résistance à la chaleur et ses capacités infectieuses pour l’être humain. De même, Candida auris est l’exemple type d’une levure émergente, résistante aux antifongiques, transmise sur le mode épidémique, et probablement associée au réchauffement climatique.

Pour autant, est-il crédible d’anticiper une pandémie similaire à celle décrite dans la franchise d’anticipation The Last Of Us ? Sous l’effet du changement climatique, un champignon qui prospère à basse température est-il capable de s’adapter à la chaleur jusqu’à pouvoir contaminer notre espèce et atteindre son système nerveux, voire en prendre le contrôle pour se reproduire ?

La franchise met en scène un futur post-apocalyptique où un champignon appelé « Cordyceps » transforme les personnes infectées en créatures cannibales, mues par un seul objectif : la multiplication.

Ce champignon est inspiré des différentes espèces relatives au genre Ophiocordyceps qui sont des champignons macromycètes effectivement capables de parasiter des arthropodes (insectes, arachnides ou mille-pattes) et d’en altérer le comportement (par exemple hyperactivité et déplacements inhabituels ou encore propension à mordre dans une plante et à s’y accrocher jusqu’à la mort) afin de compléter leur propre cycle reproductif – au détriment de la vie de l’insecte qu’ils finissent par digérer de l’intérieur. Ce phénomène, couplé aux impressionnantes images, presque fantasmagoriques, montrant le champignon émerger progressivement de l’exosquelette de son hôte, est un vivier d’inspiration tout désigné pour une fiction horrifique. Cependant, aussi inquiétante que puisse paraître cette capacité, elle répond à des règles biologiques bien précises.

Tout d’abord, chaque espèce d’Ophiocordyceps est dite super-spécifique, c’est-à-dire qu’elle n’est capable de parasiter qu’une seule espèce bien précise d’arthropode. Les plus connus sont ceux surnommés zombie-ant fungi (champignons de la fourmi zombie), qui infectent chacun une espèce différente de fourmi, mais il existe plusieurs centaines d’espèces distinctes.

En 2020, des scientifiques ont pris en exemple deux espèces d’Ophiocordyceps, O. kimflemingiae et O. camponoti-floridani, et leurs deux espèces cibles de fourmis pour tenter de décrire le mécanisme moléculaire encore mal connu de cette interaction parasitaire. Un séquençage du génome des champignons et de leurs hôtes infectés, depuis la période de manipulation jusqu’après la mort, a permis de mettre en évidence chez les fourmis des modifications génétiques susceptibles d’impacter leurs fonctions neurologiques et, plus étonnant, des gènes fongiques relatifs à la sécrétion de molécules neurotoxiques. Ces altérations induites par le champignon et touchant le système nerveux de son hôte pourraient ainsi être responsables des modifications comportementales observées.

En outre, il semblerait que l’Ophiocordyceps ne soit pas le seul champignon impliqué dans cette « zombification » comme le montrent de récents travaux parus en 2022. Une équipe de recherche a ainsi découvert que O. camponoti-floridani est lui-même infecté par au moins deux autres champignons parasites jusque-là inconnus : Niveomyces coronatus et Torrubiellomyces zombiae. D’autres espèces d’Ophiocordyceps, en particulier ceux infectant les fourmis, seraient également parasitées par des champignons similaires. Selon les chercheurs, ces derniers semblent se nourrir du champignon hôte voire, dans certains cas, le stériliser. Si les raisons de cette interaction sont encore inconnues, l’une des hypothèses est que ces champignons pourraient participer à la régulation des populations d’Ophiocordyceps.

À la lumière des connaissances actuelles, cet ensemble imbriqué de mécaniques génétiques, moléculaires et environnementales extrêmement précises et finement régulées rend fortement improbable qu’un membre du genre Ophiocordyceps devienne un jour susceptible d’infecter et de contrôler une espèce à sang chaud comme il en est capable avec une espèce d’insecte bien spécifique, et ce, même en étant soumis à des variations environnementales telles que celles induites par le réchauffement climatique.

Le système nerveux sous influence : infection ou intoxication ?

Au tout début du premier épisode de la série The Last of Us, un scientifique fait un rapprochement fallacieux entre la forme de « contrôle » exercée par Ophiocordyceps sur ses hôtes et des champignons dont la consommation génère des effets hallucinogènes comme l’ergot de seigle (dont est extrait le LSD) ou certains champignons du genre Psylocybe consommés comme psychotropes. Cette comparaison erronée met en parallèle deux modes d’action bien distincts : l’infection et l’intoxication. L’infection passe par une contamination via les spores (l’organe de reproduction). Elle est rendue possible par une machinerie génétique et moléculaire extrêmement fine visant à permettre à un micro-organisme donné de se reproduire dans une espèce précise ; dans le cas rare d’Ophiocordyceps cette mécanique lui donne une forme de « contrôle » sur l’hôte pour répondre à des conditions bien spécifiques de reproduction.

L’intoxication, elle, n’a rien à voir avec la reproduction. Elle correspond à la sécrétion par le champignon de molécules appelées alcaloïdes, produites par de nombreuses espèces de champignons, végétaux et animaux. Leurs effets sur le système nerveux ne se révèlent que lors d’une consommation des organismes concernés. Au-delà de leurs effets psychotropes et/ou de leur toxicité (certains peuvent s’avérer mortels à très petite dose), nombreux sont ceux qui présentent des propriétés médicamenteuses et ils sont par conséquent très utilisés en pharmacopée (strychnine, quinine, morphine, codéine, scopolamine…). Certaines hypothèses suggèrent que les alcaloïdes pourraient constituer pour le champignon un moyen de défense contre les prédateurs et/ou, dans certains cas, une réserve nutritive d’azote.

 

Des champignons de plus en plus résistants

Si la menace d’une apocalypse zombie causée par une mutation d’un Ophiocordyceps peut être écartée à l’heure actuelle, l’évolution d’autres pathogènes fongiques microscopiques beaucoup plus proches de nous, bien que moins cinématographique, s’avère malgré tout alarmante. Le réchauffement climatique entre en jeu comme nous avons pu le voir précédemment, mais il n’est pas le seul.

À l’instar de la montée toujours plus préoccupante de l’antibiorésistance de bactéries pathogènes, la résistance des champignons micromycètes aux antifongiques – qui rend de plus en plus difficile la prévention et le soin des infections humaines – est en partie due à une utilisation inappropriée et abusive. Par exemple, selon l’OMS, le renforcement de la résistance du champignon Aspergillus fumigatus, dont le nombre d’infections est en forte augmentation, serait en partie lié au recours excessif aux antifongiques azolés dans le domaine agricole. Le champignon Candida auris, lui, a gagné l’appellation de « super champignon » (ou super bug) grâce à sa capacité à s’adapter très rapidement aux antifongiques.

Jusqu’à récemment, on pensait que la résistance des champignons aux antifongiques était permise uniquement par des mutations de leur ADN. Cependant, en 2020 dans la revue Nature, une équipe de recherche de l’université d’Édimbourg a publié une étude mettant à mal ce paradigme. Les travaux suggèrent que, sous l’influence de signaux environnementaux, pourraient survenir des altérations dites épigénétiques[5] susceptibles de modifier l’activité des gènes du champignon pour lui permettre de s’adapter à un environnement hostile. Les auteurs pointent également que les techniques de séquençage du génome habituellement utilisées pour détecter les mutations des pathogènes fongiques – et surveiller ainsi l’évolution de leur résistance ou diagnostiquer une infection – ne sont pas adaptées pour détecter les mutations épigénétiques et passeraient donc à côté de certains cas.

Les stratégies de survie découlant de cette malléabilité génétique se manifestent sous plusieurs formes en fonction de la menace affrontée et de l’espèce fongique concernée : expression de protéines et pigments évitant la reconnaissance ou formation de levures géantes trop grosses pour être digérées par les cellules de l’immunité (ou les prédateurs) et plus résistantes aux facteurs de stress environnementaux, structures permettant l’adhérence (formation de biofilms et production de filaments invasifs) ou encore la production de molécules toxiques. Elles pourraient ainsi expliquer comment ces pathogènes développent une résistance aux traitements antifongiques, et plus largement les raisons de leurs excellentes capacités d’adaptation et de leur virulence chez l’humain.

Beaucoup moins spectaculaires visuellement et plus insidieuses que les infections fongiques mises en scène par la fiction, celles qui nous concernent réellement à l’heure actuelle n’en restent pas moins inquiétantes. Entre manque de connaissances en recherche, capacités d’adaptation efficaces et variées, résistance aux traitements et conditions favorables au développement dans les milieux extérieurs et de soin, les champignons microscopiques constituent une menace bien réelle et de plus en plus prégnante pour la santé humaine.

 

Texte réalisé avec le soutien de Jean-Pierre Gangneux, médecin, chef du laboratoire de parasitologie-mycologie et du pôle de biologie médicale au CHU de Rennes et directeur de recherche au sein de l’Institut de recherche en santé, environnement et travail (unité 1085 Inserm/École des hautes études en santé publique/Université d’Angers/Université de Rennes 1).

 

[1]Il est estimé que 98 % des champignons restent à ce jour non décrits par la science.

[2]Les macromycètes ou macrochampignons sont des champignons dont la fructification est visible à l’œil nu (par opposition aux micromycètes qui ne sont visibles qu’au microscope).

[3]Les champignons se reproduisent et se disséminent grâce à leurs spores qui, en fonction de l’espèce, peuvent se développer sur des plantes, des animaux ou d’autres champignons. La majorité des infections touchant l’humain sont causées par des champignons appartenant aux genres Candida, Aspergillus et Cryptococcus.

[4]Pour aller plus loin :

[5]Alors que la génétique correspond à l’étude des gènes, l’épigénétique s’intéresse à une « couche » d’informations complémentaires qui définit comment ces gènes vont être utilisés ou non par une cellule. Elle étudie les changements dans l’activité des gènes, qui n’impliquent pas de modification de la séquence d’ADN et peuvent être transmis lors des divisions cellulaires. Contrairement aux mutations qui affectent la séquence d’ADN, les modifications épigénétiques sont réversibles et parfois temporaires. Elles sont induites par l’environnement au sens large : la cellule reçoit en permanence toutes sortes de signaux l’informant sur son environnement, de manière à ce qu’elle se spécialise au cours du développement, ou ajuste son activité à la situation.

La cohérence cardiaque, une technique pour améliorer sa santé, vraiment ?

yoga

La pratique du contrôle de la respiration dans le yoga a été l’une des premières à utiliser des stratégies de respiration pour améliorer le bien-être. © Unsplash.

« Pratiquez la cohérence cardiaque pour obtenir des effets immédiats sur votre santé physique et mentale ! », c’est le genre de promesse que l’on peut lire dans les pages de magazines grand public, sur le site web de certains thérapeutes ou dans des applis « bien-être » qui proposent cette approche à des fins commerciales.

Mais au fil du temps et des usages, la cohérence cardiaque s’est imposée comme concept un peu large, regroupant en fait des pratiques diverses. En général, le point commun des techniques dites de « cohérence cardiaque » est de s’appuyer sur des exercices de respiration pour mettre en phase le rythme du cœur et celui de la respiration et aider ainsi les personnes à se relaxer.

Toutefois, les fondements scientifiques sous-jacents ne sont pas toujours bien compris et les bénéfices de ces techniques, même s’ils existent, sont parfois exagérés. On fait le point dans notre nouveau Canal Détox.

 

La cohérence cardiaque, c’est quoi au juste ?

Dans l’organisme, les fonctions respiratoires et cardiaques sont couplées : les variations de la fréquence cardiaque sont influencées par la respiration. Plus précisément, la fréquence cardiaque augmente pendant l’inspiration et diminue pendant l’expiration. Ce phénomène est appelé « arythmie sinusale respiratoire » (ASR) dans le monde biomédical, ou « cohérence cardiaque » par le grand public (voir encadré pour plus de détails).

L’amplitude de l’ASR est mesurée par la différence entre le rythme cardiaque maximum pendant l’inspiration et le rythme cardiaque minimum pendant l’expiration. Par exemple, si notre rythme cardiaque est de 80 battements par minute pendant l’inspiration, et de 70 battements par minute pendant l’expiration, alors l’amplitude de l’ASR est de 10 battements par minute.

Plusieurs études ont suggéré qu’une amplitude élevée d’ASR est bénéfique sur le plan physiologique et psychologique, tandis qu’une amplitude d’ASR réduite est liée à des troubles cardiovasculaires (hypertension, insuffisance cardiaque chronique) et mentaux (anxiété, stress, voire troubles du spectre autistique). Mais les données sont encore parcellaires et les connaissances sur le sujet reposent pour le moment souvent sur des observations empiriques.

Néanmoins, il s’agit d’un domaine de recherche de plus en plus fertile : la variabilité du rythme cardiaque, dont l’ASR est une des composantes, est d’ores et déjà utilisée comme outil diagnostique pour certaines pathologies (maladies cardiovasculaires, troubles psychiatriques, TSA…), et des essais cliniques qui s’intéressent à l’ASR des participants voient le jour. Ainsi, on dénombre près de 2 000 essais cliniques étudiant la variabilité de la fréquence cardiaque enregistrés sur clinicaltrials.gov. Leur objectif est soit d’augmenter l’amplitude de l’ASR comme stratégie thérapeutique, soit de l’utiliser comme indicateur d’efficacité d’une stratégie thérapeutique.

 

Des retombées sociétales à prendre en compte

Ces dernières années, augmenter l’amplitude de l’ASR grâce à des techniques de respiration, dans l’espoir d’améliorer sa santé, est une pratique qui a aussi gagné en popularité auprès du public. Cependant, le terme d’« arythmie sinusale respiratoire » étant un peu complexe, c’est celui de « cohérence cardiaque » qui s’est imposé dans le discours.

La pratique du contrôle de la respiration dans le yoga, appelée « pranayama », a été l’une des premières à utiliser des stratégies de respiration pour améliorer le bien-être. Aujourd’hui, les stratégies de respiration profonde telles que la technique « 365 » sont courantes et recommandées par les cliniciens. Des dizaines d’appareils et de technologies, y compris des applications pour smartphones développées à des fins commerciales, reprennent le concept à leur compte, enseignant ces stratégies respiratoires et utilisant principalement les mesures de l’ASR comme critère pour évaluer les bénéfices pour la santé.

Il existe des données empiriques et quelques études qui documentent les effets bénéfiques d’exercices respiratoires présentés comme des « techniques de cohérence cardiaque ». Par ailleurs, comme évoqué précédemment, des essais cliniques fondés sur l’ASR s’annoncent prometteurs.

Le problème, c’est que la frontière devient parfois très mince entre les connaissances scientifiques actuelles et les interprétations et usages prodigués au grand public, notamment par des entreprises privées à but lucratif. Les mécanismes biologiques sous-jacents de l’ASR sont mal compris et certaines affirmations concernant les bénéfices de la cohérence cardiaques sont parfois exagérées.

Prétexter par exemple pouvoir guérir de nombreux maux – de la dépression à l’addiction en passant par le stress post-traumatique – grâce à des exercices de respiration, sans tenir compte de l’état actuel des connaissances encore limité et sans proposer d’autres prises en charges thérapeutiques, est une porte ouverte à des dérives.

Zoom sur des études scientifiques solides

Quelques études scientifiques rigoureuses dans le domaine ont récemment été publiées, ouvrant la voie à une meilleure compréhension des bénéfices de l’ASR dans le cadre de certaines pathologies ainsi que des pistes qui doivent être poursuivies.

  • Pour les pathologies cardiovasculaires, travailler sur l’amplitude de l’ASR semble de plus en plus prometteur. Deux études ont montré récemment que le rétablissement d’une variabilité du rythme cardiaque en phase avec la respiration chez des modèles animaux d’insuffisance cardiaque chronique a des effets thérapeutiques importants.
  • Pour la première fois, en 2023, une étude a démontré un concept qui semblait déjà acquis dans l’imaginaire collectif : un rythme cardiaque élevé a un effet anxiogène. Cet article ouvre de nouvelles pistes pour comprendre les causes biologiques des troubles anxieux et les bénéfices de certains exercices de respiration lente et profonde pour calmer ces états. Il met aussi en avant l’idée que comprendre les états émotionnels ne peut se faire sans s’intéresser aux liens entre le cerveau et le reste des cellules de l’organisme.

 

Comment l’arythmie sinusale respiratoire est-elle générée ?

L’ASR est principalement générée par le cerveau. Le tronc cérébral, à la base du cerveau, contient des neurones appelés « respiratoires », à l’origine de la commande nerveuse contrôlant la contraction des muscles respiratoires, mais aussi des neurones « cardiaques », qui génèrent la commande nerveuse régulant l’activité cardiaque.

Certains neurones respiratoires modulent directement l’activité de neurones cardiaques, et plus précisément de ceux dits « parasympathiques », dont l’activité a un rôle de frein sur le rythme cardiaque.

En particulier, un groupe de neurones générant l’inspiration inhibe en parallèle des neurones cardiaques parasympathiques, conduisant à une augmentation du rythme cardiaque pendant l’inspiration. Un autre groupe de neurones qui génère le début de l’expiration active en parallèle les mêmes neurones cardiaques parasympathiques, conduisant à une chute du rythme cardiaque en début d’expiration.

C’est ce mécanisme qui génère l’ASR.

Texte rédigé avec le soutien de Clément Menuet, chercheur Inserm à l’Institut de neurobiologie de la Méditerranée (unité 1249 Inserm/Aix-Marseille Université)

Les psychédéliques, des traitements contre les troubles psychiatriques, vraiment ?

© Photo de Possessed Photography sur Unsplash

En avril 2023, des données issues d’un essai clinique de phase II mené en Suisse ont fait du bruit dans les médias. Et pour cause, il s’agissait d’un sujet plutôt hallucinant : l’étude s’intéressait aux effets d’une consommation de LSD pour des patients atteints de dépression, suggérant que cette substance psychédélique aurait des bénéfices importants. En effet, les premiers résultats indiquaient que les personnes à qui l’on avait administré de plus grandes doses de LSD avaient bénéficié d’une réduction moyenne de leurs symptômes dépressifs presque quatre fois supérieure à celle des personnes exposées à un placebo.

Ces données qui n’ont pas encore fait l’objet d’une publication scientifique revue par les pairs, ont néanmoins remis sur le devant de la scène un débat vieux de plusieurs décennies sur les éventuels bénéfices thérapeutiques du LSD pour tout un tas de troubles psychiatriques, de la dépression à l’anxiété,+ en passant par le stress post-traumatique. Depuis quelques années, l’intérêt pour ce domaine de recherche a repris de l’ampleur et de nombreux essais ont été lancés à travers le monde.

Mais n’est-il pas dangereux de se soigner avec du LSD ? Plus largement, la recherche a-t-elle vraiment déjà des preuves solides de l’efficacité des substances psychédéliques ? Canal Détox fait le point.

Dès les années 1950, deux substances psychédéliques font l’objet de nombreuses recherches : le LSD, dérivé d’une molécule issue d’un champignon parasite du seigle, et la psilocybine, principe actif de champignons hallucinogènes. Les médecins expérimentent, parfois sur eux-mêmes, les effets de ces molécules qui modifient l’état de conscience durant plusieurs heures. Ils étudient notamment leurs effets sur la dépression, l’anxiété, l’alcoolisme, les troubles obsessionnels compulsifs, ou encore en tant que soins palliatifs, avec l’espoir d’en faire des médicaments. Mais le LSD et la psilocybine, qui provoquent des hallucinations avec des distorsions des sens, du temps et de l’espace, vont finir par être considérés comme des drogues dangereuses et être interdits. Les recherches vont s’arrêter durant 30 ans.

Stimulées par les limites des traitements actuels contre les troubles psychiatriques, elles reprennent au milieu des années 1990, encadrées plus strictement, et éclaircissent, en partie, le mode d’action de ces molécules sur le cerveau. Elles révèlent notamment que le LSD et la psilocybine, agissent principalement dans le cerveau sur les récepteurs de la sérotonine, hormone impliquée dans la régulation des comportements, de l’humeur, et de l’anxiété.

C’est aussi sur le système sérotoninergique qu’agissent les antidépresseurs les plus prescrits actuellement, bien que leur effet ne soit bien évidemment pas le même. D’ailleurs, si les antidépresseurs sont moins populaires dans les médias que les substances hallucinogènes, il faut rappeler qu’ils apportent une solution satisfaisante, avec des effets persistants sur le long terme, à environ 70 % des patients traités en dépression.

Les promesses de la psilocybine

Les substances psychédéliques font aujourd’hui l’objet de nombreuses expérimentations en particulier aux États-Unis, en Grande-Bretagne et au Canada. Et jusqu’à maintenant, c’est la psilocybine qui obtient les résultats les plus intéressants dans les études déjà publiées.

Par exemple, son utilisation en complément de séances de thérapie a ainsi permis de réduire durablement l’anxiété et la dépression, notamment les formes résistantes aux antidépresseurs qui concernent environ 30 % des patients traités. Des effets secondaires (maux de tête, étourdissements mais aussi angoisse) ont cependant été notés chez 77 % des participants dans une récente étude.

La psilocybine a aussi eu des effets intéressants dans des essais sur des personnes qui cherchaient à arrêter le tabac ou l’alcool, ou encore pour accompagner les personnes en fin de vie, en favorisant la communication avec les proches et en leur permettant d’affronter plus sereinement la mort.

Autre piste explorée : l’utilisation des substances psychédéliques sur les troubles obsessionnels compulsifs ou TOC, pour les patients qui ne répondent pas aux traitements classiques. Une étude en double aveugle a démarré aux Etats-Unis, à l’université de Yale, pour évaluer l’effet de la psilocybine et décrire ses mécanismes d’action, chez une trentaine de volontaires atteints de TOC.

Enfin, dans le domaine du stress post-traumatique, des publications commencent aussi à voir le jour. Une revue de littérature a récemment rappelé le besoin de thérapies innovantes dans ce domaine et les premiers résultats prometteurs d’études menées chez des vétérans, témoignant d’un effet bénéfique de la prise de psilocybine pour affronter les souvenirs traumatiques et réduire les angoisses associées.

 

Des nuances à apporter

Malgré ces avancées, la prudence reste de mise. En effet si la plupart des études dédiées aux substances psychédéliques apportent des résultats intéressants et utilisent une méthodologie rigoureuse en « double aveugle versus placebo », elles sont encore peu nombreuses, et menées sur un nombre restreint de sujets. En outre, les mécanismes d’actions de ces substances expliquant leurs éventuels effets thérapeutiques demeurent assez peu explorés.

Par ailleurs, ces substances nécessitent d’être employées dans un cadre médical sécurisé : avec une préparation, un accompagnement, un environnement approprié, un dosage adapté, et l’exclusion de certaines interactions médicamenteuses ou certains profils psychologiques incompatibles avec ces traitements. Cela sera aussi de mise si les substances sont un jour autorisées en dehors du cadre d’un essai clinique.

La prise de psychédéliques peut par ailleurs s’accompagner d’effets secondaires comme le montrent certains essais, et dans les cas les plus extrêmes, des états d’intense panique, phobies et de confusion.

La présence d’un professionnel de santé pour s’assurer du bien-être physique et psychologique du patient, pendant et après le traitement semble donc incontournable. Dans la pratique, le nombre limité de psychiatres en France pourrait être un frein. Parmi les chantiers à mener, il faudra aussi déterminer les règles éthiques encadrant l’administration de telles substances hors des essais cliniques et bien définir les patients les plus susceptibles d’en bénéficier.

Alors, même si les effets de ces substances s’avèrent un jour clairement bénéfiques, avec de nombreuses autres études qui confirmeraient les premiers résultats prometteurs, l’idée n’est résolument pas de généraliser la prise de LSD comme celle d’une aspirine.

 

D’autres travaux français et européens à découvrir

À Amiens, l’équipe de Mickaël Naassila (laboratoire Inserm 1247 Groupe de recherche sur l’alcool et les pharmacodépendances) travaille en parallèle sur un autre grand projet, européen cette fois. Ce projet baptisé Psi-Alc a été lancé en 2019 pour une durée de 4 ans, et mené en partenariat avec des chercheurs allemands, italiens et suisses. Leur but est, entre autres, de décrypter les mécanismes d’action qui pourraient réduire l’envie de boire de l’alcool, après absorption de psilocybine.

Lire notre article sur le sujet : https://www.inserm.fr/actualite/therapies-psychedeliques-une-panacee/

Des régimes miracles contre la migraine, vraiment ?

légumes

L’alimentation a fait l’objet de travaux de recherche pour comprendre si certains aliments déclenchent les crises de migraine. © Unsplash

La migraine est un trouble neurologique chronique courant qui se caractérise par des crises récurrentes d’intenses céphalées. Deux à trois fois plus fréquente chez les femmes que chez les hommes, cette maladie a une prévalence mondiale de près de 15 % pour les deux sexes. Selon l’OMS, il s’agit de la septième maladie la plus incapacitante au monde, avec un retentissement important et documenté depuis longtemps sur plusieurs aspects de la vie quotidienne dont les relations professionnelles, sociales et familiales. Le coût économique et sociétal de la migraine est également important.

La migraine est un trouble complexe, dont tous les mécanismes ne sont pas encore bien connus, mais pour lequel des facteurs génétiques ainsi que des facteurs environnementaux (l’activité physique, sommeil, le climat ou encore le comportement alimentaire par exemple) jouent un rôle. À ce jour, il n’existe pas de traitement curatif de la migraine. La prise en charge de la maladie repose sur le traitement des crises et, chez certains migraineux, et dans certains cas, par leur prévention par un traitement de fond. Agir sur les facteurs de risque environnementaux peut également aider certains patients et réduire la fréquence et/ou la sévérité des crises : c’est dans ce contexte que nombre d’entre eux engagent une réflexion sur leurs comportements alimentaires pour tenter de limiter l’impact de la migraine et améliorer leur qualité de vie.

Depuis plusieurs années, l’alimentation a fait l’objet de travaux de recherche pour comprendre si certains aliments déclenchent les crises de migraine – ou au contraire permettent de limiter leur fréquence, durée et/ou sévérité. Les réseaux sociaux se sont parfois faits le relai de certaines publications scientifiques, mettant en avant de manière souvent exagérée les bienfaits de régimes ou aliments spécifiques. Les forums de patients regorgent aussi d’anecdotes plus ou moins scientifiques, que les internautes s’échangent à propos de leur alimentation. Au risque d’alimenter la confusion. Pour y voir plus clair, Canal Détox fait le point sur ce que l’on sait des liens entre alimentation et migraine.

 

Supprimer certains aliments de son régime, fausse bonne idée ?

Lorsque l’on tombe sur des discussions sur le web évoquant le lien entre alimentation et migraines, la plupart évoquent la nécessité d’éviter certains aliments identifiés comme problématiques.

Même si l’on sait que certains comportements alimentaires, comme par exemple le fait de faire un repas lourd ou de manger à des horaires irréguliers influencent le déclenchement de la migraine, les mécanismes sous-jacents restent peu explorés.

Par ailleurs, si certains patients ont remarqué que, pour eux, le fait de manger un aliment spécifique est souvent suivi d’une crise de migraine et décident donc de le retirer de leur alimentation, des données scientifiques suggèrent qu’en fait l’aliment incriminé ne serait pas le déclencheur de la migraine – mais plutôt un signe annonciateur. En effet, il est possible que le début d’une crise de migraine, avant l’apparition de la douleur, s’accompagne d’une modification des comportements alimentaires ou encore d’une préférence ou d’une envie de manger un aliment, par exemple du chocolat. Autrement dit, l’envie de consommer certains aliments pourrait chez certains patients représenter des manifestations cérébrales précoces de la phase prémonitoire de la crise migraineuse.

En outre, les régimes fondés sur l’évitement de certains aliments, surtout s’ils sont faits sans contrôle médical, comportent des risques. Le fait de retirer entièrement certains aliments (par exemple, les régimes sans gluten, sans tyramine[1]…) est très contraignant et peut entraîner des déséquilibres alimentaires voire des carences. Ni le régime sans gluten, chez les patients ne souffrant pas de maladie cœliaque, ni les autres régimes de ce type, ne s’appuient sur des données scientifiques suffisamment robustes pour être considérés comme efficaces et généralisés en clinique.

Il peut être d’autant plus problématique d’opter pour ces approches qu’il a été rapporté dans la littérature scientifique que l’évitement strict de certaines nourritures peut parfois entraîner du stress, des problèmes psychologiques et une mauvaise qualité de vie.

Il est donc avant tout recommandé aux patients migraineux de se tourner vers un professionnel de santé pour obtenir conseils diététiques adéquats et surtout de privilégier au maximum une régularité dans les heures de repas, avec des apports suffisants et sans grignotage (comme pour le sommeil, la régularité des comportements alimentaires est clé lorsque l’on est sujet à migraines).

 

Des régimes ou des aliments miracles à privilégier ?

 Aujourd’hui, le seul régime pour lequel des données solides commencent à émerger est le régime cétogène. Ce régime caractérisé par une alimentation riche en graisses et pauvre en glucides a montré des résultats prometteurs contre la migraine. Il influencerait potentiellement plusieurs mécanismes impliqués dans le développement du trouble (par exemple, le transport du glucose, la fonction mitochondriale, le stress oxydatif, l’excitabilité cérébrale, l’inflammation ou encore le microbiome intestinal).

Cependant, il faut souligner que la plupart des études sur le sujet présentent un certain nombre de limites, notamment le fait qu’il s’agit très rarement d’études randomisées portant sur de larges échantillons de patients. Les résultats doivent donc être pris avec prudence.

Des travaux récents se sont intéressés aux bénéfices des régimes anti-inflammatoires – ce qui a poussé certains médias à vanter les mérites d’aliments « anti-inflammatoires » qui seraient potentiellement efficaces contre la migraine, par exemple le gingembre ou les myrtilles. Si des publications ont montré que le fait d’avoir un régime varié, intégrant des aliments aux propriétés anti-inflammatoires, pouvait effectivement avoir des effets bénéfiques, il n’y a aucune preuve qu’un aliment dit « anti-inflammatoire » serait à lui seul capable de réduire la fréquence, la durée ou la sévérité des crises. Dans tous les cas, des études rigoureuses pour consolider les données scientifiques déjà obtenues sur le sujet sont nécessaires.

Un message clé serait donc que, s’il est important de continuer à étudier le rôle du comportement alimentaire et plus généralement de l’alimentation sur la migraine afin de répondre aux interrogations des patients, une chose est certaine à l’heure actuelle : une régularité dans les repas et le fait de manger en quantité suffisante en respectant un certain équilibre alimentaire est primordial pour les patients sujets aux migraines chroniques.

[1] Un acide aminé qui aide à réguler la pression artérielle

 

Caféine et migraine : quel lien ?

Faut-il consommer du café ou non lorsque l’on est migraineux ? Cette question revient souvent dans les cabinets médicaux mais aussi sur les forums en ligne.

Et la réponse n’est pas si évidente. Des études ont suggéré qu’une consommation élevée de caféine pourrait être un élément déclencheur de migraine, comme cette publication dans The American Journal of Medicine. Il s’agissait d’une étude prospective examinant le lien entre consommation de café et migraines chez 101 adultes migraineux, à partir d’un journal quotidien qu’ils remplissaient concernant leur consommation de boissons caféinées ainsi que d’autres éléments concernant leurs comportements et leur style de vie.

Cependant, des données ont aussi indiqué qu’un effet protecteur de la caféine en tant que traitement des crises ou chez les patients gravement atteints ne pouvait être exclu.

Enfin, il est également connu que, chez les grands consommateurs de café, une réduction brutale de la consommation de caféine s’accompagne de « symptômes de sevrage », dont des migraines.

 

Texte rédigé avec le soutien de Xavier Moisset, neurologue au CHU de Clermont-Ferrand, membre du laboratoire Neuro-Dol – Inserm unité 1107

L’EMDR pour traiter le stress post-traumatique, vraiment ?

EMDR

De nombreuses études rigoureuses et méta-analyses ont été publiées au cours des 25 dernières années pour valider l’efficacité de l’EMDR dans le traitement des troubles de stress post-traumatique © Adobe Stock

C’est en 1987 que l’EMDR (Eye Movement Desensitization and Reprocessing ou « désensibilisation et retraitement par les mouvements oculaires ») est pour la première fois décrite dans des publications scientifiques par la psychologue américaine Francine Shapiro.

D’abord testée chez des personnes souffrant de souvenirs traumatiques, par exemple des vétérans de la guerre du Vietnam, cette psychothérapie par mouvement oculaires (voir encadré pour plus de détails) cible les mémoires traumatiques des individus. En d’autres termes, elle vise à traiter les conséquences psychologiques, physiques ou relationnelles liées à un traumatisme psychique.

À quoi ressemble une séance d’EMDR ?

Cette approche thérapeutique vise à traiter les conséquences d’un traumatisme psychique en combinant un rappel mental par le patient du souvenir traumatique et des stimulations sensorielles bilatérales alternées (avec des mouvements oculaires induits, par exemple en demandant au patient de suivre le mouvement des doigts du thérapeute ou encore des stimulations alternées tactiles sur les genoux, ou des stimulations auditives).

Les mouvements oculaires pratiqués de cette manière doivent permettre la remise en route d’une gestion naturelle des souvenirs douloureux et la restauration de l’estime de soi. Avant d’entamer une thérapie EMDR, des séances préliminaires permettront de construire une relation de confiance avec le praticien et d’établir les objectifs visés.

Petit point de langage : le terme « traumatisme psychique » est ici utilisé au sens de la définition retenue par le DSM-5, c’est-à-dire comme une confrontation à une situation violente, une crainte élevée pour sa propre vie ou celle d’un proche, une menace pour son intégrité ou celle d’un proche.

Si le protocole utilisé peut sembler un peu extravagant pour ceux qui ne seraient pas familiers de l’EMDR, de nombreuses études rigoureuses et méta-analyses ont été publiées au cours des 25 dernières années pour valider son efficacité dans le traitement des troubles de stress post-traumatique. Au point qu’en 2013, l’Organisation mondiale de la santé mentionnait l’EMDR comme une alternative valide aux thérapies comportementales et cognitives plus classiques.

Mais comment expliquer les effets bénéfiques de l’EMDR pour lutter contre le stress post-traumatique ? Cette thérapie peut-elle être utilisée pour le traitement d’autres troubles psychiatriques ? Et quelles questions demeurent encore en suspens ? Canal Détox fait le point.

 

EMDR et troubles psychiatriques

De nombreuses études cliniques contrôlées et randomisées montrent que l’EMDR est efficace pour traiter les troubles de stress post-traumatique, donnant de très bons résultats par rapport à l’absence de traitement ou à d’autres approches pharmacologiques ou psychothérapeutiques. En outre, plusieurs méta-analyses ont ensuite confirmé l’efficacité clinique de cette approche. Ces recherches et évaluations ont permis de montrer des améliorations comparables pour l’EMDR à celles obtenues avec les thérapies cognitives et comportementales qui sont aussi indiquées pour le traitement des troubles de stress post-traumatique.

Ces résultats prometteurs ont poussé des équipes de recherche à étudier les effets de l’EMDR pour le traitement d’autres troubles psychiatriques. Dans ce contexte, l’intérêt de l’EMDR est à nuancer : plusieurs études sont limitées par des biais méthodologiques et les résultats sont mitigés. Il est important de souligner que l’EMDR n’est pas une approche thérapeutique miracle qui pourrait « tout soigner ». En effet, la technique cible les traumatismes psychiques – or ces derniers ne sont pas forcément caractéristiques de tous les troubles psychiatriques.

Cependant, ces dernières années, des progrès ont été faits pour mieux comprendre des pathologies comme la schizophrénie et la dépression, montrant qu’un souvenir traumatique peut parfois être un facteur déclenchant ou aggravant. Dans ce contexte, l’EMDR pourrait donc être utile pour compléter d’autres approches thérapeutiques et pharmacologiques proposées à certains patients, améliorant un peu plus leur santé mentale en travaillant sur le ou les traumatismes associés à leur pathologie.

Quelques résultats qui vont dans ce sens commencent à émerger. Pour les consolider, les recherches doivent se poursuivre, avec des études cliniques plus larges.

 

Mécanismes d’action encore à l’étude

Comment cette thérapie fonctionne-t-elle et d’où proviennent les bénéfices observés chez les patients atteints de stress post-traumatique ? Cette question demeure centrale à l’heure actuelle pour bien comprendre les effets de l’EMDR et étendre ses applications – et il n’y a pas encore de réponse claire, même si des résultats intéressants ont récemment été obtenus.

Tout d’abord, plusieurs travaux ont été menés en s’appuyant sur des études chez l’animal ou sur des approches d’imagerie cérébrale pour mieux comprendre les bases neurobiologiques des souvenirs traumatiques et ainsi mieux appréhender les effets de l’EMDR sur le cerveau.

De plus, des travaux en neuro-imagerie menés par une équipe française ont montré que les stimulations pratiquées pendant la séance d’EMDR activent et synchronisent de larges réseaux de neurones localisés dans des structures cérébrales impliquées dans le traitement émotionnel de l’information et dans la mémoire. Ce processus favoriserait la transformation des réseaux de neurones qui sous-tendent le souvenir traumatique et en atténuerait la portée en permettant au patient de mieux intégrer l’information selon laquelle il est désormais en sécurité.

Une autre piste souligne que l’EMDR reproduirait les saccades oculaires observées dans le sommeil paradoxal[1] et activerait donc les mêmes mécanismes que cette phase du sommeil. Or, on sait que cette phase du sommeil remplit de nombreuses fonctions et notamment la consolidation de la mémoire. Alors que le sommeil des personnes souffrant de stress post-traumatique est souvent perturbé, l’utilisation de l’EMDR permettrait de rétablir des mécanismes normaux de consolidation des souvenirs, en réduisant leur portée traumatique. Autrement dit, l’EMDR reproduirait ce que le cerveau fait pendant le sommeil paradoxal pour l’aider à traiter les informations d’une manière plus appropriée.

 

Répondre aux interrogations

Les recherches se poursuivent donc pour répondre à certaines questions prioritaires. Parmi elles : les effets bénéfiques de l’EMDR se maintiennent-ils à long terme ? Et sont-ils aussi observés chez les enfants ? Par ailleurs, comme toutes les thérapies, l’EMDR ne fonctionne pas sur tout le monde. Pour les chercheurs, il est important de continuer à étudier les origines des différences interindividuelles face à cette thérapie.

Un autre axe de recherche part du constat que la plupart des thérapies proposées imposent de repenser et de revivre le souvenir douloureux. Par conséquent, le taux d’abandon de ces thérapies est généralement élevé. De nombreux patients ne vont pas jusqu’au bout.

Les scientifiques testent donc des approches afin de s’atteler à ce problème, en étudiant par exemple si le fait de combiner l’EMDR avec certains médicaments qui agissent sur le stress pourrait être plus efficace. Mise en place en France, la thérapie MOSAIC fondée sur l’EMDR tente aussi d’apporter une solution, son principe étant justement d’éviter au patient la souffrance liée à l’exposition des mémoires traumatiques. Cette thérapie s’appuie des stimulations bilatérales alternées (saccades oculaires, stimulations acoustiques ou tactiles) pour permettre aux mémoires traumatiques d’être reconsolidées en s’intéressant aux solutions plutôt qu’aux problèmes.

Si l’EMDR reste donc un objet d’étude pour les scientifiques, les dernières décennies ont permis de confirmer son utilité dans certains contextes, particulièrement pour aider les patients à dépasser leurs souvenirs traumatiques. L’EMDR ne doit cependant être pratiquée qu’avec un praticien certifié. Seuls les psychothérapeutes, psychiatres et psychologues peuvent se former à l’EMDR mais de nombreuses formations imitant cette pratique fleurissent sans qu’il y ait de contrôle. En 2010, la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes) insistait déjà sur ce point, signalant le risque d’emprise en cas de thérapie EMDR effectuée sans l’appui d’un professionnel correctement formé à la méthode.

[1] Période durant laquelle l’activité cérébrale est proche de celle de la phase d’éveil.

Texté rédigé avec le soutien d’Isabelle Chaudieu, chargée de recherche à l’Inserm (Institut des neurosciences de Montpellier) ; et Stéphanie Khalfa, chargée de recherche au CNRS (Laboratoire de neurosciences cognitives, Marseille)

Identifier le haut potentiel intellectuel avec un test sur Internet, vraiment ?

Haut potentiel

© Adobe Stock

Médias, livres et plus récemment séries ont contribué à populariser la notion de « haut potentiel intellectuel » – ou HPI – auprès du grand public. Ce phénomène s’est accompagné d’un certain nombre d’idées reçues, notamment celle que les enfants HPI sont en grande majorité en décrochage scolaire ou en souffrance psychologique ou bien encore qu’ils ont souvent un profil type d’intellectuel au détriment d’un corps peu habile qui expliquerait leur maladresse. Dans ce contexte, le nombre d’offres en ligne promettant à des parents parfois démunis de diagnostiquer leurs enfants, en leur faisant passer un test de QI, a explosé.

Mais quels sont les fondements scientifiques de cette pratique ? Comment définit-on concrètement le concept de « haut potentiel » ? Et quelles sont les priorités pour les chercheurs qui travaillent dans ce domaine ?

Le concept de haut potentiel intellectuel a évolué au cours des 20 dernières années et fait l’objet de débats entre spécialistes. Néanmoins, la définition de l’OMS, généralement retenue dans la littérature scientifique, précise que le HPI correspond à un quotient intellectuel (QI) d’au moins 130. Cela représenterait un peu plus de 2 % de la population, soit en France plus de 200 000 enfants.

Si on s’appuie sur la définition de l’OMS donc, il suffirait d’obtenir un score de 130 ou plus à ce test pour être désigné HPI. Cependant, plusieurs questions se posent notamment en ce qui concerne le coût du test de QI et la qualité des évaluations complémentaires proposées aux familles : en l’absence d’une analyse rigoureuse par un psychologue ou neuropsychologue clinicien spécialiste du sujet, un score donné par un test effectué en ligne ou par un expert peu scrupuleux n’a pas une grande valeur.

En effet, des travaux attestent désormais de l’importance d’évaluer les enfants dans leur globalité, non pas uniquement avec des tests de QI mais aussi avec des évaluations pluridimensionnelles normées (prenant en compte des aspects du développement neuropsychomoteur, et notamment l’attention, le langage, le développement psychoaffectif…).

Enfin, si toutes ces évaluations constituent des outils précieux, les résultats sont toujours à replacer et à analyser dans le contexte environnemental dans lequel un enfant évolue (environnement familial, socioculturel et scolaire), ainsi qu’en fonction de son histoire singulière. Ainsi, c’est lorsque que l’enfant qui présente un développement verbal mature, commence à poser des problèmes de comportement à la maison ou à l’école (et dès la maternelle), avec ou sans retentissement sur les notes scolaires, qu’il peut être intéressant de commencer à l’évaluer afin de comprendre s’il existe des raisons expliquant son comportement. Trop souvent, l’enfant est évalué tardivement au niveau du collège parce qu’à ce moment-là, tout se complique au quotidien, en l’occurrence au niveau de l’exigence scolaire. À l’inverse, tous les comportements turbulents ne doivent pas être systématiquement associés à un profil HPI et peuvent résulter d’autres causes.

À quoi ressemble un test de QI ?

Pour les enfants de 6 à 17 ans, le test en vigueur le plus indiqué est le WISC-V. Il permet d’obtenir le profil cognitif complet ainsi qu’un score pour les cinq composantes principales de l’intelligence cognitive : indice de compréhension verbale, indice visuo-spatial, indice de raisonnement fluide (raisonnement logique), indice de mémoire de travail (mémoire à court terme) et indice de vitesse de traitement (vitesse de pensée et d’exécution). Chacun de ces indices est construit en faisant passer aux enfants différents tests (des « subtests »).

Une bonne pratique peut être de présenter les résultats au test sous forme d’intervalles de confiance, en évitant le plus possible, tant avec les familles qu’avec les équipes, l’adhésion aux scores et en essayant ouvrir une discussion sur le profil cognitif en incluant d’autres types d’évaluation.

Lire notre texte : Le QI, une mesure fiable de l’intelligence… vraiment ?

S’intéresser à la motricité des enfants

Pour que les évaluations proposées soient pertinentes et puissent ainsi améliorer l’identification des enfants, les scientifiques estiment qu’il est nécessaire de mener des recherches rigoureuses pour mieux documenter les caractéristiques du HPI, et ce dès les premiers stades du développement (et non seulement lorsque les enfants sont en âge scolaire).

Des données ont par exemple permis de confirmer qu’au-delà d’avoir un QI supérieur à 130, ces enfants se caractérisent par un développement moteur et langagier précoce par rapport aux enfants « neurotypiques ». La capacité à s’assoir, l’acquisition de la marche ou encore l’accès au langage (avec l’apparition des premières phrases) se feraient par exemple plus tôt que pour les autres enfants.

D’autres travaux mettent en exergue néanmoins que certains enfants HPI peuvent présenter ce qu’on appelle un « profil de QI hétérogène », c’est-à-dire que les scores obtenus aux différents indices du test sont marqués par de grands écarts. Les scores les plus bas révèleraient ainsi des difficultés sur certains aspects, par exemple au niveau de la motricité fine (difficultés pour écrire lisiblement, trouble de la coordination ou visuo-spatiaux…), même quand d’autres indices sont particulièrement élevés (par exemple l’indice de compréhension verbale).

Certains de ces enfants répondraient même aux critères diagnostics d’un trouble développemental de la coordination (TDC ou dyspraxie), qui se traduit par des difficultés importantes dans différentes activités de la vie quotidienne (utiliser des couverts, s’habiller, attacher ses lacets…) ou dans des activités ludiques (jeux de construction, puzzles…).

Par ailleurs, les données suggèrent que les enfants HPI avec un profil de QI hétérogène peuvent présenter une plus grande tendance à l’isolement, à l’introversion, et à l’anxiété. Par ailleurs, certains d’entre eux peuvent présenter des réactions fortes à la frustration et même certains traits de dépression. Or cela passe souvent inaperçu car ils arrivent généralement à masquer leurs difficultés par des stratégies de compensation.

Ces résultats issus de la recherche soulignent donc là encore la nécessité de proposer aux enfants des évaluations plus complètes, qui s’intéressent au profil de QI et aux éventuelles disparités entre les indices du test. De plus, il est important que ces investigations complémentaires utilisées soient standardisées et normées notamment dans les domaines neuropsychomoteur, neuropsychologique et psychoaffectif. Ce dernier domaine n’est pas à négliger, car les tests peuvent faire apparaître des difficultés au niveau de la cognition sociale (difficultés d’empathie, hypersensibilité émotionnelle…).

Scolarité et prise en charge

Alors que c’est souvent l’aspect qui est le plus mis en avant, notamment dans les médias, il est important de souligner aussi que HPI n’est pas forcément toujours synonyme de difficultés scolaires. Les HPI les plus connus étant ceux qui consultent, il n’est pas étonnant de retrouver dans ce groupe des problèmes qui en font leur réputation. S’il est avéré que les enfants à haut potentiel peuvent présenter des troubles des apprentissages, il est également important de souligner que tous ne sont donc pas systématiquement en situation d’échec scolaire. À l’inverse, tous les enfants qui connaissent des difficultés scolaires ne présentent pas un HPI.

Face au risque de décrochage, il est essentiel lors des évaluations de l’enfant d’analyser s’il existe des problèmes qui peuvent expliquer un décrochage scolaire : par exemple, si l’enfant montre de l’anxiété. En effet, les troubles anxieux sont présents chez 40,5 % des enfants HPI et associés de façon hétérogène à un haut potentiel verbal avec des troubles de la motricité qui impactent par exemple leur écriture.

Pour les scientifiques, la priorité est de continuer les recherches pour mieux identifier le fonctionnement et bien décrire les caractéristiques particulières, les compétences cognitives et les éventuelles difficultés des enfants HPI dans toute leur diversité, en s’appuyant sur une articulation entre les professionnels de l’Éducation nationale, de la santé et de la recherche.

Texte rédigé avec le soutien Laurence Vaivre-Douret

Centre de recherche en épidémiologie et santé des populations (UMR 1018-Inserm/UVSQ/Université Paris Cité), Equipe Psy-Dév « Neurodéveloppement et troubles des apprentissages », site Necker.

Professeure des universités en neuropsychologie du développement, Faculté de Santé, UFR de Médecine Paris Descartes, Université Paris Cité, et Chaire de phénotypage clinique neurodéveloppementale de l’Institut Universitaire de France (IUF).

Psychologue-neuropsychologue clinicienne, psychothérapeute, attachée à l’hôpital Universitaire Necker-Enfants Malades, AP-HP.Centre, Université Paris Cité.

fermer