Menu

Des réseaux cérébraux associés aux ruminations mentales et leur évolution chez le jeune adulte

Une étude décrit pour la première fois les réseaux cérébraux associés aux ruminations mentales ces pensées répétitives, et leur évolution entre les âges de 18 et 22 ans. Ce travail mené par l’équipe Inserm « Trajectoires développementales en psychiatrie » (Inserm/ENS Paris-Saclay) au sein du Centre de mathématiques appliquées Borelli[1] montre également une association entre les réseaux cérébraux des ruminations et certains symptômes psychiatriques. Les chercheurs se sont appuyés sur la cohorte IMAGEN destinée à explorer la santé mentale de jeunes européens à partir de 14 ans. Ce travail, publié dans la revue Molecular Psychiatry, fournit des pistes pour la prévention en santé mentale.

Les ruminations sont des pensées répétitives, avec le sentiment de tourner en boucle. Elles se manifestent fréquemment au cours de la transition de l’adolescence vers le stade de jeune adulte, et sont liées notamment aux difficultés de l’entrée dans la vie adulte.

La littérature décrit trois types de ruminations. Les ruminations « réflexives » ne sont pas négatives ; elles visent à chercher une solution à un problème et peuvent faire partie d’un processus de réflexion (trouver un logement, un emploi, etc.). Les ruminations « soucieuses » sont liées à des situations complexes ou conflictuelles, avec des difficultés à prendre du recul (soucis professionnels, difficultés financières, etc.). Enfin, le troisième type de ruminations est de nature « dépressive » avec des pensées noires répétitives sur sa situation ou son avenir.

Fréquentes chez les adolescents, ces dernières peuvent s’associer à des états d’anxiété, d’agressivité, de dépression, ou encore des addictions. Considérées comme un facteur de risque de maladie psychiatrique, elles précèdent le plus souvent l’apparition de troubles à l’âge adulte. C’est pourquoi il est important de mieux comprendre les mécanismes cérébraux qui leur sont associés.

C’est dans cet objectif qu’une équipe menée par les chercheurs Inserm Jean-Luc Martinot et Eric Artiges au sein du laboratoire « Trajectoires développementales en psychiatrie » s’est intéressée pour la première fois aux réseaux cérébraux associés aux différents types de ruminations au cours de la transition du stade adolescent à jeune adulte.

À cette fin, l’équipe a étudié 595 jeunes inclus dans la cohorte européenne IMAGEN[2] et suivis entre les âges de 18 à 22 ans.

 

Des réseaux spécifiques associés aux ruminations

Les jeunes ont passé des IRM fonctionnelles au repos. Cette technique de neuroimagerie permet de suivre l’activité cérébrale spontanée dans toutes les régions du cerveau.

« Lors de cet examen, les sujets n’avaient aucune consigne et étaient laissés libres de leurs pensées. De sorte que les profils « ruminateurs » se sont laissés aller à leurs ruminations », précise Jean-Luc Martinot.

Ces jeunes ont aussi répondu à des questionnaires pour mesurer la fréquence et le type de leurs ruminations, et évaluer la présence éventuelle de symptômes psychiatriques.

En premier lieu, les chercheurs ont recoupé l’imagerie et les réponses aux questionnaires à 18 ans, en utilisant un modèle mathématique innovant. Cela leur a permis d’associer chaque type de rumination à l’activité simultanée de deux à trois réseaux cérébraux spécifiques.

Ils ont par exemple montré qu’à 18 ans les ruminations « soucieuses » s’appuyaient sur des réseaux cérébraux engageant l’hippocampe et le lobe frontal. Les ruminations « dépressives » apparaissaient, elles, associées à d’autres réseaux engageant le noyau thalamique et une partie du lobe frontal.

 

Des changements à 22 ans

Ce travail a ensuite été renouvelé chez ces mêmes participants à l’âge de 22 ans, afin d’évaluer comment les ruminations et les processus cérébraux associés évoluaient au cours du temps.

 « A cet âge de leur vie, les jeunes adultes montraient une diminution des ruminations « soucieuses » en faveur de ruminations « réflexives », explique Jean-Luc Martinot,  ceci suggère  qu’entre 18 et 22 ans, période de transition vers l’adulte, ils et elles ont acquis une meilleure capacité d’adaptation aux émotions négatives et une meilleure aptitude à la prise de décision ».

Cela se traduit concrètement au niveau cérébral : en passant d’un type de rumination à un autre, les chercheurs ont constaté que les réseaux cérébraux activés chez les participants étaient également refaçonnés.

Dans la suite de l’étude, l’équipe a enfin montré que les réseaux cérébraux associés aux différents types de rumination étaient par ailleurs associés à certains symptômes psychiatriques. Plus précisément, l’activité d’un réseau associé aux ruminations soucieuses était aussi associée à des symptômes « internalisés » (anxiété, nervosité, retrait, etc.). L’activité d‘un réseau associé aux ruminations « dépressives » était aussi associée à des symptômes « extériorisés » (agitation, irritabilité, recours aux passages à l’acte, à des substances, etc.).

« Ce travail révèle des liens entre l’évolution des ruminations mentales et l’évolution de symptômes psychiatriques, par l’intermédiaire de changements fonctionnels du cerveau à la fin de l’adolescence. Deux types de ruminations peuvent précéder des symptômes psychiatriques. Ces données pourraient contribuer au développement des approches préventives chez les jeunes adultes », conclut Jean-Luc Martinot.

 

[1] Le Centre Borelli est sous tutelle CNRS/ ENS Paris-Saclay/ Université Paris-Saclay/ Université Paris-Cité/ Inserm/ Service de santé des armées

[2] Co-fondée par Jean -Luc Martinot, la cohorte IMAGEN est destinée à suivre la santé mentale d’adolescents à partir de 14 ans à l’aide de données psychologiques, cliniques, environnementales, et d’imagerie du cerveau.

Un traitement de Parkinson pourrait retarder la progression d’une des formes de la DMLA

DMLALa dégénérescence maculaire liée à l’âge (DMLA) est la première cause de handicap visuel chez les personnes de plus de 50 ans. © Adobe Stock

La dégénérescence maculaire liée à l’âge (DMLA) est la première cause de handicap visuel chez les personnes de plus de 50 ans. Améliorer l’offre thérapeutique pour les patients est un enjeu de taille pour la recherche. Dans une nouvelle étude, une équipe composée de chercheurs de l’Inserm, du CNRS et de Sorbonne Université à l’Institut de la vision[1] à Paris, décrit l’efficacité des médicaments dopaminergiques pour ralentir la progression de l’une des formes de la maladie, la forme néovasculaire ou « humide » caractérisée par la prolifération de vaisseaux sanguins dysfonctionnels sous la rétine. Ces médicaments spécifiques sont déjà utilisés dans le traitement de la maladie de Parkinson. Ces résultats sont publiés dans la revue The Journal of Clinical Investigation.

La DMLA est une maladie de la rétine d’origine multifactorielle qui concerne les plus de 50 ans. Elle correspond à une dégradation d’une partie de la rétine – la macula – et peut mener à la perte de la vision centrale. Bien que très invalidante, elle ne rend jamais totalement aveugle puisque la partie périphérique de la rétine reste intacte.

Il existe deux formes de la maladie qui ont une prévalence à peu près équivalente : la forme néovasculaire, dite « exsudative » ou « humide » et la forme atrophique, ou « sèche avancée » (voir encadré).

Si la forme sèche de la maladie ne dispose actuellement d’aucun traitement curatif, la forme néovasculaire peut être ralentie par des injections régulières administrées directement dans l’œil du patient (des injections dites « intravitréennes »).

Bien que nécessaires, celles-ci peuvent représenter un fardeau thérapeutique important du fait de la fréquence des piqûres, mensuelles ou bimestrielles, selon l’évolution de la maladie. Il est donc intéressant de continuer à identifier de nouvelles alternatives pour les patients.

Des médicaments pour Parkinson

Des études épidémiologiques antérieures ont déjà mis en évidence une association possible entre la maladie de Parkinson et un risque réduit de DMLA néovasculaire[2]. Dans une nouvelle étude, des chercheurs et chercheuses de l’Inserm, du CNRS, et de Sorbonne Université à l’Institut de la vision, ont exploré les mécanismes sous-jacents qui expliqueraient cette protection potentielle.

Dans des modèles cellulaires et animaux, les scientifiques ont montré que la L-Dopa, médicament de la famille des dopaminergiques[3] utilisé dans le traitement de la maladie de Parkinson, active un récepteur spécifique du cerveau, appelé DRD2. Cette activation du DRD2 bloque la formation de nouveaux vaisseaux sanguins dans l’œil, un processus clé dans le développement de la DMLA néovasculaire.

Pour aller plus loin, l’équipe a ensuite analysé les données de santé de plus de 200 000 patients atteints de DMLA néovasculaire en France[4].

Ils ont montré que les patients qui prenaient de la L-Dopa ou d’autres médicaments inhibant le récepteur DRD2 (des agonistes DRD2) pour traiter leur maladie de Parkinson développaient la DMLA néovasculaire plus tard dans leur vie et nécessitaient moins d’injections intravitréennes. 

En effet, les patients traités avec ces médicaments pour leur maladie de Parkinson déclaraient la maladie à 83 ans au lieu de 79 ans pour les autres patients.

« Ces résultats ouvrent des perspectives inédites pour les patients atteints de DMLA dans sa forme humide. Nous avons maintenant une piste sérieuse pour retarder l’évolution de cette maladie et réduire le fardeau des traitements actuels », explique Florian Sennlaub, directeur de recherche Inserm à l’Institut de la vision (CNRS/Sorbonne Université/Inserm).

Thibaud Mathis, professeur des universités et praticien hospitalier dans le service d’ophtalmologie de l’hôpital de la Croix-Rousse – Hospices civils de Lyon, et chercheur à l’Université Lyon 1, ainsi qu’au sein de l’Institut de la vision abonde dans le même sens :

« Ces résultats suggèrent que les médicaments dopaminergiques, au-delà de leur rôle dans la maladie de Parkinson, pourraient avoir un effet bénéfique dans la prévention et le traitement de la DMLA néovasculaire. »

Même si des études cliniques plus approfondies seront nécessaires pour confirmer ces résultats et évaluer l’efficacité et la sécurité de ces médicaments dans le traitement de la DMLA, cette découverte ouvre de nouvelles perspectives encourageantes pour la lutte contre la forme néovasculaire, offrant l’espoir d’un traitement plus efficace et moins contraignant pour les patients.

Deux formes de DMLA :

La DMLA humide est caractérisée par la prolifération de nouveaux vaisseaux dysfonctionnels sous la rétine. Le sang peut se diffuser à travers leurs parois et conduire à la formation d’un œdème maculaireDu sang s’échappe parfois de celui-ci et entraîne l’apparition d’hémorragies rétiniennes.

La forme humide de la DMLA évolue rapidement si elle n’est pas prise en charge. Auparavant, une perte de vision centrale pouvait apparaître en quelques semaines ou même quelques jours. Ce processus peut aujourd’hui être stoppé grâce à des médicaments (anti-VEGF) injectés dans l’œil, qui inhibent la croissance de nouveaux vaisseaux. Néanmoins, après plusieurs années de traitement, la maladie peut évoluer vers une forme atrophique.

Dans la DMLA atrophique ou « sèche avancée », les photorécepteurs de la macula disparaissent progressivement, suivis par les cellules de l’épithélium pigmentaire rétinien. Ce processus génère des trous de taille croissante dans la macula, visibles par une simple observation de la rétine (fond d’œil). Ce processus est lent et il s’écoule en général entre cinq et dix ans avant que le patient ne perde sa vision centrale. Actuellement, aucun traitement pour cette forme de DMLA n’est autorisé en Europe.

Des formes mixtes de la maladie peuvent être observées, et chacune de ces deux formes peut précéder l’apparition de la seconde.

 

[1]Ce travail est le fruit d’une collaboration avec des équipes de l’université et du CHU de Lyon, de l’université de Bourgogne et de l’Institut du cerveau à Paris.

[2]Levodopa Is Associated with Reduced Development of Neovascular Age-Related Macular Degeneration, Max J Hyman et al. Ophthalmology retina 2023

[3]Les médicaments dopaminergiques apportent la dopamine nécessaire au fonctionnement du cerveau. Dans la maladie de Parkinson, la dopamine va diminuer l’intensité des tremblements, de la rigidité et de l’akinésie.

[4] Il s’agit des données du Système national des données de santé (SNDS).

Découverte chez la souris d’un mécanisme clé de l’anorexie mentale, ouvrant la voie à un traitement potentiel

Anorexie mentaleSelon une étude récente, l’anorexie pourrait être due à la formation excessive d’habitudes. Celle-ci entraînerait alors une perte de contrôle conduisant la personne à cesser de s’alimenter. © Photo de Elena Leya sur Unsplash

Une étude internationale, menée par une équipe de chercheuses et de chercheurs de Sorbonne Université, de l’Inserm, du CNRS et de l’université McGill (Montréal, Canada), a permis d’identifier un dysfonctionnement neurobiologique pouvant conduire à l’anorexie chez un rongeur. Cette découverte ouvre la voie à un traitement potentiel de cette maladie psychiatrique, qui concerne des millions de personnes et qui a un taux de mortalité très élevé. Ces découvertes chez l’animal sont en cours de validation chez l’humain, où plus d’une dizaine de patientes et de patients répondent positivement au traitement. Cette étude fait l’objet d’un article publié dans la revue Nature Communications.

Malgré son taux de mortalité très élevé, les bases neurobiologiques de l’anorexie mentale sont encore incomprises, ce qui explique qu’il n’existe pas encore de traitement pharmacologique efficace. Selon une étude récente, l’anorexie pourrait être due à la formation excessive d’habitudes. Celle-ci entraînerait alors une perte de contrôle conduisant la personne à cesser de s’alimenter. La formation des habitudes est régulée par une structure cérébrale appelée le striatum dorsal.

Cette étude a été menée au sein du laboratoire Neurosciences Paris Seine (Sorbonne Université/Inserm/CNRS) dirigée par la professeure de neurosciences Stéphanie Daumas (Sorbonne Université / Inserm / CNRS), et le chercheur Nicolas Pietrancosta (Sorbonne Université / ENS / PSL University / CNRS) en collaboration avec le chercheur Salah El Mestikawy (McGill University / Douglas Mental Health University Institute / éméritat CNRS / Sorbonne Université). Ces derniers ont utilisé un modèle génétique de souris exprimant une mutation précédemment identifiée chez des patientes et patients humains souffrant de troubles psychiatriques graves (troubles de l’alimentation et addiction). L’objectif était de comprendre les mécanismes neurobiologiques sous-jacents à l’anorexie.

Les chercheuses et chercheurs ont identifié un déficit d’acétylcholine, un neurotransmetteur, dans le striatum dorsal des souris exprimant cette mutation. Celles-ci développaient également une tendance excessive à former des habitudes. Cela se traduit par une réduction drastique de leur consommation alimentaire avec un modèle comportemental d’anorexie utilisé chez les rongeurs, appelé « anorexie basée sur l’activité » (ABA). Les souris ont été traitées avec un stimulateur d’acétylcholine bien connu, le donépézil (Aricept). La stimulation par le donépézil permet de bloquer la dégradation de l’acétylcholine, ce qui augmente donc les taux d’acétylcholine dans le cerveau et dans le corps. Grâce à ce traitement, les souris ne développaient plus de comportements similaires à l’anorexie dans le modèle ABA.

En résumé, cette étude animale confirme l’importance des habitudes dans l’anorexie mentale et met en évidence un mécanisme neurobiologique ainsi qu’un traitement potentiel de l’anorexie mentale par le donépézil.

Pour valider ces découvertes chez l’humain, une étude indépendante est conduite pour évaluer l’efficacité du donépézil dans l’anorexie mentale. La docteure Leora Pinhas (psychiatre à Toronto) a traité 10 patientes et patients souffrant d’anorexie mentale sévère avec le donépézil. Parmi tous les patientes et patients, trois d’entre eux ont montré une rémission complète, tandis que les sept autres ont vu une amélioration marquée de leur état. Des essais cliniques contre placebo seront menés en 2024 à l’hôpital Sainte-Anne, à Paris, à l’université de Denver et à l’université Columbia de New York.

Cette recherche pionnière a permis de mieux comprendre les mécanismes neuronaux pouvant conduire non seulement à l’anorexie mentale mais également à d’autres pathologies compulsives comme l’addiction ou les troubles obsessionnels-compulsifs. Les scientifiques de cette étude espèrent ouvrir la voie à des traitements innovants pour d’autres maladies psychiatriques graves dans un avenir proche.

Meilleure compréhension de la maladie d’Alzheimer : une étude confirme l’intérêt de la caféine comme piste de traitement

Augmentation neuronale du récepteur A2A dans l’hippocampe de sourisImage illustrant l’augmentation neuronale du récepteur A2A (en rouge) dans l’hippocampe de souris. On observe en bleu les noyaux de cellules (marqueur DAPI). © Émilie Faivre

En France, 900 000 personnes sont atteintes de la maladie d’Alzheimer ou d’une autre maladie apparentée. Le risque de développer la maladie d’Alzheimer dépend de facteurs génétiques et environnementaux. Parmi ces derniers, différentes études épidémiologiques suggèrent qu’une consommation régulière et modérée de caféine ralentit le déclin cognitif lié au vieillissement et le risque de développer la maladie d’Alzheimer. Dans une nouvelle étude[1], des chercheurs et des chercheuses de l’Inserm, du CHU de Lille et de l’Université de Lille, au sein du centre de recherche Lille Neuroscience et cognition, ont fait un pas de plus dans la compréhension des mécanismes qui sous-tendent le développement de la maladie d’Alzheimer. Ils viennent de mettre en évidence que l’augmentation pathologique de certains récepteurs dans les neurones au moment du développement de la maladie favorise la perte des synapses, et de fait, le développement précoce des troubles de la mémoire dans un modèle animal de la maladie. Leurs résultats permettent aussi de confirmer l’intérêt de conduire des essais cliniques pour mesurer les effets de la caféine sur le cerveau de patients à un stade précoce de la pathologie. Ils sont publiés dans la revue Brain.

La maladie d’Alzheimer est caractérisée par des troubles de la mémoire, des fonctions exécutives et de l’orientation dans le temps et dans l’espace. Elle résulte d’une lente dégénérescence des neurones, débutant au niveau de l’hippocampe (une structure cérébrale essentielle pour la mémoire) puis s’étendant au reste du cerveau. Les patients atteints par cette pathologie présentent deux types de lésions microscopiques au niveau de leur cerveau : les plaques séniles (ou plaques amyloïdes) et les dégénérescences neurofibrillaires (ou pathologie Tau), participant au dysfonctionnement des neurones et à leur disparition[2].

Des travaux avaient déjà montré que l’expression de certains récepteurs, appelés A2A, étaient retrouvés augmentés dans le cerveau de patients atteints de la maladie d’Alzheimer au niveau de l’hippocampe. Cependant, l’impact de la dérégulation de ces récepteurs sur le développement de la maladie et des troubles cognitifs associés demeurait méconnu jusqu’ici. Dans une nouvelle étude, une équipe de recherche dirigée par le chercheur Inserm David Blum s’est intéressée à cette question.

Les scientifiques ont réussi à reproduire une augmentation précoce[3] de l’expression des récepteurs adénosinergiques A2A, telle qu’observée dans le cerveau des patients, dans un modèle murin de la maladie d’Alzheimer qui développe des plaques amyloïdes. L’objectif était d’évaluer les conséquences de cette augmentation sur la maladie et de décrire les mécanismes en jeu.

Les résultats de leur recherche montrent que l’augmentation en récepteurs A2A favorise la perte des synapses[4] dans l’hippocampe des « souris Alzheimer ». Ceci a pour effet le déclenchement précoce des troubles de la mémoire chez les animaux. Les scientifiques ont ensuite montré qu’un dysfonctionnement de certaines cellules du cerveau, les cellules microgliales, en partie responsables de l’inflammation cérébrale observée dans la maladie, pourraient être impliquées dans la perte des synapses, en réponse à une augmentation en récepteurs A2A. Des mécanismes similaires avaient déjà précédemment été décrits par l’équipe, cette fois-ci dans un autre modèle de la maladie développant les lésions Tau[5].

« Ces résultats suggèrent que l’augmentation d’expression des récepteurs A2A modifie la relation entre les neurones et les cellules microgliales. Cette altération pourrait être à l’origine d’une escalade d’effets entraînant le développement des troubles de la mémoire observés », explique Émilie Faivre, co-dernière autrice de l’étude, chercheuse au sein centre de recherche Lille Neuroscience et Cognition (Inserm/Université de Lille/CHU de Lille).

 

La caféine : une piste de traitement intéressante pour prévenir précocement le déclin cognitif ?

Plusieurs études ont déjà suggéré qu’une consommation régulière et modérée de caféine (ce qui correspond à une consommation de 2 à 4 tasses de café par jour) pouvait ralentir le déclin cognitif lié au vieillissement et le risque de développer la maladie d’Alzheimer.

En 2016, la même équipe de recherche avait décrit un des mécanismes par lequel la caféine pouvait avoir cette action bénéfique chez l’animal, réduisant les troubles cognitifs associés à la maladie d’Alzheimer. Les scientifiques avaient alors montré que les effets de la caféine étaient liés à sa capacité de bloquer l’activité des récepteurs adénosinergiques A2A, ces mêmes récepteurs dont l’expression se trouvent anormalement augmentée dans le cerveau des personnes atteintes de la maladie d’Alzheimer[6].

« En décrivant, dans notre nouvelle étude, le mécanisme par lequel l’augmentation pathologique de l’expression des récepteurs A2A entraîne une cascade d’effets conduisant à une aggravation des troubles de la mémoire, nous confirmons l’intérêt de pistes thérapeutiques qui pourraient agir sur cette cible. Nous mettons donc encore une fois en avant l’intérêt de tester la caféine dans le cadre d’un essai clinique sur des patients atteints de formes précoces de la maladie. En effet, on peut imaginer qu’en bloquant ces récepteurs A2A, dont l’activité est augmentée chez le patient, cette molécule puisse prévenir le développement des troubles de la mémoire voire d’autres symptômes cognitifs et comportementaux », poursuit David Blum, directeur de recherche à l’Inserm, co-dernier auteur de l’étude.

Un essai clinique de phase 3[7], porté par le CHU de Lille, est actuellement en cours. Son objectif est d’évaluer l’effet de la caféine sur les fonctions cognitives de patients atteints de formes précoces à modérées de la maladie d’Alzheimer.

 

[1]Ces travaux ont fait l’objet d’un soutien de la Fondation Alzheimer, de la FRM, de l’ANR, du CoEN (LICEND), de l’Inserm, de l’Université de Lille, du CHU de Lille et du labEx Distalz (Development of Innovative Strategies for a Transdisciplinary Approach to Alzheimer’s Disease) dans le cadre des investissements d’avenir. 

[2] Lire le dossier sur la maladie d’Alzheimer et consulter la BD Inserm qui explique de façon graphique les mécanismes cellulaires et moléculaires impliqués dans le développement de la maladie. 

[3] A un stade au cours duquel normalement les animaux ne souffrent pas encore de troubles de la mémoire.

[4] Zones qui permettent la transmission des informations entre les neurones.

[5] Exacerbation of C1q dysregulation, synaptic loss and memory deficits in tau pathology linked to neuronal adenosine A2A receptor, Brain, Volume 142, Issue 11, November 2019, Pages 3636–3654, https://doi.org/10.1093/brain/awz288

[6] Lire le communiqué de presse

[7] L’essai clinique CAFCA de phase 3 est conduit par le neurologue Thibaud Lebouvier, en lien avec le laboratoire LilNCog et le Centre Mémoire du CHU de Lille. https://www.cafca-alzheimer.fr/

Des cellules immunitaires qui protègent des atteintes neurologiques post-AVC

Visualisation, au sein de la barrière hémato-encéphalique, des macrophages associés au cerveau (CAM, en jaune), à l'interface entre un vaisseau sanguin (magenta) et des astrocytes (cyan), cellules de soutien des neurones en forme d'étoile.

Visualisation, au sein de la barrière hémato-encéphalique, des macrophages associés au système nerveux central (CAM, en jaune), à l’interface entre un vaisseau sanguin (magenta) et des astrocytes (cyan), cellules de soutien des neurones en forme d’étoile. © Dr Damien Levard

Le vieillissement accroît fortement les risques de survenue d’un AVC ischémique. Une équipe de chercheuses et chercheurs de l’Inserm, du CHU Caen Normandie et de l’université de Caen Normandie s’est intéressée au rôle que pourraient jouer certaines cellules immunitaires, les macrophages associés au système nerveux central (CAMs), dans les atteintes neurologiques qui surviennent après un AVC. Leurs travaux montrent que ces cellules acquièrent au cours du vieillissement un rôle clé dans la régulation de la réponse immunitaire déclenchée à la suite d’un AVC. Ces travaux, parus dans Nature Neuroscience, mettent en évidence l’importance de la présence de ces cellules à l’interface entre le sang et le cerveau dans le maintien de l’intégrité cérébrale.

Parmi les accidents vasculaires cérébraux (AVC), le plus fréquent est l’AVC ischémique, qui résulte de l’obstruction d’une artère du cerveau par un caillot sanguin. L’âge est un facteur de risque majeur : à partir de 55 ans, pour 10 ans d’âge en plus, le risque d’AVC ischémique est multiplié par deux.

L’AVC ischémique est suivi de processus inflammatoires cérébraux susceptibles d’aggraver les lésions neurologiques. Les macrophages associés au système nerveux central (CAMs) sont des cellules immunitaires situées au sein de la barrière hémato-encéphalique[1], à l’interface entre la circulation sanguine et le parenchyme cérébral[2]. En temps normal, le rôle des CAMs est de surveiller leur environnement, de le nettoyer des débris et autres molécules provenant du parenchyme cérébral, ainsi que des molécules dérivées du sang qui passent la barrière hémato-encéphalique, et de signaler aux autres cellules immunitaires la présence de pathogènes. Peu étudiés jusqu’à présent, ils se trouvent pourtant dans une situation anatomique idéale pour détecter et réagir aux signaux inflammatoires provenant de l’extérieur et protéger le parenchyme cérébral.

Une équipe de recherche du laboratoire Physiopathologie et imagerie des maladies neurologiques (Inserm/Université de Caen Normandie), menée par Marina Rubio, chercheuse Inserm, et Denis Vivien, professeur et praticien hospitalier à l’université de Caen et au CHU Caen Normandie et responsable du laboratoire,  s’est intéressée chez la souris et dans des tissus cérébraux humains à l’évolution du rôle des CAMs au cours du vieillissement et à leur implication potentielle dans la régulation de la réponse inflammatoire survenant dans le cerveau après un AVC ischémique.

Dans un premier temps, les scientifiques ont cherché à caractériser les évolutions du rôle des CAMs et de leur environnement biologique au cours du vieillissement. Ils ont ainsi pu observer que, si le nombre de CAMs ne fluctuait pas avec l’âge, leurs fonctions évoluaient ; une molécule spécifique apparaissait à leur surface : le récepteur MHC II, qui joue un rôle majeur dans la communication entre cellules immunitaires (par exemple pour coordonner la réponse immunitaire face à la présence d’un pathogène). Dans le même temps, la barrière hématoencéphalique, étanche dans les jeunes cerveaux, devenait, elle, plus poreuse, permettant alors le passage de certaines cellules immunitaires en provenance du sang vers le parenchyme cérébral.

« Ces observations suggèrent que les CAMs seraient capables d’adapter leur activité en fonction du stade de la vie, de l’état de santé de la personne et de la région du cerveau où ils se trouvent », précise Marina Rubio.

Ainsi, pour compenser l’augmentation de la porosité de la barrière hématoencéphalique avec l’âge, ils renforceraient leurs capacités de communication avec les autres cellules immunitaires en exprimant davantage le récepteur MHC II.

« À la suite d’un AVC ischémique, cela pourrait permettre de prévenir une réponse immunitaire trop importante qui aurait des conséquences neurologiques plus graves », ajoute la chercheuse.

L’équipe de recherche s’est ensuite intéressée à l’impact de ces changements fonctionnels sur la réponse immunitaire dans le parenchyme cérébral après un AVC ischémique. Pour ce faire, elle a comparé ce qu’il se produisait après un AVC dans un cerveau âgé normal de souris et ce qu’il se produisait en l’absence de CAMs ou lorsque leur récepteur MHC II était inhibé.

Dans ces deux derniers modèles, les chercheuses et les chercheurs ont pu observer que lors de la phase aiguë de l’AVC ischémique mais également dans les jours suivants, davantage de cellules immunitaires provenant du sang traversaient la barrière hémato-encéphalique, témoignant d’une perméabilité accrue de cette dernière, couplée à une réponse immunitaire exacerbée. Ce phénomène s’accompagnait d’une aggravation des atteintes neurologiques causées par l’AVC.

« Ces résultats suggèrent que les CAMs acquièrent, au cours du vieillissement, un rôle central dans l’orchestration du trafic des cellules immunitaires après un AVC ischémique, explique Denis Vivien. Grâce à leur capacité d’adaptation, ils assureraient un contrôle étroit continu de l’intégrité de la barrière hémato-encéphalique et de l’intensité de la réponse inflammatoire. »

Le récepteur MHC II porté par les CAMs semble être impliqué dans cette modulation ainsi que dans la limitation des atteintes neurologiques dues à l’AVC.

La suite des recherches pour cette équipe visera à mieux comprendre les mécanismes moléculaires intervenant dans le dialogue entre les CAMs et les cellules qui tapissent la paroi interne des vaisseaux sanguins cérébraux.

« L’objectif sera, à terme, d’identifier et de développer de nouvelles cibles thérapeutiques qui pourraient permettre de moduler la réponse immunitaire cérébrale de manière adaptée à chaque patient après un AVC », conclut Marina Rubio.

 

[1]La barrière hémato-encéphalique sépare les vaisseaux sanguins cérébraux du parenchyme cérébral. Elle joue un rôle de filtre fortement sélectif capable à la fois de laisser passer les nutriments essentiels pour le cerveau tout en protégeant le parenchyme des pathogènes, toxines ou hormones circulant dans le sang et susceptibles de réussir à sortir des vaisseaux. 

[2]Le parenchyme cérébral est le tissu fonctionnel du cerveau directement impliqué dans les activités neuronales et la transmission de l’influx nerveux. Il est entouré par les espaces périvasculaires et les méninges où résident notamment les CAMs.

Épilepsie : la découverte d’un mécanisme de génération des crises ouvre des pistes pour mieux les prédire dans le syndrome de Dravet

Les scientifiques se sont intéressés en particulier à l’activité de neurones dits « GABAergiques », dont l’activité est connue pour être réduite chez les patients souffrant du syndrome de Dravet. © Adobe Stock

Les crises convulsives ont un retentissement important sur la vie des patients atteints du syndrome de Dravet, une forme d’épilepsie sévère. Afin de mieux les prendre en charge, il est essentiel de mieux comprendre les mécanismes neuronaux qui aboutissent au déclenchement de ces crises. Dans une nouvelle étude, des scientifiques de l’Inserm, du CNRS et d’Université Côte d’Azur au sein de l’Institut de Pharmacologie Moléculaire et Cellulaire (IPMC)[1] à Sophia Antipolis ont réussi à identifier dans des modèles animaux une « signature cérébrale » annonciatrice d’une crise. Celle-ci a permis de mettre au point un outil de prédiction des crises qui pourrait avoir une réelle utilité clinique à l’avenir pour les patients. Les résultats sont publiés dans la revue PNAS.

Le syndrome de Dravet est une forme d’épilepsie sévère qui débute au cours de la première année de vie et persiste à l’âge adulte. Elle se caractérise par des crises convulsives récurrentes ainsi que par des troubles cognitifs et comportementaux. Les crises, qui sont actuellement imprévisibles, ont un impact important sur la qualité de vie des patients et celles de leurs familles. Elles peuvent de plus aggraver le phénotype de la maladie.

L’équipe de recherche menée par le chercheur Inserm Massimo Mantegazza au sein de l’IPMC (Inserm/CNRS/Université Côte d’Azur) tente de percer à jour les mécanismes neuronaux qui conduisent aux crises. En plus de consolider les connaissances scientifiques sur l’épilepsie, leurs travaux pourraient à l’avenir permettre de mieux prédire les crises et développer de nouvelles approches thérapeutiques pertinentes, alors qu’actuellement le syndrome de Dravet est dans la plupart des cas résistant aux traitements.

Avec cette nouvelle étude, l’équipe avait pour objectif de mieux comprendre les mécanismes de génération des crises dans le syndrome de Dravet, en enregistrant l’activité de neurones individuels, avant et pendant les crises, dans le cerveau de modèles murins présentant la même mutation génétique que celle décrite chez les jeunes patients atteints de la maladie. Les scientifiques se sont intéressés en particulier à l’activité de neurones dits « GABAergiques », dont l’activité est connue pour être réduite chez les patients souffrant du syndrome de Dravet. Sur les enregistrements, ils ont observé que juste avant le début d’une crise, dans les secondes qui la précèdent, l’activité des neurones GABAergiques devient irrégulière.

Cette irrégularité au niveau des neurones individuels est par ailleurs corrélée à des anomalies de l’activité électrique totale du cerveau, mesurée au moyen d’un EEG (ou électroencéphalogramme) et qui se manifeste par des modifications quantitatives des oscillations du signal cérébral (on parle « d’anomalies spectrales »). L’irrégularité de l’activité neuronale est ensuite suivie, au début de la crise, par un pic d’activité des neurones GABAergiques.

« Ce résultat est surprenant quand on sait que l’activité des neurones GABAergiques est plutôt diminuée chez les patients. Nous montrons qu’au moment où la crise se déclenche, c’est justement le contraire », souligne Massimo Mantegazza, chercheur à l’Inserm et dernier auteur de l’étude.

Avec ses collègues, le chercheur a ensuite pu étudier des enregistrements EEG de l’activité cérébrale de patients atteints du syndrome de Dravet. Les scientifiques ont retrouvé la même « signature cérébrale » que chez l’animal.

Ce résultat confirme la pertinence de s’appuyer sur cette signature cérébrale en tant qu’outil de prédiction des crises. A partir des données récoltées, l’équipe a d’ailleurs pu mettre au point un algorithme de prédiction des crises. En le testant, les scientifiques ont montré que cet outil était capable de prédire le déclenchement des crises chez la souris dans 70 % des cas.

« Aujourd’hui, il n’existe pas de méthode efficace pour prédire les crises d’épilepsie. Nos travaux sont un premier pas dans la bonne direction et pourraient avoir un réel impact clinique pour les patients atteints du syndrome de Dravet, qui est une forme d’épilepsie génétique avec une cause bien déterminée et un phénotype clair. Prédire la survenue des crises constituerait en effet un progrès, car si l’on sait quand une crise va se déclencher, on pourrait essayer de la ‘bloquer’ en mettant au point des thérapies pertinentes, ou du moins d’affiner la prise en charge des patients », conclut Massimo Mantegazza.

 

[1] Ce travail est le fruit d’une collaboration avec une équipe de l’Institut Imagine, de l’Hôpital Necker-Enfants Malades et de l’Epione Research team, Inria Center of Université Côte d’Azur.

 

Quel rôle joue le contexte socioculturel dans la prise de décision ?

engrenages et humains

© AdobeStock

En cognition humaine, la capacité de prise de décision repose sur une « valeur » que la personne va attribuer de manière subjective à différents choix possibles pour sélectionner celui qui lui paraît le plus « optimal ». Cette évaluation découlerait notamment du contexte situationnel dans lequel la mémoire a « fixé » (ou « encodé ») les expériences de choix antérieurs. Une équipe de recherche de l’Inserm et de l’ENS-PSL, en collaboration avec des équipes internationales, a soumis à des tests de prise de décision des participants de 11 pays très différents culturellement. Elle a ainsi pu mettre en évidence que cette dépendance au contexte pourrait avoir un aspect « universel » entre les cultures. Ses travaux, parus dans Nature Human Behaviour, proposent de nouvelles clés pour comprendre les mécanismes cognitifs derrière la prise de décision.

Lorsque le cerveau mémorise une information, il passe par une étape essentielle qui est appelée « encodage » et qui permet de convertir cette information en une forme susceptible d’être stockée dans la mémoire à long terme. Il existe plusieurs formes d’encodage en fonction des sens qui perçoivent l’information et des mécanismes de mémorisation qui entrent en jeu[1].

Quand une personne se trouve dans une situation où elle doit prendre une décision, elle va faire appel à ses expériences antérieures, stockées dans sa mémoire. Ces expériences se matérialisent par une « valeur » attribuée par le cerveau à chaque choix qui a été fait auparavant (on parle de « valeur subjective », ou de « valeur de la récompense »). De manière générale, l’humain va avoir tendance à considérer qu’un choix a une valeur plus élevée si le résultat de celui-ci tend à maximiser le plaisir et à minimiser la souffrance. Dans le cadre d’une situation de prise de décision, la somme des choix antérieurs et de leur valeur subjective va guider la personne dans l’évaluation du choix le plus « optimal » parmi tous les choix potentiels qui se présentent à elle. Cette forme d’encodage fondé sur l’expérience est appelée « apprentissage par renforcement ».

Lorsqu’un événement est encodé dans la mémoire, il s’accompagne d’informations contextuelles : une personne se remémorera mieux un événement spécifique si elle se trouve dans un contexte similaire (par exemple un lieu). En outre, des études récentes ont suggéré que l’encodage de la valeur attribuée à un choix pourrait être dépendant du contexte situationnel[2] dans lequel se trouverait la personne au moment où elle fait ce choix. Dans certaines situations spécifiques, ce phénomène pousserait même les personnes à faire des choix qui pourraient a priori sembler moins « optimaux » que d’autres. Mais cette dépendance au contexte est-elle universelle à la cognition humaine ou est-elle le produit d’influences culturelles et environnementales spécifiques ?

C’est à cette question qu’une équipe de recherche internationale menée par Stefano Palminteri, directeur de recherche Inserm au sein du Laboratoire de neurosciences cognitives et computationnelles (Inserm/ENS-PSL), a tenté de répondre. Elle a mené une vaste étude avec la participation de centres de recherche de 11 pays présentant de grandes différences de contexte socioculturel et économique[3] (Argentine, Iran, Russie, Japon, Chine, Inde, Israël, Chili, Maroc, France et États-Unis). Ceux-ci ont participé à une approche expérimentale innovante, conçue pour capter de manière fiable les effets du contexte dans l’apprentissage par renforcement.

Ce sont donc au total 623 participants qui ont rempli des questionnaires détaillés sur leur profil socioéconomique, culturel et cognitif et participé à deux tests de prise de décision.

Le premier, un test d’apprentissage par renforcement fondé sur l’expérience, était divisé en deux étapes : une étape d’apprentissage (faire des choix possédant une valeur et une statistique prédéterminées non dévoilées et obtenir une analyse détaillée du résultat de ces choix) et une étape d’application de l’apprentissage (faire des choix sans avoir de retour sur expérience mais en tenant compte de l’analyse des premiers résultats).

Le second, un test de prise de décision, se déroulait dans un contexte similaire au premier mais était cette fois fondé sur la description (faire des choix possédant une valeur et une statistique prédéterminées mais cette fois décrites explicitement). Cette seconde étape présentait un double objectif : évaluer si les comportements de prise de décision étaient similaires d’un pays à l’autre et comparer entre ces pays les différences entre la prise de décision fondée sur l’expérience et celle fondée sur la description.

Les résultats de ces tests mettent en évidence que, quel que soit le pays, le contexte situationnel peut pousser les participants à prendre des décisions à première vue irrationnelles en privilégiant des choix sous-optimaux[4].

« Nos travaux remettent en question l’hypothèse selon laquelle les processus de prise de décision seraient fortement influencés par des facteurs culturels, indique Stefano Palminteri. Ils suggèrent au contraire que les biais contextuels de l’apprentissage par renforcement seraient une caractéristique cognitive constante et commune à une grande partie de l’humanité », ajoute le chercheur.

Hernán Anlló, chercheur Inserm et premier auteur de l’étude, complète : « On a longtemps pensé, notamment en économie, que la prise de décision était en grande partie orientée par une préférence pour un choix plus “rentable”. Nos résultats montrent que ce n’est pas le cas en ce qui concerne l’apprentissage par renforcement. »

En outre, dans le second test, les préférences et décisions fondées sur l’expérience passée apparaissent plus similaires d’une culture à l’autre que celles fondées sur des descriptions ou des instructions.

« Les critères permettant d’évaluer la valeur d’un choix semblent être radicalement différents lorsque l’information est décrite à la personne et lorsque celle-ci doit au contraire apprendre de ses essais et de ses erreurs, précise Hernán Anlló. La prise de décision fondée sur la description apparaît ici plus perméable aux nuances culturelles. »

Les implications de cette étude pourraient couvrir différents secteurs tels que l’économie, la psychologie et l’élaboration des politiques publiques, en ouvrant la voie à des cadres de prise de décision plus efficaces et culturellement sensibles.

« Nos conclusions permettent de mieux comprendre comment des individus de milieux divers naviguent dans des paysages décisionnels complexes, offrant ainsi des perspectives précieuses pour les industries et les décideurs politiques », conclut Stefano Palminteri.

 

[1]L’encodage peut être par exemple visuel, épisodique (association active d’une nouvelle information avec un savoir déjà mémorisé), sémantique (encodage de données sensorielles possédant un sens spécifique ou pouvant être associées à un certain contexte ; permis par exemple par les moyens mnémotechniques), acoustique, ou encore relatif aux autres sens.

[2]Pour illustrer : la valeur subjective attribuée à un café soluble ne sera pas la même selon si la personne est dans un lieu où le très bon café est la norme et facile à trouver ou si elle se situe dans un lieu où le café de qualité est difficile voire impossible à trouver et où la norme est au mauvais café.

[3] En sciences cognitives à l’heure actuelle, 95 % de la recherche provient d’une poignée de pays dits WEIRD (Western, Educated, Industrialized, Rich, Democratic), ce qui génère un réel biais de représentativité et d’inclusivité dans les résultats. Ces travaux visent à sortir de ce biais.

[4] Exemple : en phase d’apprentissage, on présente 2 contextes aux participants, l’un où A = +5 et B = +4 (donc A possède une valeur supérieure à B) et l’autre où C = +3 et D = +1. On prend ensuite un 3e contexte dans lequel on demande aux participants de choisir entre B (+4) et C (+3). Ceux-ci vont choisir C même s’il est sous-optimal (valeur inférieure à B) car ils ont appris avec le 2e contexte que C avait une valeur optimale (par rapport à D), contrairement à B (sous-optimal par rapport à A) dans le 1er contexte.

Un meilleur mode de vie est associé à un moindre risque de maladie d’Alzheimer quelle que soit sa prédisposition génétique

Yoga sport personnes âgéesLes programmes de prévention ciblant les facteurs modifiables liés au mode de vie, comme l’activité physique, pourraient même bénéficier aux personnes qui présentent une prédisposition génétique à la maladie d’Alzheimer © Adobe Stock

Améliorer notre mode de vie peut-il ralentir le développement de la démence et sa principale cause, la maladie d’Alzheimer ? Cette question est au cœur de nombreux travaux de recherche et notamment ceux menés par des scientifiques de l’Inserm et de l’université de Bordeaux au sein du Bordeaux Population Health Research center. Dans une étude récente menée par l’épidémiologiste Jeanne Neuffer, l’équipe de la chercheuse Inserm Cecilia Samieri a montré qu’adopter un mode de vie plus sain peut retarder l’apparition de la démence[1] et ralentir le déclin cognitif, même chez les personnes présentant un risque génétique élevé pour la maladie d’Alzheimer. Les résultats de cette étude ont fait l’objet d’une publication scientifique parue dans la revue Alzheimer’s & Dementia.

La maladie d’Alzheimer est une maladie neurodégénérative qui représente la première cause de démence. Elle se caractérise par un déclin cognitif majeur (troubles de la mémoire, des fonctions exécutives et de l’orientation dans le temps et l’espace…). Plusieurs facteurs génétiques et environnementaux peuvent augmenter le risque de développer la maladie, même si l’âge reste le facteur de risque le plus important.

Il n’existe aujourd’hui aucun traitement curatif à la maladie d’Alzheimer. La maladie évolue de plus sur des dizaines d’années avant que les premiers symptômes n’apparaissent. La recherche se penche donc naturellement vers la prévention, dans l’espoir de limiter les symptômes et/ou ralentir la maladie. Une des pistes les plus étudiées actuellement consiste à s’intéresser à la combinaison de facteurs de risque modifiables, liés au mode de vie. Des travaux pour étudier si un meilleur profil de facteurs de risque modifiables peut être protecteur et retarder le développement de la maladie, et si la relation est modifiée par le risque génétique des individus, ont déjà été publiés aux Etats-Unis, aux Pays-Bas ou en Angleterre, mais elles ont donné des résultats contradictoires.

Cette nouvelle étude de l’Inserm, la première en France, avait donc pour but de s’intéresser à cette question afin d’aller plus loin sur le sujet. Les chercheurs et chercheuses ont suivi 5170 participants de plus de 65 ans de l’étude des 3 cités[2], pour une durée allant jusqu’à 17 ans. Au début du suivi, aucun n’avait un diagnostic de démence.

Au cours du suivi, les scientifiques ont étudié à la fois l’incidence de la maladie (nombre de personnes développant une démence, dont 2/3 environ de la forme Alzheimer), ainsi que l’évolution des performances cognitives des participants (ceux qui sont sur la voie de la maladie développent un déclin cognitif accéléré).

Pour étudier les facteurs de risque modifiables de la démence, les scientifiques ont par ailleurs utilisé et attribué à chaque participant un score de risque appelé LIfestyle for BRAin health score (LIBRA). Le LIBRA comprend un score pondéré de 12 composantes, notamment des facteurs liés au mode de vie (mauvaise alimentation, inactivité physique, faible engagement dans des activités cognitives stimulantes, consommation d’alcool nulle ou élevée et tabagisme), à la santé cardio-métabolique (antécédents de maladie cardiaque, diabète, taux de cholestérol élevé, obésité et hypertension), au dysfonctionnement rénal ou encore à la dépression.

Enfin, pour caractériser le risque génétique de chaque participant, les scientifiques ont utilisé deux critères différents. Le premier était la présence ou non du gène APOE-ε4, qui est le principal facteur de risque génétique de développer la maladie d’Alzheimer. Le deuxième était un score de risque génétique qui regroupe les autres facteurs de susceptibilité génétique de la maladie.

A partir de ces données, les scientifiques ont mené des analyses statistiques pour évaluer si la susceptibilité génétique individuelle influençait la relation entre le score LIBRA et le risque de développer une démence, ainsi que les trajectoires de déclin cognitif.

Leurs résultats montrent que plus une personne a un score LIBRA élevé, en faveur d’un plus grand nombre de facteurs dans le sens défavorable à la santé, plus elle a un risque de développer la maladie, et ce quel que soit ses prédispositions génétiques pour l’Alzheimer.

Cela suggère que des programmes de prévention ciblant les facteurs modifiables liés au mode de vie pourraient bénéficier à tous, même aux personnes qui présentent une prédisposition génétique à la maladie d’Alzheimer.

« Encourager ces personnes à modifier certains de leurs comportements, agir sur des facteurs de risque modifiables, est susceptible d’apporter des bénéfices significatifs pour réduire le vieillissement cognitif et retarder les symptômes de la maladie d’Alzheimer », souligne Cécilia Samieri, directrice de recherche Inserm et dernière auteure de l’étude.

L’équipe souhaiterait désormais s’intéresser aux facteurs de risque génétiques d’un point de vue plus global – ou « pangénomique ». Là où cette étude ne s’est focalisée que sur les gènes associés à la maladie d’Alzheimer, il pourrait être utile de regarder tout le génome. L’hypothèse est qu’il y aurait peut-être des sous-groupes de la population générale pour lesquels les stratégies de prévention seraient plus efficaces, non pas parce qu’elles présenteraient certains variants génétiques liées à Alzheimer mais parce qu’elles seraient porteuses de variants spécifiques à certains facteurs de risque, comme les gènes liés au métabolisme de la nutrition par exemple. Mettre en place une telle étude nécessiterait cependant de s’intéresser à un très grand nombre de participants.

Enfin, pour établir des liens de causalité plus solides, les chercheurs et chercheuses suggèrent qu’il faudrait réaliser une étude d’intervention, c’est-à-dire une étude visant à modifier plusieurs des facteurs du LIBRA chez les personnes âgées, pour voir si cela a un impact sur le développement de la maladie ou ses signes précoces.

[1] La démence est un ensemble de symptômes parmi lesquels on observe une dégradation de la mémoire, du raisonnement, du comportement et de l’aptitude à se repérer dans l’espace… La démence résulte de diverses maladies et lésions qui affectent le cerveau. La maladie d’Alzheimer est la cause la plus courante de démence et serait à l’origine de 60 à 70 % des cas.

[2] Promue par l’Université de Bordeaux, l’étude 3C est une étude dite « de cohorte ». Le principe de ce type d’étude est de de suivre des personnes qui sont en bonne santé, ou du moins qui ne souffrent pas de la maladie que l’on veut étudier, ici la maladie d’Alzheimer, pendant plusieurs années. Pour l’étude 3C, 9 294 personnes âgées de 65 ans ou plus ont été recrutées dans 3 villes : Bordeaux, Dijon et Montpellier (d’où le nom Trois Cités), par tirage au sort sur les listes électorales. 

Un meilleur pronostic de retour à la conscience des patients placés en réanimation

© Nicolas Decat

Lorsqu’un patient est admis en réanimation à cause d’un trouble de la conscience — un coma par exemple — établir son pronostic neurologique est une étape cruciale et souvent difficile. Pour réduire l’incertitude qui prélude à la décision médicale, un groupe de cliniciennes-chercheuses et de cliniciens-chercheurs de l’Institut du Cerveau et de l’Hôpital Pitié-Salpêtrière, mené par Lionel Naccache (Sorbonne Université / AP-HP), Jacobo Sitt (Inserm) et Benjamin Rohaut (Sorbonne Université / AP-HP), a évalué l’intérêt d’une approche dite multimodale, qui combine de nombreux indicateurs cliniques, électrophysiologiques, comportementaux, et de neuroimagerie. Leurs résultats, publiés dans la revue Nature Medicine, montrent que cette approche permet de réaliser de meilleurs pronostics.

Après un traumatisme crânien sévère ou un arrêt cardiaque, certains patients et patientes admis en réanimation montrent peu ou pas de réactions à leur environnement et se trouvent parfois incapables de communiquer. C’est ce que l’on appelle un trouble de la conscience (ou DoC, pour Disorder of consciousness) qui regroupe les comas, les états dits végétatifs, ou encore les états qualifiés de « conscience minimale ».

Ce trouble persiste parfois pendant plusieurs jours ou semaines. Il est alors essentiel, pour les équipes soignantes comme pour les proches, d’obtenir des réponses les plus précises possibles sur les capacités de récupération cognitive du patient. Habituellement, un pronostic neurologique est établi à partir de plusieurs indicateurs, dont l’examen des mesures standards de l’anatomie du cerveau (scanner et IRM) et de son fonctionnement (électroencéphalogramme).

« Même avec ces informations en main, il demeure souvent une part d’incertitude dans le pronostic, qui peut impacter les prises de décision médicales. Or, ces patientes et patients sont souvent très fragiles et exposés à de nombreuses complications, ce qui pose à chaque fois la question de l’intensité des soins », explique Benjamin Rohaut (Sorbonne Université / AP-HP), neurologue-réanimateur, chercheur et premier auteur de l’étude.

Par ailleurs, les médecins observent parfois une dissociation entre le comportement de la patiente ou du patient et son activité cérébrale : certains patients et patientes en état végétatif semblent comprendre ce qu’on leur dit, mais sont incapables de le faire savoir aux soignants.

Pour enrichir la description de l’état de conscience de ces patients, l’équipe « PICNIC » co-dirigée par Lionel Naccache à l’Institut du Cerveau, travaille depuis une quinzaine d’années à définir de nouvelles mesures cérébrales et de nouveaux signes d’examen clinique. Progressivement, leur approche a évolué vers la « multi-modalité », c’est-à-dire la combinaison entre le PET scan, des algorithmes d’analyse multivariés de l’EEG, l’IRM fonctionnelle, les potentiels évoqués cognitifs (des réponses électriques à des stimulations sensorielles), et d’autres outils.

Les marqueurs de la conscience passés au crible

Pour évaluer l’intérêt clinique de cette approche, l’équipe a travaillé avec le service de Médecine intensive et réanimation à orientation neurologique de l’Hôpital Pitié-Salpêtrière, à Paris. Menés par Benjamin Rohaut et Charlotte Calligaris (AP-HP) les cliniciennes-chercheuses et cliniciens-chercheurs ont suivi et évalué 349 patientes et patients de réanimation entre 2009 et 2021. À l’issue de chaque évaluation multimodale, ils ont formulé un avis pronostique « bon », « incertain » ou « défavorable ».

Leurs résultats indiquent que les patientes et patients avec un « bon pronostic » (22 % des cas) ont présenté une évolution de leurs capacités cognitives bien plus favorable que les patientes et patients avec un pronostic jugé « incertain » (45,5 % des cas) ou « défavorable » (32,5 % des cas). En particulier, aucun des patientes et patients évalués « défavorables » n’avait retrouvé la conscience après un an. Surtout, cette performance pronostique était corrélée au nombre de modalités utilisées : plus le nombre d’indicateurs utilisés augmentait, plus la précision du pronostic augmentait, et plus la confiance de l’équipe en ses propres évaluations augmentait également.

« Cette étude au long court montre pour la première fois le bénéfice de l’approche multimodale, ce qui constitue une information essentielle pour les services de réanimation du monde entier. Elle permet aussi de valider empiriquement les recommandations récentes des académies européenne et américaine de neurologie », détaille Jacobo Sitt, qui a co-supervisé ce travail avec Lionel Naccache.

Vers une approche neuropronostique standardisée

L’approche multimodale ne constitue pas, toutefois, une baguette magique. Elle permet de fournir la meilleure information possible aux soignants et aux familles dans ces situations imprégnées d’incertitude — ce qui constitue un progrès éthique dans la prise en charge des malades — mais ne garantit pas une prise de décision exempte de biais.

Enfin, se pose la question de l’accès aux outils d’évaluation, qui sont coûteux et nécessitent des expertises spécifiques.

« Nous sommes conscients que l’évaluation multimodale n’est pas accessible à l’ensemble des services de réanimation qui accueillent ces patientes et patients, poursuit Lionel Naccache. Nous proposons ainsi de construire un maillage de collaborations au niveau national et européen. Grâce à l’utilisation d’outils de télémédecine et d’analyse automatisée de l’EEG ou de l’imagerie cérébrale, tous les services de réanimation pourraient disposer d’un premier niveau d’accès à l’évaluation multimodale. Si elle s’avérait insuffisante, un recours à un centre régional expert apporterait une évaluation plus poussée. Enfin, dans les situations les plus complexes, il serait possible de solliciter tous les experts disponibles, où qu’ils soient. Notre objectif est, à terme, que tous les patients et patientes présentant un trouble de la conscience puissent bénéficier des meilleurs standards de pronostic neurologique.»

Cette étude a été financée grâce à la James S. McDonnell Foundation, la Fondation pour la Recherche Médicale (FRM), l’UNIM, le prix Lamonica de l’Académie des Sciences, l’European Partnership for Personalised Medicine (PerMed) et le programme Investissements d’avenir.

Jacobo Sitt et Lionel Naccache sont co-fondateurs et actionnaires de la société Neurometers, dédiée à l’utilisation médicale de l’électroencéphalogramme (EEG) pour quantifier les signatures cérébrales de la conscience et de la cognition.

Des champignons hallucinogènes pour traiter l’addiction à l’alcool

bouteilles d'alcoolUne étude inédit ouvre de nouvelles perspectives thérapeutiques pour le traitement de l’addiction à l’alcool avec de la psilocybine, le composé actif des champignons hallucinogènes © Fotalia

Une étude inédite, menée par le Professeur Mickael Naassila et son équipe du Groupe de Recherches sur l’Alcool et les Pharmacodépendances (GRAP, laboratoire UPJV/INSERM 1247), ouvre de nouvelles perspectives thérapeutiques pour le traitement de l’addiction à l’alcool avec de la psilocybine, le composé actif des champignons hallucinogènes. Publiés dans la revue scientifique Brain, leurs travaux confirment le potentiel de la psilocybine à combattre l’addiction à l’alcool, tout en levant le voile sur les mécanismes d’action de cette molécule, jusqu’alors inconnus. Une percée scientifique très prometteuse pour enrayer le fléau de l’addiction à l’alcool à l’aide de psychédéliques.

 

La psilocybine réduit l’auto-administration d’alcool par l’activation sélective du noyau accumbens gauche

Les résultats de l’étude conduite par les scientifiques de l’Inserm et de l’UPJV montrent que l’administration de psilocybine dans des modèles murins d’addiction à l’alcool réduit de moitié leur consommation d’alcool. Ces données confirment l’intérêt d’étudier cette molécule dans le traitement de l’alcoolo-dépendance.

Pour expliquer ces effets et mieux comprendre les mécanismes sous-jacents, les chercheurs ont mesuré, dans le cerveau au niveau du noyau accumbens, l’expression de certains gènes connus pour être impliqués dans l’addiction à l’alcool. Le noyau accumbens joue un rôle central dans l’addiction notamment en relayant les effets plaisants des drogues et la motivation à les consommer.

Les résultats révèlent de manière surprenante une latéralisation cérébrale dans les effets de la psilocybine, avec une modification de l’expression de certains gènes, soit à la hausse, soit à la baisse et qui est différente en fonction du côté gauche ou du côté droit du cerveau.

Ces premiers résultats ont donc poussé les chercheurs à explorer le rôle spécifique du noyau accumbens gauche ou droit en injectant directement la psilocybine soit dans le noyau accumbens gauche, soit dans le droit.

La psilocybine injectée chez des rats non consommateurs d’alcool induit des changements particuliers dans le cerveau, notamment une diminution de l’expression des récepteurs 5HT-2A de la sérotonine uniquement dans le noyau accumbens gauche. De manière inattendue, l’augmentation de l’expression du gène BDNF, associé à la plasticité cérébrale, a lui été observée uniquement dans le noyau accumbens droit.

Lorsque la psilocybine est injectée directement dans le noyau accumbens gauche, elle réduit de moitié la consommation d’alcool mais elle n’a pas d’effet lorsque qu’elle est injectée dans le noyau accumbens droit.

 

Une meilleure compréhension du mécanisme impliqué dans les effets bénéfiques de la psilocybine sur la consommation d’alcool

L’étude de l’équipe du Pr Naassila est ensuite allée encore plus loin pour décrypter le mécanisme biologique de la psilocybine. On sait que les effets hallucinogènes de la psilocybine sont liés à son action sur les récepteurs 5-HT2A de la sérotonine. Dans ce travail, les chercheurs ont montré que ces récepteurs étaient surexprimés après traitement par la psilocybine. Ensuite, pour vraiment démontrer que les effets de la psilocybine sur la consommation d’alcool sont liés à un effet spécifique sur les récepteurs 5-HT2A de la sérotonine -, ils ont testé l’effet d’un blocage de ces récepteurs.

Et effectivement, l’infusion de la kétansérine, un bloqueur des récepteurs 5HT-2A, directement dans le noyau accumbens gauche empêche la psilocybine de réduire la consommation d’alcool. Ce blocage dans le noyau accumbens droit n’est quant à lui pas efficace.

L’étude met aussi en lumière un autre mécanisme potentiel bien connu dans l’addiction. L’administration de psilocybine augmente l’expression des récepteurs D2 de la dopamine dans le noyau accumbens chez les rats consommateurs d’alcool. Comme on sait déjà que dans l’addiction à l’alcool, on observe chez l’animal et chez l’humain une diminution de l’expression des récepteurs D2, ces résultats pourraient aussi expliquer comment la psilocybine contrecarre les mécanismes de l’addiction, en restaurant l’expression de ces récepteurs.

Cette découverte inédite sur la latéralisation des effets des psychédéliques dans le traitement de l’addiction à l’alcool ouvre de nouvelles voies de recherche. Prochaines étapes : réaliser une cartographie plus précise de cette latéralisation et vérifier si cela se généralise aux autres psychédéliques (LSD, DMT…).

Selon le Pr Mickael Naassila : « Ces résultats sont très originaux car ils démontrent que la psilocybine agit différemment sur l’expression des gènes en fonction de l’hémisphère cérébral. Et que dans le cerveau, c’est particulièrement le noyau accumbens, mais celui situé dans l’hémisphère gauche, qui semble impliqué dans les effets de réduction de la consommation d’alcool ».

fermer