Menu

Meilleure compréhension de la maladie d’Alzheimer : une étude confirme l’intérêt de la caféine comme piste de traitement

Augmentation neuronale du récepteur A2A dans l’hippocampe de sourisImage illustrant l’augmentation neuronale du récepteur A2A (en rouge) dans l’hippocampe de souris. On observe en bleu les noyaux de cellules (marqueur DAPI). © Émilie Faivre

En France, 900 000 personnes sont atteintes de la maladie d’Alzheimer ou d’une autre maladie apparentée. Le risque de développer la maladie d’Alzheimer dépend de facteurs génétiques et environnementaux. Parmi ces derniers, différentes études épidémiologiques suggèrent qu’une consommation régulière et modérée de caféine ralentit le déclin cognitif lié au vieillissement et le risque de développer la maladie d’Alzheimer. Dans une nouvelle étude[1], des chercheurs et des chercheuses de l’Inserm, du CHU de Lille et de l’Université de Lille, au sein du centre de recherche Lille Neuroscience et cognition, ont fait un pas de plus dans la compréhension des mécanismes qui sous-tendent le développement de la maladie d’Alzheimer. Ils viennent de mettre en évidence que l’augmentation pathologique de certains récepteurs dans les neurones au moment du développement de la maladie favorise la perte des synapses, et de fait, le développement précoce des troubles de la mémoire dans un modèle animal de la maladie. Leurs résultats permettent aussi de confirmer l’intérêt de conduire des essais cliniques pour mesurer les effets de la caféine sur le cerveau de patients à un stade précoce de la pathologie. Ils sont publiés dans la revue Brain.

La maladie d’Alzheimer est caractérisée par des troubles de la mémoire, des fonctions exécutives et de l’orientation dans le temps et dans l’espace. Elle résulte d’une lente dégénérescence des neurones, débutant au niveau de l’hippocampe (une structure cérébrale essentielle pour la mémoire) puis s’étendant au reste du cerveau. Les patients atteints par cette pathologie présentent deux types de lésions microscopiques au niveau de leur cerveau : les plaques séniles (ou plaques amyloïdes) et les dégénérescences neurofibrillaires (ou pathologie Tau), participant au dysfonctionnement des neurones et à leur disparition[2].

Des travaux avaient déjà montré que l’expression de certains récepteurs, appelés A2A, étaient retrouvés augmentés dans le cerveau de patients atteints de la maladie d’Alzheimer au niveau de l’hippocampe. Cependant, l’impact de la dérégulation de ces récepteurs sur le développement de la maladie et des troubles cognitifs associés demeurait méconnu jusqu’ici. Dans une nouvelle étude, une équipe de recherche dirigée par le chercheur Inserm David Blum s’est intéressée à cette question.

Les scientifiques ont réussi à reproduire une augmentation précoce[3] de l’expression des récepteurs adénosinergiques A2A, telle qu’observée dans le cerveau des patients, dans un modèle murin de la maladie d’Alzheimer qui développe des plaques amyloïdes. L’objectif était d’évaluer les conséquences de cette augmentation sur la maladie et de décrire les mécanismes en jeu.

Les résultats de leur recherche montrent que l’augmentation en récepteurs A2A favorise la perte des synapses[4] dans l’hippocampe des « souris Alzheimer ». Ceci a pour effet le déclenchement précoce des troubles de la mémoire chez les animaux. Les scientifiques ont ensuite montré qu’un dysfonctionnement de certaines cellules du cerveau, les cellules microgliales, en partie responsables de l’inflammation cérébrale observée dans la maladie, pourraient être impliquées dans la perte des synapses, en réponse à une augmentation en récepteurs A2A. Des mécanismes similaires avaient déjà précédemment été décrits par l’équipe, cette fois-ci dans un autre modèle de la maladie développant les lésions Tau[5].

« Ces résultats suggèrent que l’augmentation d’expression des récepteurs A2A modifie la relation entre les neurones et les cellules microgliales. Cette altération pourrait être à l’origine d’une escalade d’effets entraînant le développement des troubles de la mémoire observés », explique Émilie Faivre, co-dernière autrice de l’étude, chercheuse au sein centre de recherche Lille Neuroscience et Cognition (Inserm/Université de Lille/CHU de Lille).

 

La caféine : une piste de traitement intéressante pour prévenir précocement le déclin cognitif ?

Plusieurs études ont déjà suggéré qu’une consommation régulière et modérée de caféine (ce qui correspond à une consommation de 2 à 4 tasses de café par jour) pouvait ralentir le déclin cognitif lié au vieillissement et le risque de développer la maladie d’Alzheimer.

En 2016, la même équipe de recherche avait décrit un des mécanismes par lequel la caféine pouvait avoir cette action bénéfique chez l’animal, réduisant les troubles cognitifs associés à la maladie d’Alzheimer. Les scientifiques avaient alors montré que les effets de la caféine étaient liés à sa capacité de bloquer l’activité des récepteurs adénosinergiques A2A, ces mêmes récepteurs dont l’expression se trouvent anormalement augmentée dans le cerveau des personnes atteintes de la maladie d’Alzheimer[6].

« En décrivant, dans notre nouvelle étude, le mécanisme par lequel l’augmentation pathologique de l’expression des récepteurs A2A entraîne une cascade d’effets conduisant à une aggravation des troubles de la mémoire, nous confirmons l’intérêt de pistes thérapeutiques qui pourraient agir sur cette cible. Nous mettons donc encore une fois en avant l’intérêt de tester la caféine dans le cadre d’un essai clinique sur des patients atteints de formes précoces de la maladie. En effet, on peut imaginer qu’en bloquant ces récepteurs A2A, dont l’activité est augmentée chez le patient, cette molécule puisse prévenir le développement des troubles de la mémoire voire d’autres symptômes cognitifs et comportementaux », poursuit David Blum, directeur de recherche à l’Inserm, co-dernier auteur de l’étude.

Un essai clinique de phase 3[7], porté par le CHU de Lille, est actuellement en cours. Son objectif est d’évaluer l’effet de la caféine sur les fonctions cognitives de patients atteints de formes précoces à modérées de la maladie d’Alzheimer.

 

[1]Ces travaux ont fait l’objet d’un soutien de la Fondation Alzheimer, de la FRM, de l’ANR, du CoEN (LICEND), de l’Inserm, de l’Université de Lille, du CHU de Lille et du labEx Distalz (Development of Innovative Strategies for a Transdisciplinary Approach to Alzheimer’s Disease) dans le cadre des investissements d’avenir. 

[2] Lire le dossier sur la maladie d’Alzheimer et consulter la BD Inserm qui explique de façon graphique les mécanismes cellulaires et moléculaires impliqués dans le développement de la maladie. 

[3] A un stade au cours duquel normalement les animaux ne souffrent pas encore de troubles de la mémoire.

[4] Zones qui permettent la transmission des informations entre les neurones.

[5] Exacerbation of C1q dysregulation, synaptic loss and memory deficits in tau pathology linked to neuronal adenosine A2A receptor, Brain, Volume 142, Issue 11, November 2019, Pages 3636–3654, https://doi.org/10.1093/brain/awz288

[6] Lire le communiqué de presse

[7] L’essai clinique CAFCA de phase 3 est conduit par le neurologue Thibaud Lebouvier, en lien avec le laboratoire LilNCog et le Centre Mémoire du CHU de Lille. https://www.cafca-alzheimer.fr/

Des cellules immunitaires qui protègent des atteintes neurologiques post-AVC

Visualisation, au sein de la barrière hémato-encéphalique, des macrophages associés au cerveau (CAM, en jaune), à l'interface entre un vaisseau sanguin (magenta) et des astrocytes (cyan), cellules de soutien des neurones en forme d'étoile.

Visualisation, au sein de la barrière hémato-encéphalique, des macrophages associés au système nerveux central (CAM, en jaune), à l’interface entre un vaisseau sanguin (magenta) et des astrocytes (cyan), cellules de soutien des neurones en forme d’étoile. © Dr Damien Levard

Le vieillissement accroît fortement les risques de survenue d’un AVC ischémique. Une équipe de chercheuses et chercheurs de l’Inserm, du CHU Caen Normandie et de l’université de Caen Normandie s’est intéressée au rôle que pourraient jouer certaines cellules immunitaires, les macrophages associés au système nerveux central (CAMs), dans les atteintes neurologiques qui surviennent après un AVC. Leurs travaux montrent que ces cellules acquièrent au cours du vieillissement un rôle clé dans la régulation de la réponse immunitaire déclenchée à la suite d’un AVC. Ces travaux, parus dans Nature Neuroscience, mettent en évidence l’importance de la présence de ces cellules à l’interface entre le sang et le cerveau dans le maintien de l’intégrité cérébrale.

Parmi les accidents vasculaires cérébraux (AVC), le plus fréquent est l’AVC ischémique, qui résulte de l’obstruction d’une artère du cerveau par un caillot sanguin. L’âge est un facteur de risque majeur : à partir de 55 ans, pour 10 ans d’âge en plus, le risque d’AVC ischémique est multiplié par deux.

L’AVC ischémique est suivi de processus inflammatoires cérébraux susceptibles d’aggraver les lésions neurologiques. Les macrophages associés au système nerveux central (CAMs) sont des cellules immunitaires situées au sein de la barrière hémato-encéphalique[1], à l’interface entre la circulation sanguine et le parenchyme cérébral[2]. En temps normal, le rôle des CAMs est de surveiller leur environnement, de le nettoyer des débris et autres molécules provenant du parenchyme cérébral, ainsi que des molécules dérivées du sang qui passent la barrière hémato-encéphalique, et de signaler aux autres cellules immunitaires la présence de pathogènes. Peu étudiés jusqu’à présent, ils se trouvent pourtant dans une situation anatomique idéale pour détecter et réagir aux signaux inflammatoires provenant de l’extérieur et protéger le parenchyme cérébral.

Une équipe de recherche du laboratoire Physiopathologie et imagerie des maladies neurologiques (Inserm/Université de Caen Normandie), menée par Marina Rubio, chercheuse Inserm, et Denis Vivien, professeur et praticien hospitalier à l’université de Caen et au CHU Caen Normandie et responsable du laboratoire,  s’est intéressée chez la souris et dans des tissus cérébraux humains à l’évolution du rôle des CAMs au cours du vieillissement et à leur implication potentielle dans la régulation de la réponse inflammatoire survenant dans le cerveau après un AVC ischémique.

Dans un premier temps, les scientifiques ont cherché à caractériser les évolutions du rôle des CAMs et de leur environnement biologique au cours du vieillissement. Ils ont ainsi pu observer que, si le nombre de CAMs ne fluctuait pas avec l’âge, leurs fonctions évoluaient ; une molécule spécifique apparaissait à leur surface : le récepteur MHC II, qui joue un rôle majeur dans la communication entre cellules immunitaires (par exemple pour coordonner la réponse immunitaire face à la présence d’un pathogène). Dans le même temps, la barrière hématoencéphalique, étanche dans les jeunes cerveaux, devenait, elle, plus poreuse, permettant alors le passage de certaines cellules immunitaires en provenance du sang vers le parenchyme cérébral.

« Ces observations suggèrent que les CAMs seraient capables d’adapter leur activité en fonction du stade de la vie, de l’état de santé de la personne et de la région du cerveau où ils se trouvent », précise Marina Rubio.

Ainsi, pour compenser l’augmentation de la porosité de la barrière hématoencéphalique avec l’âge, ils renforceraient leurs capacités de communication avec les autres cellules immunitaires en exprimant davantage le récepteur MHC II.

« À la suite d’un AVC ischémique, cela pourrait permettre de prévenir une réponse immunitaire trop importante qui aurait des conséquences neurologiques plus graves », ajoute la chercheuse.

L’équipe de recherche s’est ensuite intéressée à l’impact de ces changements fonctionnels sur la réponse immunitaire dans le parenchyme cérébral après un AVC ischémique. Pour ce faire, elle a comparé ce qu’il se produisait après un AVC dans un cerveau âgé normal de souris et ce qu’il se produisait en l’absence de CAMs ou lorsque leur récepteur MHC II était inhibé.

Dans ces deux derniers modèles, les chercheuses et les chercheurs ont pu observer que lors de la phase aiguë de l’AVC ischémique mais également dans les jours suivants, davantage de cellules immunitaires provenant du sang traversaient la barrière hémato-encéphalique, témoignant d’une perméabilité accrue de cette dernière, couplée à une réponse immunitaire exacerbée. Ce phénomène s’accompagnait d’une aggravation des atteintes neurologiques causées par l’AVC.

« Ces résultats suggèrent que les CAMs acquièrent, au cours du vieillissement, un rôle central dans l’orchestration du trafic des cellules immunitaires après un AVC ischémique, explique Denis Vivien. Grâce à leur capacité d’adaptation, ils assureraient un contrôle étroit continu de l’intégrité de la barrière hémato-encéphalique et de l’intensité de la réponse inflammatoire. »

Le récepteur MHC II porté par les CAMs semble être impliqué dans cette modulation ainsi que dans la limitation des atteintes neurologiques dues à l’AVC.

La suite des recherches pour cette équipe visera à mieux comprendre les mécanismes moléculaires intervenant dans le dialogue entre les CAMs et les cellules qui tapissent la paroi interne des vaisseaux sanguins cérébraux.

« L’objectif sera, à terme, d’identifier et de développer de nouvelles cibles thérapeutiques qui pourraient permettre de moduler la réponse immunitaire cérébrale de manière adaptée à chaque patient après un AVC », conclut Marina Rubio.

 

[1]La barrière hémato-encéphalique sépare les vaisseaux sanguins cérébraux du parenchyme cérébral. Elle joue un rôle de filtre fortement sélectif capable à la fois de laisser passer les nutriments essentiels pour le cerveau tout en protégeant le parenchyme des pathogènes, toxines ou hormones circulant dans le sang et susceptibles de réussir à sortir des vaisseaux. 

[2]Le parenchyme cérébral est le tissu fonctionnel du cerveau directement impliqué dans les activités neuronales et la transmission de l’influx nerveux. Il est entouré par les espaces périvasculaires et les méninges où résident notamment les CAMs.

Épilepsie : la découverte d’un mécanisme de génération des crises ouvre des pistes pour mieux les prédire dans le syndrome de Dravet

Les scientifiques se sont intéressés en particulier à l’activité de neurones dits « GABAergiques », dont l’activité est connue pour être réduite chez les patients souffrant du syndrome de Dravet. © Adobe Stock

Les crises convulsives ont un retentissement important sur la vie des patients atteints du syndrome de Dravet, une forme d’épilepsie sévère. Afin de mieux les prendre en charge, il est essentiel de mieux comprendre les mécanismes neuronaux qui aboutissent au déclenchement de ces crises. Dans une nouvelle étude, des scientifiques de l’Inserm, du CNRS et d’Université Côte d’Azur au sein de l’Institut de Pharmacologie Moléculaire et Cellulaire (IPMC)[1] à Sophia Antipolis ont réussi à identifier dans des modèles animaux une « signature cérébrale » annonciatrice d’une crise. Celle-ci a permis de mettre au point un outil de prédiction des crises qui pourrait avoir une réelle utilité clinique à l’avenir pour les patients. Les résultats sont publiés dans la revue PNAS.

Le syndrome de Dravet est une forme d’épilepsie sévère qui débute au cours de la première année de vie et persiste à l’âge adulte. Elle se caractérise par des crises convulsives récurrentes ainsi que par des troubles cognitifs et comportementaux. Les crises, qui sont actuellement imprévisibles, ont un impact important sur la qualité de vie des patients et celles de leurs familles. Elles peuvent de plus aggraver le phénotype de la maladie.

L’équipe de recherche menée par le chercheur Inserm Massimo Mantegazza au sein de l’IPMC (Inserm/CNRS/Université Côte d’Azur) tente de percer à jour les mécanismes neuronaux qui conduisent aux crises. En plus de consolider les connaissances scientifiques sur l’épilepsie, leurs travaux pourraient à l’avenir permettre de mieux prédire les crises et développer de nouvelles approches thérapeutiques pertinentes, alors qu’actuellement le syndrome de Dravet est dans la plupart des cas résistant aux traitements.

Avec cette nouvelle étude, l’équipe avait pour objectif de mieux comprendre les mécanismes de génération des crises dans le syndrome de Dravet, en enregistrant l’activité de neurones individuels, avant et pendant les crises, dans le cerveau de modèles murins présentant la même mutation génétique que celle décrite chez les jeunes patients atteints de la maladie. Les scientifiques se sont intéressés en particulier à l’activité de neurones dits « GABAergiques », dont l’activité est connue pour être réduite chez les patients souffrant du syndrome de Dravet. Sur les enregistrements, ils ont observé que juste avant le début d’une crise, dans les secondes qui la précèdent, l’activité des neurones GABAergiques devient irrégulière.

Cette irrégularité au niveau des neurones individuels est par ailleurs corrélée à des anomalies de l’activité électrique totale du cerveau, mesurée au moyen d’un EEG (ou électroencéphalogramme) et qui se manifeste par des modifications quantitatives des oscillations du signal cérébral (on parle « d’anomalies spectrales »). L’irrégularité de l’activité neuronale est ensuite suivie, au début de la crise, par un pic d’activité des neurones GABAergiques.

« Ce résultat est surprenant quand on sait que l’activité des neurones GABAergiques est plutôt diminuée chez les patients. Nous montrons qu’au moment où la crise se déclenche, c’est justement le contraire », souligne Massimo Mantegazza, chercheur à l’Inserm et dernier auteur de l’étude.

Avec ses collègues, le chercheur a ensuite pu étudier des enregistrements EEG de l’activité cérébrale de patients atteints du syndrome de Dravet. Les scientifiques ont retrouvé la même « signature cérébrale » que chez l’animal.

Ce résultat confirme la pertinence de s’appuyer sur cette signature cérébrale en tant qu’outil de prédiction des crises. A partir des données récoltées, l’équipe a d’ailleurs pu mettre au point un algorithme de prédiction des crises. En le testant, les scientifiques ont montré que cet outil était capable de prédire le déclenchement des crises chez la souris dans 70 % des cas.

« Aujourd’hui, il n’existe pas de méthode efficace pour prédire les crises d’épilepsie. Nos travaux sont un premier pas dans la bonne direction et pourraient avoir un réel impact clinique pour les patients atteints du syndrome de Dravet, qui est une forme d’épilepsie génétique avec une cause bien déterminée et un phénotype clair. Prédire la survenue des crises constituerait en effet un progrès, car si l’on sait quand une crise va se déclencher, on pourrait essayer de la ‘bloquer’ en mettant au point des thérapies pertinentes, ou du moins d’affiner la prise en charge des patients », conclut Massimo Mantegazza.

 

[1] Ce travail est le fruit d’une collaboration avec une équipe de l’Institut Imagine, de l’Hôpital Necker-Enfants Malades et de l’Epione Research team, Inria Center of Université Côte d’Azur.

 

Quel rôle joue le contexte socioculturel dans la prise de décision ?

engrenages et humains

© AdobeStock

En cognition humaine, la capacité de prise de décision repose sur une « valeur » que la personne va attribuer de manière subjective à différents choix possibles pour sélectionner celui qui lui paraît le plus « optimal ». Cette évaluation découlerait notamment du contexte situationnel dans lequel la mémoire a « fixé » (ou « encodé ») les expériences de choix antérieurs. Une équipe de recherche de l’Inserm et de l’ENS-PSL, en collaboration avec des équipes internationales, a soumis à des tests de prise de décision des participants de 11 pays très différents culturellement. Elle a ainsi pu mettre en évidence que cette dépendance au contexte pourrait avoir un aspect « universel » entre les cultures. Ses travaux, parus dans Nature Human Behaviour, proposent de nouvelles clés pour comprendre les mécanismes cognitifs derrière la prise de décision.

Lorsque le cerveau mémorise une information, il passe par une étape essentielle qui est appelée « encodage » et qui permet de convertir cette information en une forme susceptible d’être stockée dans la mémoire à long terme. Il existe plusieurs formes d’encodage en fonction des sens qui perçoivent l’information et des mécanismes de mémorisation qui entrent en jeu[1].

Quand une personne se trouve dans une situation où elle doit prendre une décision, elle va faire appel à ses expériences antérieures, stockées dans sa mémoire. Ces expériences se matérialisent par une « valeur » attribuée par le cerveau à chaque choix qui a été fait auparavant (on parle de « valeur subjective », ou de « valeur de la récompense »). De manière générale, l’humain va avoir tendance à considérer qu’un choix a une valeur plus élevée si le résultat de celui-ci tend à maximiser le plaisir et à minimiser la souffrance. Dans le cadre d’une situation de prise de décision, la somme des choix antérieurs et de leur valeur subjective va guider la personne dans l’évaluation du choix le plus « optimal » parmi tous les choix potentiels qui se présentent à elle. Cette forme d’encodage fondé sur l’expérience est appelée « apprentissage par renforcement ».

Lorsqu’un événement est encodé dans la mémoire, il s’accompagne d’informations contextuelles : une personne se remémorera mieux un événement spécifique si elle se trouve dans un contexte similaire (par exemple un lieu). En outre, des études récentes ont suggéré que l’encodage de la valeur attribuée à un choix pourrait être dépendant du contexte situationnel[2] dans lequel se trouverait la personne au moment où elle fait ce choix. Dans certaines situations spécifiques, ce phénomène pousserait même les personnes à faire des choix qui pourraient a priori sembler moins « optimaux » que d’autres. Mais cette dépendance au contexte est-elle universelle à la cognition humaine ou est-elle le produit d’influences culturelles et environnementales spécifiques ?

C’est à cette question qu’une équipe de recherche internationale menée par Stefano Palminteri, directeur de recherche Inserm au sein du Laboratoire de neurosciences cognitives et computationnelles (Inserm/ENS-PSL), a tenté de répondre. Elle a mené une vaste étude avec la participation de centres de recherche de 11 pays présentant de grandes différences de contexte socioculturel et économique[3] (Argentine, Iran, Russie, Japon, Chine, Inde, Israël, Chili, Maroc, France et États-Unis). Ceux-ci ont participé à une approche expérimentale innovante, conçue pour capter de manière fiable les effets du contexte dans l’apprentissage par renforcement.

Ce sont donc au total 623 participants qui ont rempli des questionnaires détaillés sur leur profil socioéconomique, culturel et cognitif et participé à deux tests de prise de décision.

Le premier, un test d’apprentissage par renforcement fondé sur l’expérience, était divisé en deux étapes : une étape d’apprentissage (faire des choix possédant une valeur et une statistique prédéterminées non dévoilées et obtenir une analyse détaillée du résultat de ces choix) et une étape d’application de l’apprentissage (faire des choix sans avoir de retour sur expérience mais en tenant compte de l’analyse des premiers résultats).

Le second, un test de prise de décision, se déroulait dans un contexte similaire au premier mais était cette fois fondé sur la description (faire des choix possédant une valeur et une statistique prédéterminées mais cette fois décrites explicitement). Cette seconde étape présentait un double objectif : évaluer si les comportements de prise de décision étaient similaires d’un pays à l’autre et comparer entre ces pays les différences entre la prise de décision fondée sur l’expérience et celle fondée sur la description.

Les résultats de ces tests mettent en évidence que, quel que soit le pays, le contexte situationnel peut pousser les participants à prendre des décisions à première vue irrationnelles en privilégiant des choix sous-optimaux[4].

« Nos travaux remettent en question l’hypothèse selon laquelle les processus de prise de décision seraient fortement influencés par des facteurs culturels, indique Stefano Palminteri. Ils suggèrent au contraire que les biais contextuels de l’apprentissage par renforcement seraient une caractéristique cognitive constante et commune à une grande partie de l’humanité », ajoute le chercheur.

Hernán Anlló, chercheur Inserm et premier auteur de l’étude, complète : « On a longtemps pensé, notamment en économie, que la prise de décision était en grande partie orientée par une préférence pour un choix plus “rentable”. Nos résultats montrent que ce n’est pas le cas en ce qui concerne l’apprentissage par renforcement. »

En outre, dans le second test, les préférences et décisions fondées sur l’expérience passée apparaissent plus similaires d’une culture à l’autre que celles fondées sur des descriptions ou des instructions.

« Les critères permettant d’évaluer la valeur d’un choix semblent être radicalement différents lorsque l’information est décrite à la personne et lorsque celle-ci doit au contraire apprendre de ses essais et de ses erreurs, précise Hernán Anlló. La prise de décision fondée sur la description apparaît ici plus perméable aux nuances culturelles. »

Les implications de cette étude pourraient couvrir différents secteurs tels que l’économie, la psychologie et l’élaboration des politiques publiques, en ouvrant la voie à des cadres de prise de décision plus efficaces et culturellement sensibles.

« Nos conclusions permettent de mieux comprendre comment des individus de milieux divers naviguent dans des paysages décisionnels complexes, offrant ainsi des perspectives précieuses pour les industries et les décideurs politiques », conclut Stefano Palminteri.

 

[1]L’encodage peut être par exemple visuel, épisodique (association active d’une nouvelle information avec un savoir déjà mémorisé), sémantique (encodage de données sensorielles possédant un sens spécifique ou pouvant être associées à un certain contexte ; permis par exemple par les moyens mnémotechniques), acoustique, ou encore relatif aux autres sens.

[2]Pour illustrer : la valeur subjective attribuée à un café soluble ne sera pas la même selon si la personne est dans un lieu où le très bon café est la norme et facile à trouver ou si elle se situe dans un lieu où le café de qualité est difficile voire impossible à trouver et où la norme est au mauvais café.

[3] En sciences cognitives à l’heure actuelle, 95 % de la recherche provient d’une poignée de pays dits WEIRD (Western, Educated, Industrialized, Rich, Democratic), ce qui génère un réel biais de représentativité et d’inclusivité dans les résultats. Ces travaux visent à sortir de ce biais.

[4] Exemple : en phase d’apprentissage, on présente 2 contextes aux participants, l’un où A = +5 et B = +4 (donc A possède une valeur supérieure à B) et l’autre où C = +3 et D = +1. On prend ensuite un 3e contexte dans lequel on demande aux participants de choisir entre B (+4) et C (+3). Ceux-ci vont choisir C même s’il est sous-optimal (valeur inférieure à B) car ils ont appris avec le 2e contexte que C avait une valeur optimale (par rapport à D), contrairement à B (sous-optimal par rapport à A) dans le 1er contexte.

Un meilleur mode de vie est associé à un moindre risque de maladie d’Alzheimer quelle que soit sa prédisposition génétique

Yoga sport personnes âgéesLes programmes de prévention ciblant les facteurs modifiables liés au mode de vie, comme l’activité physique, pourraient même bénéficier aux personnes qui présentent une prédisposition génétique à la maladie d’Alzheimer © Adobe Stock

Améliorer notre mode de vie peut-il ralentir le développement de la démence et sa principale cause, la maladie d’Alzheimer ? Cette question est au cœur de nombreux travaux de recherche et notamment ceux menés par des scientifiques de l’Inserm et de l’université de Bordeaux au sein du Bordeaux Population Health Research center. Dans une étude récente menée par l’épidémiologiste Jeanne Neuffer, l’équipe de la chercheuse Inserm Cecilia Samieri a montré qu’adopter un mode de vie plus sain peut retarder l’apparition de la démence[1] et ralentir le déclin cognitif, même chez les personnes présentant un risque génétique élevé pour la maladie d’Alzheimer. Les résultats de cette étude ont fait l’objet d’une publication scientifique parue dans la revue Alzheimer’s & Dementia.

La maladie d’Alzheimer est une maladie neurodégénérative qui représente la première cause de démence. Elle se caractérise par un déclin cognitif majeur (troubles de la mémoire, des fonctions exécutives et de l’orientation dans le temps et l’espace…). Plusieurs facteurs génétiques et environnementaux peuvent augmenter le risque de développer la maladie, même si l’âge reste le facteur de risque le plus important.

Il n’existe aujourd’hui aucun traitement curatif à la maladie d’Alzheimer. La maladie évolue de plus sur des dizaines d’années avant que les premiers symptômes n’apparaissent. La recherche se penche donc naturellement vers la prévention, dans l’espoir de limiter les symptômes et/ou ralentir la maladie. Une des pistes les plus étudiées actuellement consiste à s’intéresser à la combinaison de facteurs de risque modifiables, liés au mode de vie. Des travaux pour étudier si un meilleur profil de facteurs de risque modifiables peut être protecteur et retarder le développement de la maladie, et si la relation est modifiée par le risque génétique des individus, ont déjà été publiés aux Etats-Unis, aux Pays-Bas ou en Angleterre, mais elles ont donné des résultats contradictoires.

Cette nouvelle étude de l’Inserm, la première en France, avait donc pour but de s’intéresser à cette question afin d’aller plus loin sur le sujet. Les chercheurs et chercheuses ont suivi 5170 participants de plus de 65 ans de l’étude des 3 cités[2], pour une durée allant jusqu’à 17 ans. Au début du suivi, aucun n’avait un diagnostic de démence.

Au cours du suivi, les scientifiques ont étudié à la fois l’incidence de la maladie (nombre de personnes développant une démence, dont 2/3 environ de la forme Alzheimer), ainsi que l’évolution des performances cognitives des participants (ceux qui sont sur la voie de la maladie développent un déclin cognitif accéléré).

Pour étudier les facteurs de risque modifiables de la démence, les scientifiques ont par ailleurs utilisé et attribué à chaque participant un score de risque appelé LIfestyle for BRAin health score (LIBRA). Le LIBRA comprend un score pondéré de 12 composantes, notamment des facteurs liés au mode de vie (mauvaise alimentation, inactivité physique, faible engagement dans des activités cognitives stimulantes, consommation d’alcool nulle ou élevée et tabagisme), à la santé cardio-métabolique (antécédents de maladie cardiaque, diabète, taux de cholestérol élevé, obésité et hypertension), au dysfonctionnement rénal ou encore à la dépression.

Enfin, pour caractériser le risque génétique de chaque participant, les scientifiques ont utilisé deux critères différents. Le premier était la présence ou non du gène APOE-ε4, qui est le principal facteur de risque génétique de développer la maladie d’Alzheimer. Le deuxième était un score de risque génétique qui regroupe les autres facteurs de susceptibilité génétique de la maladie.

A partir de ces données, les scientifiques ont mené des analyses statistiques pour évaluer si la susceptibilité génétique individuelle influençait la relation entre le score LIBRA et le risque de développer une démence, ainsi que les trajectoires de déclin cognitif.

Leurs résultats montrent que plus une personne a un score LIBRA élevé, en faveur d’un plus grand nombre de facteurs dans le sens défavorable à la santé, plus elle a un risque de développer la maladie, et ce quel que soit ses prédispositions génétiques pour l’Alzheimer.

Cela suggère que des programmes de prévention ciblant les facteurs modifiables liés au mode de vie pourraient bénéficier à tous, même aux personnes qui présentent une prédisposition génétique à la maladie d’Alzheimer.

« Encourager ces personnes à modifier certains de leurs comportements, agir sur des facteurs de risque modifiables, est susceptible d’apporter des bénéfices significatifs pour réduire le vieillissement cognitif et retarder les symptômes de la maladie d’Alzheimer », souligne Cécilia Samieri, directrice de recherche Inserm et dernière auteure de l’étude.

L’équipe souhaiterait désormais s’intéresser aux facteurs de risque génétiques d’un point de vue plus global – ou « pangénomique ». Là où cette étude ne s’est focalisée que sur les gènes associés à la maladie d’Alzheimer, il pourrait être utile de regarder tout le génome. L’hypothèse est qu’il y aurait peut-être des sous-groupes de la population générale pour lesquels les stratégies de prévention seraient plus efficaces, non pas parce qu’elles présenteraient certains variants génétiques liées à Alzheimer mais parce qu’elles seraient porteuses de variants spécifiques à certains facteurs de risque, comme les gènes liés au métabolisme de la nutrition par exemple. Mettre en place une telle étude nécessiterait cependant de s’intéresser à un très grand nombre de participants.

Enfin, pour établir des liens de causalité plus solides, les chercheurs et chercheuses suggèrent qu’il faudrait réaliser une étude d’intervention, c’est-à-dire une étude visant à modifier plusieurs des facteurs du LIBRA chez les personnes âgées, pour voir si cela a un impact sur le développement de la maladie ou ses signes précoces.

[1] La démence est un ensemble de symptômes parmi lesquels on observe une dégradation de la mémoire, du raisonnement, du comportement et de l’aptitude à se repérer dans l’espace… La démence résulte de diverses maladies et lésions qui affectent le cerveau. La maladie d’Alzheimer est la cause la plus courante de démence et serait à l’origine de 60 à 70 % des cas.

[2] Promue par l’Université de Bordeaux, l’étude 3C est une étude dite « de cohorte ». Le principe de ce type d’étude est de de suivre des personnes qui sont en bonne santé, ou du moins qui ne souffrent pas de la maladie que l’on veut étudier, ici la maladie d’Alzheimer, pendant plusieurs années. Pour l’étude 3C, 9 294 personnes âgées de 65 ans ou plus ont été recrutées dans 3 villes : Bordeaux, Dijon et Montpellier (d’où le nom Trois Cités), par tirage au sort sur les listes électorales. 

Un meilleur pronostic de retour à la conscience des patients placés en réanimation

© Nicolas Decat

Lorsqu’un patient est admis en réanimation à cause d’un trouble de la conscience — un coma par exemple — établir son pronostic neurologique est une étape cruciale et souvent difficile. Pour réduire l’incertitude qui prélude à la décision médicale, un groupe de cliniciennes-chercheuses et de cliniciens-chercheurs de l’Institut du Cerveau et de l’Hôpital Pitié-Salpêtrière, mené par Lionel Naccache (Sorbonne Université / AP-HP), Jacobo Sitt (Inserm) et Benjamin Rohaut (Sorbonne Université / AP-HP), a évalué l’intérêt d’une approche dite multimodale, qui combine de nombreux indicateurs cliniques, électrophysiologiques, comportementaux, et de neuroimagerie. Leurs résultats, publiés dans la revue Nature Medicine, montrent que cette approche permet de réaliser de meilleurs pronostics.

Après un traumatisme crânien sévère ou un arrêt cardiaque, certains patients et patientes admis en réanimation montrent peu ou pas de réactions à leur environnement et se trouvent parfois incapables de communiquer. C’est ce que l’on appelle un trouble de la conscience (ou DoC, pour Disorder of consciousness) qui regroupe les comas, les états dits végétatifs, ou encore les états qualifiés de « conscience minimale ».

Ce trouble persiste parfois pendant plusieurs jours ou semaines. Il est alors essentiel, pour les équipes soignantes comme pour les proches, d’obtenir des réponses les plus précises possibles sur les capacités de récupération cognitive du patient. Habituellement, un pronostic neurologique est établi à partir de plusieurs indicateurs, dont l’examen des mesures standards de l’anatomie du cerveau (scanner et IRM) et de son fonctionnement (électroencéphalogramme).

« Même avec ces informations en main, il demeure souvent une part d’incertitude dans le pronostic, qui peut impacter les prises de décision médicales. Or, ces patientes et patients sont souvent très fragiles et exposés à de nombreuses complications, ce qui pose à chaque fois la question de l’intensité des soins », explique Benjamin Rohaut (Sorbonne Université / AP-HP), neurologue-réanimateur, chercheur et premier auteur de l’étude.

Par ailleurs, les médecins observent parfois une dissociation entre le comportement de la patiente ou du patient et son activité cérébrale : certains patients et patientes en état végétatif semblent comprendre ce qu’on leur dit, mais sont incapables de le faire savoir aux soignants.

Pour enrichir la description de l’état de conscience de ces patients, l’équipe « PICNIC » co-dirigée par Lionel Naccache à l’Institut du Cerveau, travaille depuis une quinzaine d’années à définir de nouvelles mesures cérébrales et de nouveaux signes d’examen clinique. Progressivement, leur approche a évolué vers la « multi-modalité », c’est-à-dire la combinaison entre le PET scan, des algorithmes d’analyse multivariés de l’EEG, l’IRM fonctionnelle, les potentiels évoqués cognitifs (des réponses électriques à des stimulations sensorielles), et d’autres outils.

Les marqueurs de la conscience passés au crible

Pour évaluer l’intérêt clinique de cette approche, l’équipe a travaillé avec le service de Médecine intensive et réanimation à orientation neurologique de l’Hôpital Pitié-Salpêtrière, à Paris. Menés par Benjamin Rohaut et Charlotte Calligaris (AP-HP) les cliniciennes-chercheuses et cliniciens-chercheurs ont suivi et évalué 349 patientes et patients de réanimation entre 2009 et 2021. À l’issue de chaque évaluation multimodale, ils ont formulé un avis pronostique « bon », « incertain » ou « défavorable ».

Leurs résultats indiquent que les patientes et patients avec un « bon pronostic » (22 % des cas) ont présenté une évolution de leurs capacités cognitives bien plus favorable que les patientes et patients avec un pronostic jugé « incertain » (45,5 % des cas) ou « défavorable » (32,5 % des cas). En particulier, aucun des patientes et patients évalués « défavorables » n’avait retrouvé la conscience après un an. Surtout, cette performance pronostique était corrélée au nombre de modalités utilisées : plus le nombre d’indicateurs utilisés augmentait, plus la précision du pronostic augmentait, et plus la confiance de l’équipe en ses propres évaluations augmentait également.

« Cette étude au long court montre pour la première fois le bénéfice de l’approche multimodale, ce qui constitue une information essentielle pour les services de réanimation du monde entier. Elle permet aussi de valider empiriquement les recommandations récentes des académies européenne et américaine de neurologie », détaille Jacobo Sitt, qui a co-supervisé ce travail avec Lionel Naccache.

Vers une approche neuropronostique standardisée

L’approche multimodale ne constitue pas, toutefois, une baguette magique. Elle permet de fournir la meilleure information possible aux soignants et aux familles dans ces situations imprégnées d’incertitude — ce qui constitue un progrès éthique dans la prise en charge des malades — mais ne garantit pas une prise de décision exempte de biais.

Enfin, se pose la question de l’accès aux outils d’évaluation, qui sont coûteux et nécessitent des expertises spécifiques.

« Nous sommes conscients que l’évaluation multimodale n’est pas accessible à l’ensemble des services de réanimation qui accueillent ces patientes et patients, poursuit Lionel Naccache. Nous proposons ainsi de construire un maillage de collaborations au niveau national et européen. Grâce à l’utilisation d’outils de télémédecine et d’analyse automatisée de l’EEG ou de l’imagerie cérébrale, tous les services de réanimation pourraient disposer d’un premier niveau d’accès à l’évaluation multimodale. Si elle s’avérait insuffisante, un recours à un centre régional expert apporterait une évaluation plus poussée. Enfin, dans les situations les plus complexes, il serait possible de solliciter tous les experts disponibles, où qu’ils soient. Notre objectif est, à terme, que tous les patients et patientes présentant un trouble de la conscience puissent bénéficier des meilleurs standards de pronostic neurologique.»

Cette étude a été financée grâce à la James S. McDonnell Foundation, la Fondation pour la Recherche Médicale (FRM), l’UNIM, le prix Lamonica de l’Académie des Sciences, l’European Partnership for Personalised Medicine (PerMed) et le programme Investissements d’avenir.

Jacobo Sitt et Lionel Naccache sont co-fondateurs et actionnaires de la société Neurometers, dédiée à l’utilisation médicale de l’électroencéphalogramme (EEG) pour quantifier les signatures cérébrales de la conscience et de la cognition.

Des champignons hallucinogènes pour traiter l’addiction à l’alcool

bouteilles d'alcoolUne étude inédit ouvre de nouvelles perspectives thérapeutiques pour le traitement de l’addiction à l’alcool avec de la psilocybine, le composé actif des champignons hallucinogènes © Fotalia

Une étude inédite, menée par le Professeur Mickael Naassila et son équipe du Groupe de Recherches sur l’Alcool et les Pharmacodépendances (GRAP, laboratoire UPJV/INSERM 1247), ouvre de nouvelles perspectives thérapeutiques pour le traitement de l’addiction à l’alcool avec de la psilocybine, le composé actif des champignons hallucinogènes. Publiés dans la revue scientifique Brain, leurs travaux confirment le potentiel de la psilocybine à combattre l’addiction à l’alcool, tout en levant le voile sur les mécanismes d’action de cette molécule, jusqu’alors inconnus. Une percée scientifique très prometteuse pour enrayer le fléau de l’addiction à l’alcool à l’aide de psychédéliques.

 

La psilocybine réduit l’auto-administration d’alcool par l’activation sélective du noyau accumbens gauche

Les résultats de l’étude conduite par les scientifiques de l’Inserm et de l’UPJV montrent que l’administration de psilocybine dans des modèles murins d’addiction à l’alcool réduit de moitié leur consommation d’alcool. Ces données confirment l’intérêt d’étudier cette molécule dans le traitement de l’alcoolo-dépendance.

Pour expliquer ces effets et mieux comprendre les mécanismes sous-jacents, les chercheurs ont mesuré, dans le cerveau au niveau du noyau accumbens, l’expression de certains gènes connus pour être impliqués dans l’addiction à l’alcool. Le noyau accumbens joue un rôle central dans l’addiction notamment en relayant les effets plaisants des drogues et la motivation à les consommer.

Les résultats révèlent de manière surprenante une latéralisation cérébrale dans les effets de la psilocybine, avec une modification de l’expression de certains gènes, soit à la hausse, soit à la baisse et qui est différente en fonction du côté gauche ou du côté droit du cerveau.

Ces premiers résultats ont donc poussé les chercheurs à explorer le rôle spécifique du noyau accumbens gauche ou droit en injectant directement la psilocybine soit dans le noyau accumbens gauche, soit dans le droit.

La psilocybine injectée chez des rats non consommateurs d’alcool induit des changements particuliers dans le cerveau, notamment une diminution de l’expression des récepteurs 5HT-2A de la sérotonine uniquement dans le noyau accumbens gauche. De manière inattendue, l’augmentation de l’expression du gène BDNF, associé à la plasticité cérébrale, a lui été observée uniquement dans le noyau accumbens droit.

Lorsque la psilocybine est injectée directement dans le noyau accumbens gauche, elle réduit de moitié la consommation d’alcool mais elle n’a pas d’effet lorsque qu’elle est injectée dans le noyau accumbens droit.

 

Une meilleure compréhension du mécanisme impliqué dans les effets bénéfiques de la psilocybine sur la consommation d’alcool

L’étude de l’équipe du Pr Naassila est ensuite allée encore plus loin pour décrypter le mécanisme biologique de la psilocybine. On sait que les effets hallucinogènes de la psilocybine sont liés à son action sur les récepteurs 5-HT2A de la sérotonine. Dans ce travail, les chercheurs ont montré que ces récepteurs étaient surexprimés après traitement par la psilocybine. Ensuite, pour vraiment démontrer que les effets de la psilocybine sur la consommation d’alcool sont liés à un effet spécifique sur les récepteurs 5-HT2A de la sérotonine -, ils ont testé l’effet d’un blocage de ces récepteurs.

Et effectivement, l’infusion de la kétansérine, un bloqueur des récepteurs 5HT-2A, directement dans le noyau accumbens gauche empêche la psilocybine de réduire la consommation d’alcool. Ce blocage dans le noyau accumbens droit n’est quant à lui pas efficace.

L’étude met aussi en lumière un autre mécanisme potentiel bien connu dans l’addiction. L’administration de psilocybine augmente l’expression des récepteurs D2 de la dopamine dans le noyau accumbens chez les rats consommateurs d’alcool. Comme on sait déjà que dans l’addiction à l’alcool, on observe chez l’animal et chez l’humain une diminution de l’expression des récepteurs D2, ces résultats pourraient aussi expliquer comment la psilocybine contrecarre les mécanismes de l’addiction, en restaurant l’expression de ces récepteurs.

Cette découverte inédite sur la latéralisation des effets des psychédéliques dans le traitement de l’addiction à l’alcool ouvre de nouvelles voies de recherche. Prochaines étapes : réaliser une cartographie plus précise de cette latéralisation et vérifier si cela se généralise aux autres psychédéliques (LSD, DMT…).

Selon le Pr Mickael Naassila : « Ces résultats sont très originaux car ils démontrent que la psilocybine agit différemment sur l’expression des gènes en fonction de l’hémisphère cérébral. Et que dans le cerveau, c’est particulièrement le noyau accumbens, mais celui situé dans l’hémisphère gauche, qui semble impliqué dans les effets de réduction de la consommation d’alcool ».

Régularité du cycle menstruel : une horloge biologique modulée par la lune ?

Cycle menstruel© AdobeStock

De par leur rythme cyclique et de durées similaires, un lien entre cycle menstruel et cycle lunaire a souvent été supposé, sans que la science ne soit jusqu’à présent parvenue à fournir de preuves solides. Afin de mieux comprendre l’origine de la régularité rythmique du cycle menstruel, une équipe de recherche internationale associant l’Inserm, le CNRS et l’Université Claude Bernard Lyon 1, a comparé un grand nombre de données de cycles, récoltées dans des études européennes et nord-américaines. Ses résultats montrent que le cycle menstruel serait finement régulé par une horloge interne, elle-même influencée de manière occasionnelle par le cycle lunaire. Ces travaux à paraître dans Science Advances plaident pour l’intérêt d’étudier davantage ce lien potentiel sur des jeux de données de plus grande ampleur, afin d’identifier un éventuel intérêt de la chronobiologie dans le traitement des troubles de la fertilité.

Un cycle ovulatoire classique, ou cycle menstruel, chez l’humain dure en moyenne 29,3 jours, avec des variations de durée d’une personne menstruée à une autre et d’un cycle à l’autre chez une même personne. Il commence au premier jour des menstruations et est constitué de trois phases, chacune dédiée à la réalisation d’un processus spécifique en lien avec l’ovulation qui survient autour du 14e jour de cycle.

Certains travaux ont suggéré que chacune de ces trois phases pourraient se dérouler sous l’influence d’une horloge interne dont la perturbation du rythme serait associée à des irrégularités dans le cycle menstruel.

Chez l’humain, l’horloge interne la plus connue est l’horloge circadienne, très proche de 24h, qui maintient le cycle veille-sommeil et l’ensemble des rythmes physiologiques. Elle est en phase avec le cycle jour-nuit sous l’influence de la lumière. Lorsque l’horloge circadienne est perturbée – comme dans le cas du jet-lag par exemple -, elle met quelques jours à se recaler sur son rythme habituel en se resynchronisant au nouveau cycle jour-nuit.

Dans le cas des cycles menstruels, l’implication d’une horloge interne pourrait se manifester de façon similaire : la durée du cycle serait habituellement hautement stable chez une même personne et, en cas de perturbation, des mécanismes d’adaptation par synchronisation avec des conditions externes entreraient en jeu pour rétablir le rythme optimal.

Alors quel pourrait être ce « synchroniseur externe » ? Une théorie récurrente suggère que le cycle lunaire pourrait jouer ce rôle, mais les preuves scientifiques manquent à ce jour.

Une équipe de recherche internationale menée par Claude Gronfier, chercheur Inserm au sein du Centre de recherche en Neurosciences de Lyon (Inserm/CNRS/Université Claude Bernard Lyon 1), s’est intéressée à l’existence potentielle d’une horloge biologique interne qui régulerait le cycle menstruel et qui pourrait être synchronisée avec le cycle lunaire. Grâce à une grande base de données de cycles menstruels collectés dans le cadre d’études européennes et nord-américaines, elle a pu comparer au total près de 27 000 cycles menstruels chez 2 303 européennes et près de 4 800 cycles chez 721 nord-américaines.

Dans un premier temps les chercheuses et chercheurs ont examiné la stabilité d’un cycle menstruel à l’autre au niveau individuel, en comparant la durée de cycles successifs. Ils ont ainsi observé une stabilité globale de la durée moyenne du cycle de chaque participante, alors même que sur un ensemble de cycles successifs, certains duraient en fait plus ou moins longtemps que son cycle « standard ».

« Ces observations suggèrent l’existence d’un mécanisme qui corrigerait la différence entre la durée du cycle en cours et celle d’un cycle menstruel typique chez la personne concernée, explique René Écochard, premier auteur de l’étude, médecin aux Hospices Civils de Lyon et professeur à l’Université Claude Bernard Lyon 1. « Quelques cycles plus courts pourraient ainsi compenser une série de quelques cycles plus longs de manière à ce que la longueur totale du cycle oscille autour de la durée habituelle du cycle menstruel. La durée d’un cycle pourrait donc dépendre de la durée des cycles précédents ».

« L’observation de ce phénomène plaide en faveur de l’existence d’une horloge interne régulant finement les cycles menstruels, elle-même synchronisée par un événement cyclique environnemental », ajoute Claude Gronfier.

Dans un second temps l’équipe de recherche s’est intéressée aux relations potentielles entre la survenue des menstruations dans les cycles étudiés et les phases de la lune à l’époque de la collecte des données.

Elle a ainsi pu observer une association, occasionnelle mais significative, entre le cycle menstruel et le cycle lunaire, avec cependant – et sans que ces travaux ne permettent de statuer sur la cause -, une différence majeure entre les cohortes européennes et la cohorte nord-américaine : chez les européennes, le cycle commençait le plus souvent lors de la phase croissante de la lune tandis qu’il commençait plus souvent à la pleine lune dans la cohorte d’Amérique du Nord.

« Malgré cette différence étonnante que nous ne parvenons pas à expliquer pour le moment, les liens identifiés dans ces travaux entre les cycles lunaires et menstruels, de par leur proximité avec certains phénomènes que nous observons en chronobiologie, suggèrent que la périodicité des menstruations et de l’ovulation pourraient être influencées, de manière modeste mais significative, par le cycle lunaire », précise Claude Gronfier.

Ces résultats plaident donc en faveur d’un système d’horloge interne avec un rythme quasi-mensuel, faiblement synchronisé par le cycle lunaire. Ils demandent cependant à être approfondis et confirmés par des études en laboratoire et des études épidémiologiques plus vastes.

« Grâce aux applications d’enregistrement des cycles pour smartphone, l’émergence de larges bases de données contenant les informations de cycles de plusieurs centaines de milliers de femmes pourrait fournir de nouvelles opportunités d’études », indique René Écochard.

« Confirmer l’existence d’une horloge interne coordonnant le cycle menstruel, ainsi que les mécanismes impliqués dans sa synchronisation, pourrait permettre d’appliquer des approches de médecine dite « circadienne », personnalisée – déjà utilisée en cancérologie et pour le traitement des troubles du sommeil ou de la dépression, par exemple –  à des problématiques comme les troubles de l’ovulation et de la fertilité », conclut Claude Gronfier.

Maladie de Charcot : une nouvelle piste pour améliorer le diagnostic et le suivi des patients

Neurones noradrénergiques présents dans le locus coeruleus de sourisNeurones noradrénergiques présents dans le locus coeruleus de souris et dont le dysfonctionnement contribue à l’hyperexcitabilité corticale dans la SLA. © Caroline Rouaux

La sclérose latérale amyotrophique ou maladie de Charcot est une maladie neurodégénérative qui entraîne une paralysie progressive puis le décès du patient. Le diagnostic est difficile à poser et aucun traitement curatif n’existe à ce jour; autant de défis pour la recherche. Dans une nouvelle étude, la chercheuse Inserm Caroline Rouaux et son équipe au Centre de recherche en biomédecine de Strasbourg (Inserm-Université de Strasbourg), en collaboration avec des chercheurs et chercheuses de l’Université Ludwig Maximilian à Munich, du CNRS et de Sorbonne Université, montrent que l’électroencéphalographie pourrait devenir un outil diagnostic et pronostic de la maladie. Grâce à cet examen, les scientifiques ont pu mettre en évidence un profil d’ondes cérébrales atypique qui pourrait s’avérer spécifique de la maladie. Ces travaux parus dans Science Translational Medicine, ont en outre permis de découvrir une possible cible thérapeutique. Ces avancées fondamentales pourraient à terme bénéficier aux patients.

La sclérose latérale amyotrophique ou maladie de Charcot demeure un véritable défi pour les cliniciens. Cette maladie neurodégénérative qui se déclare le plus souvent entre les âges de 50 à 70 ans conduit à une paralysie progressive et au décès des patients en seulement deux à cinq ans. Elle est due à la mort des motoneurones, les cellules nerveuses qui contrôlent les muscles, à la fois dans le cerveau (motoneurones centraux) et dans la moelle épinière (motoneurones périphériques).

Le diagnostic de la SLA est difficile à poser. En effet, les manifestations de la SLA sont hétérogènes au début de la maladie : faiblesses ou crampes au niveau d’un bras, d’une jambe, difficultés de déglutition ou d’articulation… Par ailleurs, il n’existe pas de biomarqueur spécifique de la maladie. Ainsi, le diagnostic résulte de l’élimination d’autres pathologies pouvant entraîner des troubles moteurs, ce qui prend généralement un à deux ans après le début des symptômes, retarde d’autant la mise en place de mesures thérapeutiques et réduit les chances d’inclusion dans des essais cliniques à un stade précoce.

C’est avec l’objectif de raccourcir ce délai que l’équipe de Caroline Rouaux au Centre de recherche en biomédecine de Strasbourg, en collaboration avec les équipes de Sabine Liebscher à Munich et Véronique Marchand-Pauvert, chercheuse Inserm à Paris, a testé le recours à l’électroencéphalographie1. Cette technique peu coûteuse et facile d’utilisation consiste à placer des électrodes à la surface du crâne pour enregistrer l’activité cérébrale sous forme d’ondes.

L’examen effectué chez des sujets atteints de SLA et dans des modèles animaux correspondants a révélé un déséquilibre entre deux types d’ondes respectivement associées à l’activité des neurones excitateurs et inhibiteurs. Ce déséquilibre, en faveur d’une plus grande activité des neurones excitateurs au détriment des neurones inhibiteurs, traduit une hyperexcitabilité corticale.

« Ce phénomène n’est pas une surprise et avait déjà été décrit avec d’autres méthodes d’investigation, mais celles-ci sont très peu utilisées car elles sont difficiles à mettre en œuvre et ne fonctionnent qu’en tout début de maladie. L’électroencéphalographie, au contraire, est très peu invasive, très peu couteuse, et peut s’utiliser à différents moments de la maladie. En outre, le profil d’ondes cérébrales atypique révélé par électroencéphalographie pourrait s’avérer spécifique de la maladie », explique Caroline Rouaux, chercheuse Inserm et dernière autrice de l’étude.

En effet, l’analyse de l’enregistrement de l’activité électrique du cerveau par électroencéphalographie permet de mettre en évidence divers types d’ondes cérébrales d’amplitudes et de fréquences différentes. L’une de ces ondes appelée « thêta » reflète l’activité des neurones excitateurs qui transmettent des messages stimulant les neurones, tandis qu’une autre onde appelée « gamma », reflète celle des neurones inhibiteurs qui bloquent la transmission des messages nerveux. L’étude révèle que chez les humains et animaux atteints de SLA, l’interaction entre ces deux types d’ondes est atypique, révélant un déséquilibre entre les activités excitatrices et inhibitrices. Non seulement ce déséquilibre a été retrouvé chez tous les sujets testés, mais les scientifiques ont aussi montré que plus les symptômes de la maladie progressent, plus ce déséquilibre est important. En outre, ce profil d’ondes atypique a été détecté chez l’animal avant même l’apparition des premiers symptômes moteurs.

Si ces premiers résultats se confirmaient, l’électroencéphalographie pourrait dans le futur servir d’outil pronostic pour les patients déjà diagnostiqués afin d’évaluer par exemple la réponse à un traitement médicamenteux, voire même d’outil diagnostic en cas de symptomatologie évocatrice de la maladie.

Dans une seconde partie de ce travail, les chercheurs ont pu étudier chez les patients et les souris les mécanismes à l’origine de l’hyperexcitabilité observée. Tout d’abord, ils ont mesuré les taux des différents neuromodulateurs produits par les neurones pour communiquer entre eux, et ont constaté un déficit en l’un d’entre eux : la noradrénaline était présente en plus faible quantité dans les cerveaux des patients et souris atteints de SLA et par rapport à des cerveaux sains.

Pour vérifier le rôle de la noradrénaline, ils ont bloqué la production de ce neuromodulateur chez des animaux sains, et ont montré que cela provoque une hyperexcitabilité corticale, comme celle observée dans la maladie. Et à l’inverse, en administrant des molécules stimulant l’action de la noradrénaline dans un modèle de souris atteintes de SLA, les scientifiques ont réduit l’hyperexcitabilité et restauré une activité cérébrale équivalente à celle de souris saines.

« Cette découverte pourrait marquer l’ouverture d’une nouvelle piste thérapeutique dans la SLA sous réserve que l’hyperexcitabilité corticale soit bien associée à la progression de la maladie. En effet, à ce jour, nous observons dans notre étude une association entre les deux mais aucun lien de cause à effet n’est encore établi. C’est ce que nous allons vérifier dans les prochains mois. », conclut Caroline Rouaux.

 

1 L’électroencéphalographie est couramment utilisée à des fins de recherche en neurologie mais aussi en pratique clinique. L’examen renseigne sur l’activité cérébrale en cas de troubles du sommeil, après un accident vasculaire cérébral, ou encore en cas de coma. Il permet également de diagnostiquer une encéphalite, une épilepsie ou encore de confirmer une mort cérébrale.

Bien-être physique et mental des personnes âgées : un impact positif de la méditation et de l’éducation à la santé

Méditation_personnes âgéesL’apprentissage de la méditation de pleine conscience améliorerait la compassion envers soi-même, tandis que l’éducation à la santé favoriserait une pratique accrue d’activité physique. © AdobeStock

Une équipe de l’Inserm et de l’Université de Caen Normandie, en collaboration avec des chercheuses et chercheurs de l’Université de Jena (Allemagne) et du University College London (Royaume Uni), a étudié les bénéfices potentiels d’interventions de méditation et d’éducation à la santé chez des personnes ressentant un déclin de leur mémoire. Ces travaux sont réalisés dans le cadre du programme européen H2020 Silver Santé Study coordonné par l’Inserm[1]. Ils montrent que l’apprentissage de la méditation de pleine conscience améliorerait la compassion envers soi-même, tandis que l’éducation à la santé favoriserait une pratique accrue d’activité physique. Ces résultats, publiés dans Alzheimer’s & Dementia: Diagnosis, Assessment & Disease Monitoring, proposent de nouvelles pistes pour accompagner un vieillissement en meilleure santé.

Le « déclin cognitif subjectif », c’est lorsque la personne rapporte ressentir une dégradation de ses facultés cognitives sans que cela ne soit apparent lors des tests cognitifs standards. Les études ont montré que ces personnes présentaient un risque plus élevé de développer un déclin cognitif réel.

De précédents travaux ont conclu que la méditation de pleine conscience et l’éducation à la santé (une pratique qui consiste à mettre en œuvre pour soi-même des mesures de prévention et de soins bénéfiques à son état de santé) présenteraient un impact positif, toujours présent à six mois, sur l’anxiété chez les personnes déclarant un déclin cognitif subjectif.

De manière plus globale, la compassion envers soi (sentiment de bienveillance à l’égard de soi-même, sentiment d’humanité commune et sentiment de bienveillance à l’égard des pensées négatives) ainsi que l’activité physique ont précédemment été associées à une meilleure santé mentale, elle-même associée à une amélioration de l’état de santé général, du bien-être et de la qualité de vie.

Un groupe de recherche européen coordonné par Julie Gonneaud, chercheuse Inserm au sein du laboratoire Physiopathologie et imagerie des maladies neurologiques (Inserm/Université de Caen Normandie), Olga Klimecki, chercheuse à l’Université de Jena (Allemagne), et Nathalie Marchant, chercheuse au University College London (Royaume-Uni), a étudié l’impact de huit semaines de cours de méditation de pleine conscience et d’éducation à la santé sur la compassion envers soi-même et sur la pratique de l’activité physique chez des personnes déclarant un déclin cognitif subjectif.

L’essai a inclus 147 patients de cliniques spécialisées dans les troubles de la mémoire en France, en Espagne, en Allemagne et au Royaume-Uni. Un groupe a suivi pendant huit semaines les cours de méditation, pendant que l’autre suivait les cours d’éducation à la santé. L’impact des interventions a été évalué par des tests sanguins, des évaluations cognitives ainsi que des questionnaires.

Les chercheuses et chercheurs ont observé que les participants ayant suivi la formation à la méditation de pleine conscience montraient une amélioration de leur compassion envers soi. Les participants ayant suivi la formation d’éducation à la santé montraient, eux, une augmentation de leur activité physique. Ces changements étaient toujours présents six mois plus tard.

Ces résultats plaident en faveur d’effets complémentaires de la pratique de la méditation de pleine conscience et de la participation à des programmes d’éducation à la santé sur certains facteurs contribuant à l’amélioration du bien-être mental et des habitudes de vie chez les personnes âgées déclarant un déclin cognitif subjectif. Le fait que ces améliorations semblent se maintenir après six mois de suivi suggère que ces nouvelles compétences et habitudes ont été intégrées dans la vie des participants.

Selon Natalie Marchant, qui a dirigé l’essai, « de plus en plus de personnes vivent jusqu’à un âge avancé, et il est crucial que nous trouvions des moyens de soutenir la santé mentale et physique des personnes qui vieillissent ».

« La compassion envers soi peut être d’une grande importance pour les personnes âgées. Elle pourrait améliorer le bien-être psychologique afin de promouvoir un vieillissement en bonne santé », ajoute Olga Klimecki. « Nos résultats constituent un premier pas encourageant vers la mise en place d’une intervention fondée sur la pleine conscience, qui pourrait être utilisée pour renforcer la compassion envers soi chez les personnes âgées. »

Julie Gonneaud complète : « Bien que l’activité physique ait été scientifiquement associée à une meilleure santé physique, cognitive et mentale, la manière de la promouvoir dans la vie quotidienne reste un défi. Compte tenu de l’effet particulièrement délétère de la sédentarité sur la santé des populations vieillissantes, le fait de montrer que les programmes d’intervention en éducation à la santé peuvent renforcer l’engagement dans l’activité physique chez les personnes âgées est particulièrement prometteur pour la promotion d’un vieillissement en bonne santé », conclut-elle.

 

[1] Ces travaux sont financés par l’Union européenne et font partie de l’étude SCD-Well du programme H2020 Silver Santé (www.silversantestudy.eu), doté de 7 millions d’euros et coordonné par l’Inserm. L’étude Silver Santé, financée sur cinq ans, examine si les techniques d’entraînement mental, telles que la méditation de pleine conscience, l’éducation à la santé ou l’apprentissage d’une langue, peuvent contribuer à améliorer la santé mentale et le bien-être de la population vieillissante.

Le cerveau au rythme du groove ou pourquoi la musique nous donne-t-elle envie de danser ?

Groove- envie de danser© AdobeStock

Pourquoi certaines musiques nous donnent-elles plus envie de danser que d’autres ? C’est à cette question qu’une équipe de recherche de l’Inserm et d’Aix-Marseille Université a tenté de répondre en étudiant l’envie de danser (aussi appelée « groove ») et l’activité cérébrale de 30 participants écoutant de la musique. Les résultats montrent que la sensation de groove est maximale pour un rythme moyennement complexe et que l’envie de bouger se traduit au niveau cérébral par une anticipation du tempo de la musique. Ces travaux à paraître dans la revue Science Advances désignent également le cortex sensori-moteur gauche[1] comme le centre de coordination entre les systèmes auditif et moteur.

Qui dit danse dit action. Mais pour danser au son d’une mélodie, encore faut-il coordonner ses actions au rythme de la musique. De précédentes études ont déjà montré que le système moteur (constitué du cortex moteur[2] et de l’ensemble des structures cérébrales et des voies nerveuses qui, sous son contrôle, participent à l’exécution du mouvement) est crucial dans le traitement cérébral des rythmes musicaux.

Le « groove », c’est l’envie spontanée de danser en musique. Mais si certaines musiques nous entraînent furieusement sur la piste de danse, d’autres nous laissent impassibles. Alors, qu’est-ce qui fait que certaines musiques sont plus « groovy » que d’autres ?

Une équipe de recherche dirigée par Benjamin Morillon, chercheur Inserm au sein de l’Institut de neurosciences des systèmes (Inserm/Aix-Marseille Université), s’est intéressée aux dynamiques neurales (c’est-à-dire aux interactions entre les neurones résultant de l’activité électrique du cerveau) de 30 participants lors de l’écoute de musiques dont le rythme était plus ou moins complexe. Ceci dans le but de déterminer les mécanismes cérébraux impliqués dans l’émergence de la sensation de groove.

Pour ce faire, l’équipe a tout d’abord créé 12 mélodies courtes composées d’un rythme de 120 battements par minute – soit 2 Hz, rythme moyen retrouvé dans la musique en général. Chaque mélodie a ensuite été modifiée afin d’obtenir trois variantes avec un degré croissant de syncope[3] (faible, moyen, fort) – c’est-à-dire avec un rythme de plus en plus complexe, mais sans modifier ni la vitesse du rythme ni les autres caractéristiques musicales de la mélodie.

Les chercheurs ont ensuite demandé aux participants d’écouter ces mélodies pendant qu’ils enregistraient en temps réel leur activité cérébrale à l’aide d’un appareil de magnéto-encéphalographie (MEG). À la fin de chacune d’elle, la consigne était de noter le niveau de groove ressenti.

Ils ont également créé un modèle mathématique de réseau neuronal dit « neurodynamique » permettant de décrire de manière simple les calculs nécessaires à l’émergence du groove réalisés par le cerveau.

L’expérience du groove telle que rapportée par les participants – et reproduite par le modèle neurodynamique – apparaissait corrélée au taux de syncope. Comme déjà observé dans de précédentes études, l’envie de bouger en musique était maximale pour un rythme présentant un taux intermédiaire de syncope, c’est-à-dire n’étant ni trop simple, ni trop complexe.

« Ces résultats montrent que l’engagement moteur lié au groove se matérialise par une anticipation temporelle du tempo. Celle-ci repose au niveau cérébral sur un équilibre dynamique entre la prévisibilité temporelle du rythme (moins le rythme est complexe, meilleure elle est) et les erreurs de prédiction temporelle de l’auditeur (plus le rythme est complexe, plus elles sont nombreuses) », précise Arnaud Zalta, premier auteur de l’étude et post-doctorant à l’ENS-PSL.

L’analyse de l’activité cérébrale des participants a ensuite permis aux chercheurs de mettre en évidence le rôle du cortex sensorimoteur gauche comme coordonnateur des dynamiques neurales impliquées dans la prédiction temporelle auditive d’une part et dans la planification et l’exécution du mouvement d’autre part.

« L’aire cérébrale où se situe le cortex sensorimoteur gauche est actuellement considérée comme la potentielle clé de voûte de l’intégration sensorimotrice, essentielle à la fois pour la perception de la musique et de la parole. Le fait qu’il apparaîsse dans notre étude comme nécessaire à la “coopération” entre les systèmes auditif et moteur vient renforcer cette hypothèse, d’autant plus que nous utilisons ici des stimuli naturels », conclut Benjamin Morillon.

 

[1]Dans le cerveau, le cortex sensorimoteur regroupe le cortex moteur et le cortex sensoriel (gyrus postcentral, à l’avant du lobe pariétal), séparés par le sillon central. Il est impliqué dans la coordination des mouvements : il reçoit les informations sensorielles provenant des différentes parties du corps et les intègre pour ajuster et affiner les mouvements générés par le cortex moteur.

[2]Le cortex moteur regroupe les aires du cortex cérébral qui participent à la planification, au contrôle et à l’exécution des mouvements musculaires volontaires. Il est situé dans la partie postérieure du lobe frontal du cerveau, au niveau du gyrus précentral.

[3]En solfège rythmique, si on considère une mesure à 4 temps, les temps 1 et 3 sont appelés « temps forts » et les temps 2 et 4 sont appelés « temps faibles ». La syncope correspond à un rythme dans lequel une note (voire un accord) est attaquée sur un temps faible et prolongée sur le temps fort suivant. Pour l’auditeur, cela crée un déplacement de l’accent attendu, perçu comme une sorte de « hoquet » musical qui perturbe la régularité du rythme. Ces motifs musicaux sont notamment très présents dans la musique funk ou le jazz.

fermer