Menu

Épilepsie : la découverte d’un mécanisme de génération des crises ouvre des pistes pour mieux les prédire dans le syndrome de Dravet

Les scientifiques se sont intéressés en particulier à l’activité de neurones dits « GABAergiques », dont l’activité est connue pour être réduite chez les patients souffrant du syndrome de Dravet. © Adobe Stock

Les crises convulsives ont un retentissement important sur la vie des patients atteints du syndrome de Dravet, une forme d’épilepsie sévère. Afin de mieux les prendre en charge, il est essentiel de mieux comprendre les mécanismes neuronaux qui aboutissent au déclenchement de ces crises. Dans une nouvelle étude, des scientifiques de l’Inserm, du CNRS et d’Université Côte d’Azur au sein de l’Institut de Pharmacologie Moléculaire et Cellulaire (IPMC)[1] à Sophia Antipolis ont réussi à identifier dans des modèles animaux une « signature cérébrale » annonciatrice d’une crise. Celle-ci a permis de mettre au point un outil de prédiction des crises qui pourrait avoir une réelle utilité clinique à l’avenir pour les patients. Les résultats sont publiés dans la revue PNAS.

Le syndrome de Dravet est une forme d’épilepsie sévère qui débute au cours de la première année de vie et persiste à l’âge adulte. Elle se caractérise par des crises convulsives récurrentes ainsi que par des troubles cognitifs et comportementaux. Les crises, qui sont actuellement imprévisibles, ont un impact important sur la qualité de vie des patients et celles de leurs familles. Elles peuvent de plus aggraver le phénotype de la maladie.

L’équipe de recherche menée par le chercheur Inserm Massimo Mantegazza au sein de l’IPMC (Inserm/CNRS/Université Côte d’Azur) tente de percer à jour les mécanismes neuronaux qui conduisent aux crises. En plus de consolider les connaissances scientifiques sur l’épilepsie, leurs travaux pourraient à l’avenir permettre de mieux prédire les crises et développer de nouvelles approches thérapeutiques pertinentes, alors qu’actuellement le syndrome de Dravet est dans la plupart des cas résistant aux traitements.

Avec cette nouvelle étude, l’équipe avait pour objectif de mieux comprendre les mécanismes de génération des crises dans le syndrome de Dravet, en enregistrant l’activité de neurones individuels, avant et pendant les crises, dans le cerveau de modèles murins présentant la même mutation génétique que celle décrite chez les jeunes patients atteints de la maladie. Les scientifiques se sont intéressés en particulier à l’activité de neurones dits « GABAergiques », dont l’activité est connue pour être réduite chez les patients souffrant du syndrome de Dravet. Sur les enregistrements, ils ont observé que juste avant le début d’une crise, dans les secondes qui la précèdent, l’activité des neurones GABAergiques devient irrégulière.

Cette irrégularité au niveau des neurones individuels est par ailleurs corrélée à des anomalies de l’activité électrique totale du cerveau, mesurée au moyen d’un EEG (ou électroencéphalogramme) et qui se manifeste par des modifications quantitatives des oscillations du signal cérébral (on parle « d’anomalies spectrales »). L’irrégularité de l’activité neuronale est ensuite suivie, au début de la crise, par un pic d’activité des neurones GABAergiques.

« Ce résultat est surprenant quand on sait que l’activité des neurones GABAergiques est plutôt diminuée chez les patients. Nous montrons qu’au moment où la crise se déclenche, c’est justement le contraire », souligne Massimo Mantegazza, chercheur à l’Inserm et dernier auteur de l’étude.

Avec ses collègues, le chercheur a ensuite pu étudier des enregistrements EEG de l’activité cérébrale de patients atteints du syndrome de Dravet. Les scientifiques ont retrouvé la même « signature cérébrale » que chez l’animal.

Ce résultat confirme la pertinence de s’appuyer sur cette signature cérébrale en tant qu’outil de prédiction des crises. A partir des données récoltées, l’équipe a d’ailleurs pu mettre au point un algorithme de prédiction des crises. En le testant, les scientifiques ont montré que cet outil était capable de prédire le déclenchement des crises chez la souris dans 70 % des cas.

« Aujourd’hui, il n’existe pas de méthode efficace pour prédire les crises d’épilepsie. Nos travaux sont un premier pas dans la bonne direction et pourraient avoir un réel impact clinique pour les patients atteints du syndrome de Dravet, qui est une forme d’épilepsie génétique avec une cause bien déterminée et un phénotype clair. Prédire la survenue des crises constituerait en effet un progrès, car si l’on sait quand une crise va se déclencher, on pourrait essayer de la ‘bloquer’ en mettant au point des thérapies pertinentes, ou du moins d’affiner la prise en charge des patients », conclut Massimo Mantegazza.

 

[1] Ce travail est le fruit d’une collaboration avec une équipe de l’Institut Imagine, de l’Hôpital Necker-Enfants Malades et de l’Epione Research team, Inria Center of Université Côte d’Azur.

 

Quel rôle joue le contexte socioculturel dans la prise de décision ?

engrenages et humains

© AdobeStock

En cognition humaine, la capacité de prise de décision repose sur une « valeur » que la personne va attribuer de manière subjective à différents choix possibles pour sélectionner celui qui lui paraît le plus « optimal ». Cette évaluation découlerait notamment du contexte situationnel dans lequel la mémoire a « fixé » (ou « encodé ») les expériences de choix antérieurs. Une équipe de recherche de l’Inserm et de l’ENS-PSL, en collaboration avec des équipes internationales, a soumis à des tests de prise de décision des participants de 11 pays très différents culturellement. Elle a ainsi pu mettre en évidence que cette dépendance au contexte pourrait avoir un aspect « universel » entre les cultures. Ses travaux, parus dans Nature Human Behaviour, proposent de nouvelles clés pour comprendre les mécanismes cognitifs derrière la prise de décision.

Lorsque le cerveau mémorise une information, il passe par une étape essentielle qui est appelée « encodage » et qui permet de convertir cette information en une forme susceptible d’être stockée dans la mémoire à long terme. Il existe plusieurs formes d’encodage en fonction des sens qui perçoivent l’information et des mécanismes de mémorisation qui entrent en jeu[1].

Quand une personne se trouve dans une situation où elle doit prendre une décision, elle va faire appel à ses expériences antérieures, stockées dans sa mémoire. Ces expériences se matérialisent par une « valeur » attribuée par le cerveau à chaque choix qui a été fait auparavant (on parle de « valeur subjective », ou de « valeur de la récompense »). De manière générale, l’humain va avoir tendance à considérer qu’un choix a une valeur plus élevée si le résultat de celui-ci tend à maximiser le plaisir et à minimiser la souffrance. Dans le cadre d’une situation de prise de décision, la somme des choix antérieurs et de leur valeur subjective va guider la personne dans l’évaluation du choix le plus « optimal » parmi tous les choix potentiels qui se présentent à elle. Cette forme d’encodage fondé sur l’expérience est appelée « apprentissage par renforcement ».

Lorsqu’un événement est encodé dans la mémoire, il s’accompagne d’informations contextuelles : une personne se remémorera mieux un événement spécifique si elle se trouve dans un contexte similaire (par exemple un lieu). En outre, des études récentes ont suggéré que l’encodage de la valeur attribuée à un choix pourrait être dépendant du contexte situationnel[2] dans lequel se trouverait la personne au moment où elle fait ce choix. Dans certaines situations spécifiques, ce phénomène pousserait même les personnes à faire des choix qui pourraient a priori sembler moins « optimaux » que d’autres. Mais cette dépendance au contexte est-elle universelle à la cognition humaine ou est-elle le produit d’influences culturelles et environnementales spécifiques ?

C’est à cette question qu’une équipe de recherche internationale menée par Stefano Palminteri, directeur de recherche Inserm au sein du Laboratoire de neurosciences cognitives et computationnelles (Inserm/ENS-PSL), a tenté de répondre. Elle a mené une vaste étude avec la participation de centres de recherche de 11 pays présentant de grandes différences de contexte socioculturel et économique[3] (Argentine, Iran, Russie, Japon, Chine, Inde, Israël, Chili, Maroc, France et États-Unis). Ceux-ci ont participé à une approche expérimentale innovante, conçue pour capter de manière fiable les effets du contexte dans l’apprentissage par renforcement.

Ce sont donc au total 623 participants qui ont rempli des questionnaires détaillés sur leur profil socioéconomique, culturel et cognitif et participé à deux tests de prise de décision.

Le premier, un test d’apprentissage par renforcement fondé sur l’expérience, était divisé en deux étapes : une étape d’apprentissage (faire des choix possédant une valeur et une statistique prédéterminées non dévoilées et obtenir une analyse détaillée du résultat de ces choix) et une étape d’application de l’apprentissage (faire des choix sans avoir de retour sur expérience mais en tenant compte de l’analyse des premiers résultats).

Le second, un test de prise de décision, se déroulait dans un contexte similaire au premier mais était cette fois fondé sur la description (faire des choix possédant une valeur et une statistique prédéterminées mais cette fois décrites explicitement). Cette seconde étape présentait un double objectif : évaluer si les comportements de prise de décision étaient similaires d’un pays à l’autre et comparer entre ces pays les différences entre la prise de décision fondée sur l’expérience et celle fondée sur la description.

Les résultats de ces tests mettent en évidence que, quel que soit le pays, le contexte situationnel peut pousser les participants à prendre des décisions à première vue irrationnelles en privilégiant des choix sous-optimaux[4].

« Nos travaux remettent en question l’hypothèse selon laquelle les processus de prise de décision seraient fortement influencés par des facteurs culturels, indique Stefano Palminteri. Ils suggèrent au contraire que les biais contextuels de l’apprentissage par renforcement seraient une caractéristique cognitive constante et commune à une grande partie de l’humanité », ajoute le chercheur.

Hernán Anlló, chercheur Inserm et premier auteur de l’étude, complète : « On a longtemps pensé, notamment en économie, que la prise de décision était en grande partie orientée par une préférence pour un choix plus “rentable”. Nos résultats montrent que ce n’est pas le cas en ce qui concerne l’apprentissage par renforcement. »

En outre, dans le second test, les préférences et décisions fondées sur l’expérience passée apparaissent plus similaires d’une culture à l’autre que celles fondées sur des descriptions ou des instructions.

« Les critères permettant d’évaluer la valeur d’un choix semblent être radicalement différents lorsque l’information est décrite à la personne et lorsque celle-ci doit au contraire apprendre de ses essais et de ses erreurs, précise Hernán Anlló. La prise de décision fondée sur la description apparaît ici plus perméable aux nuances culturelles. »

Les implications de cette étude pourraient couvrir différents secteurs tels que l’économie, la psychologie et l’élaboration des politiques publiques, en ouvrant la voie à des cadres de prise de décision plus efficaces et culturellement sensibles.

« Nos conclusions permettent de mieux comprendre comment des individus de milieux divers naviguent dans des paysages décisionnels complexes, offrant ainsi des perspectives précieuses pour les industries et les décideurs politiques », conclut Stefano Palminteri.

 

[1]L’encodage peut être par exemple visuel, épisodique (association active d’une nouvelle information avec un savoir déjà mémorisé), sémantique (encodage de données sensorielles possédant un sens spécifique ou pouvant être associées à un certain contexte ; permis par exemple par les moyens mnémotechniques), acoustique, ou encore relatif aux autres sens.

[2]Pour illustrer : la valeur subjective attribuée à un café soluble ne sera pas la même selon si la personne est dans un lieu où le très bon café est la norme et facile à trouver ou si elle se situe dans un lieu où le café de qualité est difficile voire impossible à trouver et où la norme est au mauvais café.

[3] En sciences cognitives à l’heure actuelle, 95 % de la recherche provient d’une poignée de pays dits WEIRD (Western, Educated, Industrialized, Rich, Democratic), ce qui génère un réel biais de représentativité et d’inclusivité dans les résultats. Ces travaux visent à sortir de ce biais.

[4] Exemple : en phase d’apprentissage, on présente 2 contextes aux participants, l’un où A = +5 et B = +4 (donc A possède une valeur supérieure à B) et l’autre où C = +3 et D = +1. On prend ensuite un 3e contexte dans lequel on demande aux participants de choisir entre B (+4) et C (+3). Ceux-ci vont choisir C même s’il est sous-optimal (valeur inférieure à B) car ils ont appris avec le 2e contexte que C avait une valeur optimale (par rapport à D), contrairement à B (sous-optimal par rapport à A) dans le 1er contexte.

Un meilleur mode de vie est associé à un moindre risque de maladie d’Alzheimer quelle que soit sa prédisposition génétique

Yoga sport personnes âgéesLes programmes de prévention ciblant les facteurs modifiables liés au mode de vie, comme l’activité physique, pourraient même bénéficier aux personnes qui présentent une prédisposition génétique à la maladie d’Alzheimer © Adobe Stock

Améliorer notre mode de vie peut-il ralentir le développement de la démence et sa principale cause, la maladie d’Alzheimer ? Cette question est au cœur de nombreux travaux de recherche et notamment ceux menés par des scientifiques de l’Inserm et de l’université de Bordeaux au sein du Bordeaux Population Health Research center. Dans une étude récente menée par l’épidémiologiste Jeanne Neuffer, l’équipe de la chercheuse Inserm Cecilia Samieri a montré qu’adopter un mode de vie plus sain peut retarder l’apparition de la démence[1] et ralentir le déclin cognitif, même chez les personnes présentant un risque génétique élevé pour la maladie d’Alzheimer. Les résultats de cette étude ont fait l’objet d’une publication scientifique parue dans la revue Alzheimer’s & Dementia.

La maladie d’Alzheimer est une maladie neurodégénérative qui représente la première cause de démence. Elle se caractérise par un déclin cognitif majeur (troubles de la mémoire, des fonctions exécutives et de l’orientation dans le temps et l’espace…). Plusieurs facteurs génétiques et environnementaux peuvent augmenter le risque de développer la maladie, même si l’âge reste le facteur de risque le plus important.

Il n’existe aujourd’hui aucun traitement curatif à la maladie d’Alzheimer. La maladie évolue de plus sur des dizaines d’années avant que les premiers symptômes n’apparaissent. La recherche se penche donc naturellement vers la prévention, dans l’espoir de limiter les symptômes et/ou ralentir la maladie. Une des pistes les plus étudiées actuellement consiste à s’intéresser à la combinaison de facteurs de risque modifiables, liés au mode de vie. Des travaux pour étudier si un meilleur profil de facteurs de risque modifiables peut être protecteur et retarder le développement de la maladie, et si la relation est modifiée par le risque génétique des individus, ont déjà été publiés aux Etats-Unis, aux Pays-Bas ou en Angleterre, mais elles ont donné des résultats contradictoires.

Cette nouvelle étude de l’Inserm, la première en France, avait donc pour but de s’intéresser à cette question afin d’aller plus loin sur le sujet. Les chercheurs et chercheuses ont suivi 5170 participants de plus de 65 ans de l’étude des 3 cités[2], pour une durée allant jusqu’à 17 ans. Au début du suivi, aucun n’avait un diagnostic de démence.

Au cours du suivi, les scientifiques ont étudié à la fois l’incidence de la maladie (nombre de personnes développant une démence, dont 2/3 environ de la forme Alzheimer), ainsi que l’évolution des performances cognitives des participants (ceux qui sont sur la voie de la maladie développent un déclin cognitif accéléré).

Pour étudier les facteurs de risque modifiables de la démence, les scientifiques ont par ailleurs utilisé et attribué à chaque participant un score de risque appelé LIfestyle for BRAin health score (LIBRA). Le LIBRA comprend un score pondéré de 12 composantes, notamment des facteurs liés au mode de vie (mauvaise alimentation, inactivité physique, faible engagement dans des activités cognitives stimulantes, consommation d’alcool nulle ou élevée et tabagisme), à la santé cardio-métabolique (antécédents de maladie cardiaque, diabète, taux de cholestérol élevé, obésité et hypertension), au dysfonctionnement rénal ou encore à la dépression.

Enfin, pour caractériser le risque génétique de chaque participant, les scientifiques ont utilisé deux critères différents. Le premier était la présence ou non du gène APOE-ε4, qui est le principal facteur de risque génétique de développer la maladie d’Alzheimer. Le deuxième était un score de risque génétique qui regroupe les autres facteurs de susceptibilité génétique de la maladie.

A partir de ces données, les scientifiques ont mené des analyses statistiques pour évaluer si la susceptibilité génétique individuelle influençait la relation entre le score LIBRA et le risque de développer une démence, ainsi que les trajectoires de déclin cognitif.

Leurs résultats montrent que plus une personne a un score LIBRA élevé, en faveur d’un plus grand nombre de facteurs dans le sens défavorable à la santé, plus elle a un risque de développer la maladie, et ce quel que soit ses prédispositions génétiques pour l’Alzheimer.

Cela suggère que des programmes de prévention ciblant les facteurs modifiables liés au mode de vie pourraient bénéficier à tous, même aux personnes qui présentent une prédisposition génétique à la maladie d’Alzheimer.

« Encourager ces personnes à modifier certains de leurs comportements, agir sur des facteurs de risque modifiables, est susceptible d’apporter des bénéfices significatifs pour réduire le vieillissement cognitif et retarder les symptômes de la maladie d’Alzheimer », souligne Cécilia Samieri, directrice de recherche Inserm et dernière auteure de l’étude.

L’équipe souhaiterait désormais s’intéresser aux facteurs de risque génétiques d’un point de vue plus global – ou « pangénomique ». Là où cette étude ne s’est focalisée que sur les gènes associés à la maladie d’Alzheimer, il pourrait être utile de regarder tout le génome. L’hypothèse est qu’il y aurait peut-être des sous-groupes de la population générale pour lesquels les stratégies de prévention seraient plus efficaces, non pas parce qu’elles présenteraient certains variants génétiques liées à Alzheimer mais parce qu’elles seraient porteuses de variants spécifiques à certains facteurs de risque, comme les gènes liés au métabolisme de la nutrition par exemple. Mettre en place une telle étude nécessiterait cependant de s’intéresser à un très grand nombre de participants.

Enfin, pour établir des liens de causalité plus solides, les chercheurs et chercheuses suggèrent qu’il faudrait réaliser une étude d’intervention, c’est-à-dire une étude visant à modifier plusieurs des facteurs du LIBRA chez les personnes âgées, pour voir si cela a un impact sur le développement de la maladie ou ses signes précoces.

[1] La démence est un ensemble de symptômes parmi lesquels on observe une dégradation de la mémoire, du raisonnement, du comportement et de l’aptitude à se repérer dans l’espace… La démence résulte de diverses maladies et lésions qui affectent le cerveau. La maladie d’Alzheimer est la cause la plus courante de démence et serait à l’origine de 60 à 70 % des cas.

[2] Promue par l’Université de Bordeaux, l’étude 3C est une étude dite « de cohorte ». Le principe de ce type d’étude est de de suivre des personnes qui sont en bonne santé, ou du moins qui ne souffrent pas de la maladie que l’on veut étudier, ici la maladie d’Alzheimer, pendant plusieurs années. Pour l’étude 3C, 9 294 personnes âgées de 65 ans ou plus ont été recrutées dans 3 villes : Bordeaux, Dijon et Montpellier (d’où le nom Trois Cités), par tirage au sort sur les listes électorales. 

Un meilleur pronostic de retour à la conscience des patients placés en réanimation

© Nicolas Decat

Lorsqu’un patient est admis en réanimation à cause d’un trouble de la conscience — un coma par exemple — établir son pronostic neurologique est une étape cruciale et souvent difficile. Pour réduire l’incertitude qui prélude à la décision médicale, un groupe de cliniciennes-chercheuses et de cliniciens-chercheurs de l’Institut du Cerveau et de l’Hôpital Pitié-Salpêtrière, mené par Lionel Naccache (Sorbonne Université / AP-HP), Jacobo Sitt (Inserm) et Benjamin Rohaut (Sorbonne Université / AP-HP), a évalué l’intérêt d’une approche dite multimodale, qui combine de nombreux indicateurs cliniques, électrophysiologiques, comportementaux, et de neuroimagerie. Leurs résultats, publiés dans la revue Nature Medicine, montrent que cette approche permet de réaliser de meilleurs pronostics.

Après un traumatisme crânien sévère ou un arrêt cardiaque, certains patients et patientes admis en réanimation montrent peu ou pas de réactions à leur environnement et se trouvent parfois incapables de communiquer. C’est ce que l’on appelle un trouble de la conscience (ou DoC, pour Disorder of consciousness) qui regroupe les comas, les états dits végétatifs, ou encore les états qualifiés de « conscience minimale ».

Ce trouble persiste parfois pendant plusieurs jours ou semaines. Il est alors essentiel, pour les équipes soignantes comme pour les proches, d’obtenir des réponses les plus précises possibles sur les capacités de récupération cognitive du patient. Habituellement, un pronostic neurologique est établi à partir de plusieurs indicateurs, dont l’examen des mesures standards de l’anatomie du cerveau (scanner et IRM) et de son fonctionnement (électroencéphalogramme).

« Même avec ces informations en main, il demeure souvent une part d’incertitude dans le pronostic, qui peut impacter les prises de décision médicales. Or, ces patientes et patients sont souvent très fragiles et exposés à de nombreuses complications, ce qui pose à chaque fois la question de l’intensité des soins », explique Benjamin Rohaut (Sorbonne Université / AP-HP), neurologue-réanimateur, chercheur et premier auteur de l’étude.

Par ailleurs, les médecins observent parfois une dissociation entre le comportement de la patiente ou du patient et son activité cérébrale : certains patients et patientes en état végétatif semblent comprendre ce qu’on leur dit, mais sont incapables de le faire savoir aux soignants.

Pour enrichir la description de l’état de conscience de ces patients, l’équipe « PICNIC » co-dirigée par Lionel Naccache à l’Institut du Cerveau, travaille depuis une quinzaine d’années à définir de nouvelles mesures cérébrales et de nouveaux signes d’examen clinique. Progressivement, leur approche a évolué vers la « multi-modalité », c’est-à-dire la combinaison entre le PET scan, des algorithmes d’analyse multivariés de l’EEG, l’IRM fonctionnelle, les potentiels évoqués cognitifs (des réponses électriques à des stimulations sensorielles), et d’autres outils.

Les marqueurs de la conscience passés au crible

Pour évaluer l’intérêt clinique de cette approche, l’équipe a travaillé avec le service de Médecine intensive et réanimation à orientation neurologique de l’Hôpital Pitié-Salpêtrière, à Paris. Menés par Benjamin Rohaut et Charlotte Calligaris (AP-HP) les cliniciennes-chercheuses et cliniciens-chercheurs ont suivi et évalué 349 patientes et patients de réanimation entre 2009 et 2021. À l’issue de chaque évaluation multimodale, ils ont formulé un avis pronostique « bon », « incertain » ou « défavorable ».

Leurs résultats indiquent que les patientes et patients avec un « bon pronostic » (22 % des cas) ont présenté une évolution de leurs capacités cognitives bien plus favorable que les patientes et patients avec un pronostic jugé « incertain » (45,5 % des cas) ou « défavorable » (32,5 % des cas). En particulier, aucun des patientes et patients évalués « défavorables » n’avait retrouvé la conscience après un an. Surtout, cette performance pronostique était corrélée au nombre de modalités utilisées : plus le nombre d’indicateurs utilisés augmentait, plus la précision du pronostic augmentait, et plus la confiance de l’équipe en ses propres évaluations augmentait également.

« Cette étude au long court montre pour la première fois le bénéfice de l’approche multimodale, ce qui constitue une information essentielle pour les services de réanimation du monde entier. Elle permet aussi de valider empiriquement les recommandations récentes des académies européenne et américaine de neurologie », détaille Jacobo Sitt, qui a co-supervisé ce travail avec Lionel Naccache.

Vers une approche neuropronostique standardisée

L’approche multimodale ne constitue pas, toutefois, une baguette magique. Elle permet de fournir la meilleure information possible aux soignants et aux familles dans ces situations imprégnées d’incertitude — ce qui constitue un progrès éthique dans la prise en charge des malades — mais ne garantit pas une prise de décision exempte de biais.

Enfin, se pose la question de l’accès aux outils d’évaluation, qui sont coûteux et nécessitent des expertises spécifiques.

« Nous sommes conscients que l’évaluation multimodale n’est pas accessible à l’ensemble des services de réanimation qui accueillent ces patientes et patients, poursuit Lionel Naccache. Nous proposons ainsi de construire un maillage de collaborations au niveau national et européen. Grâce à l’utilisation d’outils de télémédecine et d’analyse automatisée de l’EEG ou de l’imagerie cérébrale, tous les services de réanimation pourraient disposer d’un premier niveau d’accès à l’évaluation multimodale. Si elle s’avérait insuffisante, un recours à un centre régional expert apporterait une évaluation plus poussée. Enfin, dans les situations les plus complexes, il serait possible de solliciter tous les experts disponibles, où qu’ils soient. Notre objectif est, à terme, que tous les patients et patientes présentant un trouble de la conscience puissent bénéficier des meilleurs standards de pronostic neurologique.»

Cette étude a été financée grâce à la James S. McDonnell Foundation, la Fondation pour la Recherche Médicale (FRM), l’UNIM, le prix Lamonica de l’Académie des Sciences, l’European Partnership for Personalised Medicine (PerMed) et le programme Investissements d’avenir.

Jacobo Sitt et Lionel Naccache sont co-fondateurs et actionnaires de la société Neurometers, dédiée à l’utilisation médicale de l’électroencéphalogramme (EEG) pour quantifier les signatures cérébrales de la conscience et de la cognition.

Des champignons hallucinogènes pour traiter l’addiction à l’alcool

bouteilles d'alcoolUne étude inédit ouvre de nouvelles perspectives thérapeutiques pour le traitement de l’addiction à l’alcool avec de la psilocybine, le composé actif des champignons hallucinogènes © Fotalia

Une étude inédite, menée par le Professeur Mickael Naassila et son équipe du Groupe de Recherches sur l’Alcool et les Pharmacodépendances (GRAP, laboratoire UPJV/INSERM 1247), ouvre de nouvelles perspectives thérapeutiques pour le traitement de l’addiction à l’alcool avec de la psilocybine, le composé actif des champignons hallucinogènes. Publiés dans la revue scientifique Brain, leurs travaux confirment le potentiel de la psilocybine à combattre l’addiction à l’alcool, tout en levant le voile sur les mécanismes d’action de cette molécule, jusqu’alors inconnus. Une percée scientifique très prometteuse pour enrayer le fléau de l’addiction à l’alcool à l’aide de psychédéliques.

 

La psilocybine réduit l’auto-administration d’alcool par l’activation sélective du noyau accumbens gauche

Les résultats de l’étude conduite par les scientifiques de l’Inserm et de l’UPJV montrent que l’administration de psilocybine dans des modèles murins d’addiction à l’alcool réduit de moitié leur consommation d’alcool. Ces données confirment l’intérêt d’étudier cette molécule dans le traitement de l’alcoolo-dépendance.

Pour expliquer ces effets et mieux comprendre les mécanismes sous-jacents, les chercheurs ont mesuré, dans le cerveau au niveau du noyau accumbens, l’expression de certains gènes connus pour être impliqués dans l’addiction à l’alcool. Le noyau accumbens joue un rôle central dans l’addiction notamment en relayant les effets plaisants des drogues et la motivation à les consommer.

Les résultats révèlent de manière surprenante une latéralisation cérébrale dans les effets de la psilocybine, avec une modification de l’expression de certains gènes, soit à la hausse, soit à la baisse et qui est différente en fonction du côté gauche ou du côté droit du cerveau.

Ces premiers résultats ont donc poussé les chercheurs à explorer le rôle spécifique du noyau accumbens gauche ou droit en injectant directement la psilocybine soit dans le noyau accumbens gauche, soit dans le droit.

La psilocybine injectée chez des rats non consommateurs d’alcool induit des changements particuliers dans le cerveau, notamment une diminution de l’expression des récepteurs 5HT-2A de la sérotonine uniquement dans le noyau accumbens gauche. De manière inattendue, l’augmentation de l’expression du gène BDNF, associé à la plasticité cérébrale, a lui été observée uniquement dans le noyau accumbens droit.

Lorsque la psilocybine est injectée directement dans le noyau accumbens gauche, elle réduit de moitié la consommation d’alcool mais elle n’a pas d’effet lorsque qu’elle est injectée dans le noyau accumbens droit.

 

Une meilleure compréhension du mécanisme impliqué dans les effets bénéfiques de la psilocybine sur la consommation d’alcool

L’étude de l’équipe du Pr Naassila est ensuite allée encore plus loin pour décrypter le mécanisme biologique de la psilocybine. On sait que les effets hallucinogènes de la psilocybine sont liés à son action sur les récepteurs 5-HT2A de la sérotonine. Dans ce travail, les chercheurs ont montré que ces récepteurs étaient surexprimés après traitement par la psilocybine. Ensuite, pour vraiment démontrer que les effets de la psilocybine sur la consommation d’alcool sont liés à un effet spécifique sur les récepteurs 5-HT2A de la sérotonine -, ils ont testé l’effet d’un blocage de ces récepteurs.

Et effectivement, l’infusion de la kétansérine, un bloqueur des récepteurs 5HT-2A, directement dans le noyau accumbens gauche empêche la psilocybine de réduire la consommation d’alcool. Ce blocage dans le noyau accumbens droit n’est quant à lui pas efficace.

L’étude met aussi en lumière un autre mécanisme potentiel bien connu dans l’addiction. L’administration de psilocybine augmente l’expression des récepteurs D2 de la dopamine dans le noyau accumbens chez les rats consommateurs d’alcool. Comme on sait déjà que dans l’addiction à l’alcool, on observe chez l’animal et chez l’humain une diminution de l’expression des récepteurs D2, ces résultats pourraient aussi expliquer comment la psilocybine contrecarre les mécanismes de l’addiction, en restaurant l’expression de ces récepteurs.

Cette découverte inédite sur la latéralisation des effets des psychédéliques dans le traitement de l’addiction à l’alcool ouvre de nouvelles voies de recherche. Prochaines étapes : réaliser une cartographie plus précise de cette latéralisation et vérifier si cela se généralise aux autres psychédéliques (LSD, DMT…).

Selon le Pr Mickael Naassila : « Ces résultats sont très originaux car ils démontrent que la psilocybine agit différemment sur l’expression des gènes en fonction de l’hémisphère cérébral. Et que dans le cerveau, c’est particulièrement le noyau accumbens, mais celui situé dans l’hémisphère gauche, qui semble impliqué dans les effets de réduction de la consommation d’alcool ».

Régularité du cycle menstruel : une horloge biologique modulée par la lune ?

Cycle menstruel© AdobeStock

De par leur rythme cyclique et de durées similaires, un lien entre cycle menstruel et cycle lunaire a souvent été supposé, sans que la science ne soit jusqu’à présent parvenue à fournir de preuves solides. Afin de mieux comprendre l’origine de la régularité rythmique du cycle menstruel, une équipe de recherche internationale associant l’Inserm, le CNRS et l’Université Claude Bernard Lyon 1, a comparé un grand nombre de données de cycles, récoltées dans des études européennes et nord-américaines. Ses résultats montrent que le cycle menstruel serait finement régulé par une horloge interne, elle-même influencée de manière occasionnelle par le cycle lunaire. Ces travaux à paraître dans Science Advances plaident pour l’intérêt d’étudier davantage ce lien potentiel sur des jeux de données de plus grande ampleur, afin d’identifier un éventuel intérêt de la chronobiologie dans le traitement des troubles de la fertilité.

Un cycle ovulatoire classique, ou cycle menstruel, chez l’humain dure en moyenne 29,3 jours, avec des variations de durée d’une personne menstruée à une autre et d’un cycle à l’autre chez une même personne. Il commence au premier jour des menstruations et est constitué de trois phases, chacune dédiée à la réalisation d’un processus spécifique en lien avec l’ovulation qui survient autour du 14e jour de cycle.

Certains travaux ont suggéré que chacune de ces trois phases pourraient se dérouler sous l’influence d’une horloge interne dont la perturbation du rythme serait associée à des irrégularités dans le cycle menstruel.

Chez l’humain, l’horloge interne la plus connue est l’horloge circadienne, très proche de 24h, qui maintient le cycle veille-sommeil et l’ensemble des rythmes physiologiques. Elle est en phase avec le cycle jour-nuit sous l’influence de la lumière. Lorsque l’horloge circadienne est perturbée – comme dans le cas du jet-lag par exemple -, elle met quelques jours à se recaler sur son rythme habituel en se resynchronisant au nouveau cycle jour-nuit.

Dans le cas des cycles menstruels, l’implication d’une horloge interne pourrait se manifester de façon similaire : la durée du cycle serait habituellement hautement stable chez une même personne et, en cas de perturbation, des mécanismes d’adaptation par synchronisation avec des conditions externes entreraient en jeu pour rétablir le rythme optimal.

Alors quel pourrait être ce « synchroniseur externe » ? Une théorie récurrente suggère que le cycle lunaire pourrait jouer ce rôle, mais les preuves scientifiques manquent à ce jour.

Une équipe de recherche internationale menée par Claude Gronfier, chercheur Inserm au sein du Centre de recherche en Neurosciences de Lyon (Inserm/CNRS/Université Claude Bernard Lyon 1), s’est intéressée à l’existence potentielle d’une horloge biologique interne qui régulerait le cycle menstruel et qui pourrait être synchronisée avec le cycle lunaire. Grâce à une grande base de données de cycles menstruels collectés dans le cadre d’études européennes et nord-américaines, elle a pu comparer au total près de 27 000 cycles menstruels chez 2 303 européennes et près de 4 800 cycles chez 721 nord-américaines.

Dans un premier temps les chercheuses et chercheurs ont examiné la stabilité d’un cycle menstruel à l’autre au niveau individuel, en comparant la durée de cycles successifs. Ils ont ainsi observé une stabilité globale de la durée moyenne du cycle de chaque participante, alors même que sur un ensemble de cycles successifs, certains duraient en fait plus ou moins longtemps que son cycle « standard ».

« Ces observations suggèrent l’existence d’un mécanisme qui corrigerait la différence entre la durée du cycle en cours et celle d’un cycle menstruel typique chez la personne concernée, explique René Écochard, premier auteur de l’étude, médecin aux Hospices Civils de Lyon et professeur à l’Université Claude Bernard Lyon 1. « Quelques cycles plus courts pourraient ainsi compenser une série de quelques cycles plus longs de manière à ce que la longueur totale du cycle oscille autour de la durée habituelle du cycle menstruel. La durée d’un cycle pourrait donc dépendre de la durée des cycles précédents ».

« L’observation de ce phénomène plaide en faveur de l’existence d’une horloge interne régulant finement les cycles menstruels, elle-même synchronisée par un événement cyclique environnemental », ajoute Claude Gronfier.

Dans un second temps l’équipe de recherche s’est intéressée aux relations potentielles entre la survenue des menstruations dans les cycles étudiés et les phases de la lune à l’époque de la collecte des données.

Elle a ainsi pu observer une association, occasionnelle mais significative, entre le cycle menstruel et le cycle lunaire, avec cependant – et sans que ces travaux ne permettent de statuer sur la cause -, une différence majeure entre les cohortes européennes et la cohorte nord-américaine : chez les européennes, le cycle commençait le plus souvent lors de la phase croissante de la lune tandis qu’il commençait plus souvent à la pleine lune dans la cohorte d’Amérique du Nord.

« Malgré cette différence étonnante que nous ne parvenons pas à expliquer pour le moment, les liens identifiés dans ces travaux entre les cycles lunaires et menstruels, de par leur proximité avec certains phénomènes que nous observons en chronobiologie, suggèrent que la périodicité des menstruations et de l’ovulation pourraient être influencées, de manière modeste mais significative, par le cycle lunaire », précise Claude Gronfier.

Ces résultats plaident donc en faveur d’un système d’horloge interne avec un rythme quasi-mensuel, faiblement synchronisé par le cycle lunaire. Ils demandent cependant à être approfondis et confirmés par des études en laboratoire et des études épidémiologiques plus vastes.

« Grâce aux applications d’enregistrement des cycles pour smartphone, l’émergence de larges bases de données contenant les informations de cycles de plusieurs centaines de milliers de femmes pourrait fournir de nouvelles opportunités d’études », indique René Écochard.

« Confirmer l’existence d’une horloge interne coordonnant le cycle menstruel, ainsi que les mécanismes impliqués dans sa synchronisation, pourrait permettre d’appliquer des approches de médecine dite « circadienne », personnalisée – déjà utilisée en cancérologie et pour le traitement des troubles du sommeil ou de la dépression, par exemple –  à des problématiques comme les troubles de l’ovulation et de la fertilité », conclut Claude Gronfier.

Maladie de Charcot : une nouvelle piste pour améliorer le diagnostic et le suivi des patients

Neurones noradrénergiques présents dans le locus coeruleus de sourisNeurones noradrénergiques présents dans le locus coeruleus de souris et dont le dysfonctionnement contribue à l’hyperexcitabilité corticale dans la SLA. © Caroline Rouaux

La sclérose latérale amyotrophique ou maladie de Charcot est une maladie neurodégénérative qui entraîne une paralysie progressive puis le décès du patient. Le diagnostic est difficile à poser et aucun traitement curatif n’existe à ce jour; autant de défis pour la recherche. Dans une nouvelle étude, la chercheuse Inserm Caroline Rouaux et son équipe au Centre de recherche en biomédecine de Strasbourg (Inserm-Université de Strasbourg), en collaboration avec des chercheurs et chercheuses de l’Université Ludwig Maximilian à Munich, du CNRS et de Sorbonne Université, montrent que l’électroencéphalographie pourrait devenir un outil diagnostic et pronostic de la maladie. Grâce à cet examen, les scientifiques ont pu mettre en évidence un profil d’ondes cérébrales atypique qui pourrait s’avérer spécifique de la maladie. Ces travaux parus dans Science Translational Medicine, ont en outre permis de découvrir une possible cible thérapeutique. Ces avancées fondamentales pourraient à terme bénéficier aux patients.

La sclérose latérale amyotrophique ou maladie de Charcot demeure un véritable défi pour les cliniciens. Cette maladie neurodégénérative qui se déclare le plus souvent entre les âges de 50 à 70 ans conduit à une paralysie progressive et au décès des patients en seulement deux à cinq ans. Elle est due à la mort des motoneurones, les cellules nerveuses qui contrôlent les muscles, à la fois dans le cerveau (motoneurones centraux) et dans la moelle épinière (motoneurones périphériques).

Le diagnostic de la SLA est difficile à poser. En effet, les manifestations de la SLA sont hétérogènes au début de la maladie : faiblesses ou crampes au niveau d’un bras, d’une jambe, difficultés de déglutition ou d’articulation… Par ailleurs, il n’existe pas de biomarqueur spécifique de la maladie. Ainsi, le diagnostic résulte de l’élimination d’autres pathologies pouvant entraîner des troubles moteurs, ce qui prend généralement un à deux ans après le début des symptômes, retarde d’autant la mise en place de mesures thérapeutiques et réduit les chances d’inclusion dans des essais cliniques à un stade précoce.

C’est avec l’objectif de raccourcir ce délai que l’équipe de Caroline Rouaux au Centre de recherche en biomédecine de Strasbourg, en collaboration avec les équipes de Sabine Liebscher à Munich et Véronique Marchand-Pauvert, chercheuse Inserm à Paris, a testé le recours à l’électroencéphalographie1. Cette technique peu coûteuse et facile d’utilisation consiste à placer des électrodes à la surface du crâne pour enregistrer l’activité cérébrale sous forme d’ondes.

L’examen effectué chez des sujets atteints de SLA et dans des modèles animaux correspondants a révélé un déséquilibre entre deux types d’ondes respectivement associées à l’activité des neurones excitateurs et inhibiteurs. Ce déséquilibre, en faveur d’une plus grande activité des neurones excitateurs au détriment des neurones inhibiteurs, traduit une hyperexcitabilité corticale.

« Ce phénomène n’est pas une surprise et avait déjà été décrit avec d’autres méthodes d’investigation, mais celles-ci sont très peu utilisées car elles sont difficiles à mettre en œuvre et ne fonctionnent qu’en tout début de maladie. L’électroencéphalographie, au contraire, est très peu invasive, très peu couteuse, et peut s’utiliser à différents moments de la maladie. En outre, le profil d’ondes cérébrales atypique révélé par électroencéphalographie pourrait s’avérer spécifique de la maladie », explique Caroline Rouaux, chercheuse Inserm et dernière autrice de l’étude.

En effet, l’analyse de l’enregistrement de l’activité électrique du cerveau par électroencéphalographie permet de mettre en évidence divers types d’ondes cérébrales d’amplitudes et de fréquences différentes. L’une de ces ondes appelée « thêta » reflète l’activité des neurones excitateurs qui transmettent des messages stimulant les neurones, tandis qu’une autre onde appelée « gamma », reflète celle des neurones inhibiteurs qui bloquent la transmission des messages nerveux. L’étude révèle que chez les humains et animaux atteints de SLA, l’interaction entre ces deux types d’ondes est atypique, révélant un déséquilibre entre les activités excitatrices et inhibitrices. Non seulement ce déséquilibre a été retrouvé chez tous les sujets testés, mais les scientifiques ont aussi montré que plus les symptômes de la maladie progressent, plus ce déséquilibre est important. En outre, ce profil d’ondes atypique a été détecté chez l’animal avant même l’apparition des premiers symptômes moteurs.

Si ces premiers résultats se confirmaient, l’électroencéphalographie pourrait dans le futur servir d’outil pronostic pour les patients déjà diagnostiqués afin d’évaluer par exemple la réponse à un traitement médicamenteux, voire même d’outil diagnostic en cas de symptomatologie évocatrice de la maladie.

Dans une seconde partie de ce travail, les chercheurs ont pu étudier chez les patients et les souris les mécanismes à l’origine de l’hyperexcitabilité observée. Tout d’abord, ils ont mesuré les taux des différents neuromodulateurs produits par les neurones pour communiquer entre eux, et ont constaté un déficit en l’un d’entre eux : la noradrénaline était présente en plus faible quantité dans les cerveaux des patients et souris atteints de SLA et par rapport à des cerveaux sains.

Pour vérifier le rôle de la noradrénaline, ils ont bloqué la production de ce neuromodulateur chez des animaux sains, et ont montré que cela provoque une hyperexcitabilité corticale, comme celle observée dans la maladie. Et à l’inverse, en administrant des molécules stimulant l’action de la noradrénaline dans un modèle de souris atteintes de SLA, les scientifiques ont réduit l’hyperexcitabilité et restauré une activité cérébrale équivalente à celle de souris saines.

« Cette découverte pourrait marquer l’ouverture d’une nouvelle piste thérapeutique dans la SLA sous réserve que l’hyperexcitabilité corticale soit bien associée à la progression de la maladie. En effet, à ce jour, nous observons dans notre étude une association entre les deux mais aucun lien de cause à effet n’est encore établi. C’est ce que nous allons vérifier dans les prochains mois. », conclut Caroline Rouaux.

 

1 L’électroencéphalographie est couramment utilisée à des fins de recherche en neurologie mais aussi en pratique clinique. L’examen renseigne sur l’activité cérébrale en cas de troubles du sommeil, après un accident vasculaire cérébral, ou encore en cas de coma. Il permet également de diagnostiquer une encéphalite, une épilepsie ou encore de confirmer une mort cérébrale.

Bien-être physique et mental des personnes âgées : un impact positif de la méditation et de l’éducation à la santé

Méditation_personnes âgéesL’apprentissage de la méditation de pleine conscience améliorerait la compassion envers soi-même, tandis que l’éducation à la santé favoriserait une pratique accrue d’activité physique. © AdobeStock

Une équipe de l’Inserm et de l’Université de Caen Normandie, en collaboration avec des chercheuses et chercheurs de l’Université de Jena (Allemagne) et du University College London (Royaume Uni), a étudié les bénéfices potentiels d’interventions de méditation et d’éducation à la santé chez des personnes ressentant un déclin de leur mémoire. Ces travaux sont réalisés dans le cadre du programme européen H2020 Silver Santé Study coordonné par l’Inserm[1]. Ils montrent que l’apprentissage de la méditation de pleine conscience améliorerait la compassion envers soi-même, tandis que l’éducation à la santé favoriserait une pratique accrue d’activité physique. Ces résultats, publiés dans Alzheimer’s & Dementia: Diagnosis, Assessment & Disease Monitoring, proposent de nouvelles pistes pour accompagner un vieillissement en meilleure santé.

Le « déclin cognitif subjectif », c’est lorsque la personne rapporte ressentir une dégradation de ses facultés cognitives sans que cela ne soit apparent lors des tests cognitifs standards. Les études ont montré que ces personnes présentaient un risque plus élevé de développer un déclin cognitif réel.

De précédents travaux ont conclu que la méditation de pleine conscience et l’éducation à la santé (une pratique qui consiste à mettre en œuvre pour soi-même des mesures de prévention et de soins bénéfiques à son état de santé) présenteraient un impact positif, toujours présent à six mois, sur l’anxiété chez les personnes déclarant un déclin cognitif subjectif.

De manière plus globale, la compassion envers soi (sentiment de bienveillance à l’égard de soi-même, sentiment d’humanité commune et sentiment de bienveillance à l’égard des pensées négatives) ainsi que l’activité physique ont précédemment été associées à une meilleure santé mentale, elle-même associée à une amélioration de l’état de santé général, du bien-être et de la qualité de vie.

Un groupe de recherche européen coordonné par Julie Gonneaud, chercheuse Inserm au sein du laboratoire Physiopathologie et imagerie des maladies neurologiques (Inserm/Université de Caen Normandie), Olga Klimecki, chercheuse à l’Université de Jena (Allemagne), et Nathalie Marchant, chercheuse au University College London (Royaume-Uni), a étudié l’impact de huit semaines de cours de méditation de pleine conscience et d’éducation à la santé sur la compassion envers soi-même et sur la pratique de l’activité physique chez des personnes déclarant un déclin cognitif subjectif.

L’essai a inclus 147 patients de cliniques spécialisées dans les troubles de la mémoire en France, en Espagne, en Allemagne et au Royaume-Uni. Un groupe a suivi pendant huit semaines les cours de méditation, pendant que l’autre suivait les cours d’éducation à la santé. L’impact des interventions a été évalué par des tests sanguins, des évaluations cognitives ainsi que des questionnaires.

Les chercheuses et chercheurs ont observé que les participants ayant suivi la formation à la méditation de pleine conscience montraient une amélioration de leur compassion envers soi. Les participants ayant suivi la formation d’éducation à la santé montraient, eux, une augmentation de leur activité physique. Ces changements étaient toujours présents six mois plus tard.

Ces résultats plaident en faveur d’effets complémentaires de la pratique de la méditation de pleine conscience et de la participation à des programmes d’éducation à la santé sur certains facteurs contribuant à l’amélioration du bien-être mental et des habitudes de vie chez les personnes âgées déclarant un déclin cognitif subjectif. Le fait que ces améliorations semblent se maintenir après six mois de suivi suggère que ces nouvelles compétences et habitudes ont été intégrées dans la vie des participants.

Selon Natalie Marchant, qui a dirigé l’essai, « de plus en plus de personnes vivent jusqu’à un âge avancé, et il est crucial que nous trouvions des moyens de soutenir la santé mentale et physique des personnes qui vieillissent ».

« La compassion envers soi peut être d’une grande importance pour les personnes âgées. Elle pourrait améliorer le bien-être psychologique afin de promouvoir un vieillissement en bonne santé », ajoute Olga Klimecki. « Nos résultats constituent un premier pas encourageant vers la mise en place d’une intervention fondée sur la pleine conscience, qui pourrait être utilisée pour renforcer la compassion envers soi chez les personnes âgées. »

Julie Gonneaud complète : « Bien que l’activité physique ait été scientifiquement associée à une meilleure santé physique, cognitive et mentale, la manière de la promouvoir dans la vie quotidienne reste un défi. Compte tenu de l’effet particulièrement délétère de la sédentarité sur la santé des populations vieillissantes, le fait de montrer que les programmes d’intervention en éducation à la santé peuvent renforcer l’engagement dans l’activité physique chez les personnes âgées est particulièrement prometteur pour la promotion d’un vieillissement en bonne santé », conclut-elle.

 

[1] Ces travaux sont financés par l’Union européenne et font partie de l’étude SCD-Well du programme H2020 Silver Santé (www.silversantestudy.eu), doté de 7 millions d’euros et coordonné par l’Inserm. L’étude Silver Santé, financée sur cinq ans, examine si les techniques d’entraînement mental, telles que la méditation de pleine conscience, l’éducation à la santé ou l’apprentissage d’une langue, peuvent contribuer à améliorer la santé mentale et le bien-être de la population vieillissante.

Le cerveau au rythme du groove ou pourquoi la musique nous donne-t-elle envie de danser ?

Groove- envie de danser© AdobeStock

Pourquoi certaines musiques nous donnent-elles plus envie de danser que d’autres ? C’est à cette question qu’une équipe de recherche de l’Inserm et d’Aix-Marseille Université a tenté de répondre en étudiant l’envie de danser (aussi appelée « groove ») et l’activité cérébrale de 30 participants écoutant de la musique. Les résultats montrent que la sensation de groove est maximale pour un rythme moyennement complexe et que l’envie de bouger se traduit au niveau cérébral par une anticipation du tempo de la musique. Ces travaux à paraître dans la revue Science Advances désignent également le cortex sensori-moteur gauche[1] comme le centre de coordination entre les systèmes auditif et moteur.

Qui dit danse dit action. Mais pour danser au son d’une mélodie, encore faut-il coordonner ses actions au rythme de la musique. De précédentes études ont déjà montré que le système moteur (constitué du cortex moteur[2] et de l’ensemble des structures cérébrales et des voies nerveuses qui, sous son contrôle, participent à l’exécution du mouvement) est crucial dans le traitement cérébral des rythmes musicaux.

Le « groove », c’est l’envie spontanée de danser en musique. Mais si certaines musiques nous entraînent furieusement sur la piste de danse, d’autres nous laissent impassibles. Alors, qu’est-ce qui fait que certaines musiques sont plus « groovy » que d’autres ?

Une équipe de recherche dirigée par Benjamin Morillon, chercheur Inserm au sein de l’Institut de neurosciences des systèmes (Inserm/Aix-Marseille Université), s’est intéressée aux dynamiques neurales (c’est-à-dire aux interactions entre les neurones résultant de l’activité électrique du cerveau) de 30 participants lors de l’écoute de musiques dont le rythme était plus ou moins complexe. Ceci dans le but de déterminer les mécanismes cérébraux impliqués dans l’émergence de la sensation de groove.

Pour ce faire, l’équipe a tout d’abord créé 12 mélodies courtes composées d’un rythme de 120 battements par minute – soit 2 Hz, rythme moyen retrouvé dans la musique en général. Chaque mélodie a ensuite été modifiée afin d’obtenir trois variantes avec un degré croissant de syncope[3] (faible, moyen, fort) – c’est-à-dire avec un rythme de plus en plus complexe, mais sans modifier ni la vitesse du rythme ni les autres caractéristiques musicales de la mélodie.

Les chercheurs ont ensuite demandé aux participants d’écouter ces mélodies pendant qu’ils enregistraient en temps réel leur activité cérébrale à l’aide d’un appareil de magnéto-encéphalographie (MEG). À la fin de chacune d’elle, la consigne était de noter le niveau de groove ressenti.

Ils ont également créé un modèle mathématique de réseau neuronal dit « neurodynamique » permettant de décrire de manière simple les calculs nécessaires à l’émergence du groove réalisés par le cerveau.

L’expérience du groove telle que rapportée par les participants – et reproduite par le modèle neurodynamique – apparaissait corrélée au taux de syncope. Comme déjà observé dans de précédentes études, l’envie de bouger en musique était maximale pour un rythme présentant un taux intermédiaire de syncope, c’est-à-dire n’étant ni trop simple, ni trop complexe.

« Ces résultats montrent que l’engagement moteur lié au groove se matérialise par une anticipation temporelle du tempo. Celle-ci repose au niveau cérébral sur un équilibre dynamique entre la prévisibilité temporelle du rythme (moins le rythme est complexe, meilleure elle est) et les erreurs de prédiction temporelle de l’auditeur (plus le rythme est complexe, plus elles sont nombreuses) », précise Arnaud Zalta, premier auteur de l’étude et post-doctorant à l’ENS-PSL.

L’analyse de l’activité cérébrale des participants a ensuite permis aux chercheurs de mettre en évidence le rôle du cortex sensorimoteur gauche comme coordonnateur des dynamiques neurales impliquées dans la prédiction temporelle auditive d’une part et dans la planification et l’exécution du mouvement d’autre part.

« L’aire cérébrale où se situe le cortex sensorimoteur gauche est actuellement considérée comme la potentielle clé de voûte de l’intégration sensorimotrice, essentielle à la fois pour la perception de la musique et de la parole. Le fait qu’il apparaîsse dans notre étude comme nécessaire à la “coopération” entre les systèmes auditif et moteur vient renforcer cette hypothèse, d’autant plus que nous utilisons ici des stimuli naturels », conclut Benjamin Morillon.

 

[1]Dans le cerveau, le cortex sensorimoteur regroupe le cortex moteur et le cortex sensoriel (gyrus postcentral, à l’avant du lobe pariétal), séparés par le sillon central. Il est impliqué dans la coordination des mouvements : il reçoit les informations sensorielles provenant des différentes parties du corps et les intègre pour ajuster et affiner les mouvements générés par le cortex moteur.

[2]Le cortex moteur regroupe les aires du cortex cérébral qui participent à la planification, au contrôle et à l’exécution des mouvements musculaires volontaires. Il est situé dans la partie postérieure du lobe frontal du cerveau, au niveau du gyrus précentral.

[3]En solfège rythmique, si on considère une mesure à 4 temps, les temps 1 et 3 sont appelés « temps forts » et les temps 2 et 4 sont appelés « temps faibles ». La syncope correspond à un rythme dans lequel une note (voire un accord) est attaquée sur un temps faible et prolongée sur le temps fort suivant. Pour l’auditeur, cela crée un déplacement de l’accent attendu, perçu comme une sorte de « hoquet » musical qui perturbe la régularité du rythme. Ces motifs musicaux sont notamment très présents dans la musique funk ou le jazz.

Privilégier la lumière naturelle pour éviter les troubles du sommeil liés à l’âge

© Adobe stock

Un adulte français sur trois serait concerné par un trouble du sommeil. La prévalence de ces troubles augmente avec le vieillissement mais les mécanismes biologiques à l’œuvre sont assez méconnus, laissant planer le doute sur leur origine. Dans une nouvelle étude, Claude Gronfier, chercheur Inserm, et son équipe au Centre de recherche en neurosciences de Lyon (Inserm/CNRS/Université Claude-Bernard Lyon 1) ont émis l’hypothèse que leur apparition lors du vieillissement était liée à une désynchronisation de l’horloge biologique due à une baisse de perception de la lumière. Durant leurs travaux, ils ont identifié un nouveau mécanisme adaptatif de la rétine au cours du vieillissement qui permet aux individus plus âgés[1] de rester sensibles à la lumière. Ces résultats présentent par ailleurs un intérêt clinique en incitant les personnes plus âgées à s’exposer davantage à la lumière du jour, plutôt qu’à la lumière artificielle, afin d’éviter de développer des troubles du sommeil. Ils sont publiés dans la revue Journal of Pineal Research.

Presque toutes les fonctions biologiques sont soumises au rythme circadien, un cycle d’une durée de 24 heures. La sécrétion de la mélatonine, l’hormone de la nuit, est typiquement circadienne. Sa production augmente en fin de journée peu avant le coucher, contribuant à l’endormissement, et chute avant l’éveil.

De précédentes études ont montré que la sécrétion de cette hormone par le cerveau est bloquée par la lumière, à laquelle elle est très sensible. Cette sensibilité à la lumière peut se traduire par une désynchronisation de l’horloge circadienne, pouvant entraîner l’apparition de troubles du sommeil. D’autres études ont par ailleurs dévoilé le rôle important, dans le contrôle de la production de mélatonine, de la mélanopsine, un photorécepteur présent dans certaines cellules de la rétine qui, très sensible à la lumière (essentiellement à la lumière bleue), permet de réguler le réflexe pupillaire et le rythme circadien. Ainsi, lors d’une exposition à la lumière, la mélanopsine devient moteur de la suppression de mélatonine et de la synchronisation de l’horloge biologique.

Si les troubles du sommeil chez l’adulte sont fréquents, ils augmentent avec l’âge : près d’un tiers des personnes de plus de 65 ans consomme des somnifères de manière chronique[2]. Pourtant, aucune étude ne s’était intéressée spécifiquement au mécanisme biologique à l’œuvre dans les troubles du sommeil liés à l’âge. S’agit-il d’une conséquence d’un problème de perception de la lumière ? Si oui, à quel niveau ? Et quel est le rôle de la mélanopsine dans ce cas précis ?

Une équipe au Centre de recherche en neurosciences de Lyon a tenté d’élucider ce mystère. Les scientifiques ont observé chez un groupe d’adultes les effets de la lumière sur la sécrétion de mélatonine. Tous les participants ont été exposés à 9 lumières de différentes couleurs (correspondant à 9 longueurs d’ondes très précises) pour permettre aux scientifiques d’identifier les mécanismes en cause par le biais des photorécepteurs concernés.

Les participants de l’étude ont été divisés en deux groupes distincts : un groupe à la moyenne d’âge de 25 ans, un autre à la moyenne d’âge de 59 ans. Cette expérience a été réalisée au milieu de la nuit, au moment où l’organisme libère normalement le plus de mélatonine.

Les résultats indiquent que, parmi les lumières testées, la lumière bleue (longueur d’onde aux environs de 480 nm) est très efficace pour supprimer la production de la mélatonine chez les personnes les plus jeunes. Plus spécifiquement, les scientifiques ont observé que chez les jeunes sujets exposés à la lumière bleue, la mélanopsine était le seul photorécepteur moteur de la suppression de la mélatonine. À l’inverse, chez les participants plus âgés, d’autres photorécepteurs que la mélanopsine semblent être impliqués, comme les cônes S et M, des photorécepteurs qui permettent la perception du monde en couleur, et qui sont situés dans la rétine externe.

Ces données suggèrent que le vieillissement s’accompagne d’une diminution de l’implication de la mélanopsine dans la perception visuelle, mais que la rétine parvient à compenser cette perte par une augmentation de la sensibilité d’autres photorécepteurs qui n’étaient jusqu’alors pas connus pour être impliqués dans la suppression de la mélatonine.

Ces observations permettent aux scientifiques de conclure que la perception de la lumière – et les besoins en lumière des individus – évoluent avec l’âge. En effet, tandis que les personnes les plus jeunes, dont seul le récepteur mélanopsine est impliqué, peuvent se contenter d’une exposition à la lumière bleue[3] pour synchroniser leur horloge circadienne sur une journée de 24 heures, les personnes plus âgées ont besoin d’être exposées à une lumière plus riche en longueurs d’onde (couleurs), une lumière dont les caractéristiques sont celles de la lumière du soleil.

« Il s’agit de la découverte d’un nouveau mécanisme adaptatif de la rétine au cours du vieillissement – permettant au sujet âgé de rester sensible à la lumière malgré le brunissement du cristallin. Ces résultats présentent par ailleurs un intérêt clinique, encourageant les personnes plus âgées à s’exposer davantage à la lumière du jour, plus riche en longueurs d’ondes, plutôt qu’à la lumière artificielle, afin d’éviter de développer des troubles du sommeil et d’autres altérations telles que des troubles de l’humeur ou du métabolisme… Enfin, ils offrent de nouvelles perspectives pour personnaliser de façon optimale les photothérapies/luminothérapies destinées au soin des personnes plus âgées », explique Claude Gronfier, chercheur à l’Inserm, dernier auteur de l’étude.

En lien avec ce dernier aspect, l’équipe de recherche s’intéresse désormais à la quantité et à la qualité de lumière nécessaires à chaque individu, et au meilleur moment de s’exposer à la lumière durant la journée, pour éviter qu’il ou elle ne développe des troubles du sommeil et de la santé en général. Les travaux de recherche sont réalisés à la fois chez le sujet sain (enfant et adulte), chez le travailleur de jour et de nuit, et chez le patient (troubles du sommeil et des rythmes biologiques, maladies génétiques, troubles de l’humeur, neurodégénérescences)[4].

 

[1]Dans cette étude, la moyenne d’âge des personnes composant le groupe « plus âgés » était de 59 ans.

[2] https://www.has-sante.fr/jcms/c_1299994/troubles-du-sommeil-stop-a-la-prescription-systematique-de-somniferes-chez-les-personnes-agees

[3] Les éclairages à LED utilisés sont riches en lumière bleue.

[4] https://www.crnl.fr/fr/page-base/groupe-sommeil-rythmicite-circadienne-lhumain-epidemiologie-populationnelle-recherche

fermer