Menu

La metformine améliore la motricité de patients atteints de dystrophie myotonique de Steinert, la maladie neuromusculaire la plus fréquente de l’adulte

Cellules musculaire de patient atteint de dystrophie myotonique. Crédits: Inserm/IGBMC

Des chercheurs Inserm au sein d’I-Stem, l’Institut des cellules souches pour le traitement et l’étude des maladies monogéniques, annoncent des résultats encourageants de la metformine, un antidiabétique connu, pour le traitement symptomatique de la dystrophie myotonique de Steinert. En effet, un essai de phase II réalisé chez 40 malades, à l’hôpital Henri-Mondor AP-HP, montre que, après 48 semaines de traitement à la plus forte dose, les patients traités avec la metformine (contre placebo) gagnent en motricité et retrouvent une démarche plus stable. Les résultats de cet essai, financé à hauteur d’1,5 million d’euros par l’AFM-Téléthon, sont publiés ce jour dans la revue Brain.

La dystrophie myotonique de Steinert (DM1) est la plus fréquente des dystrophies musculaires de l’adulte. D’origine génétique, sa prévalence est estimée à 1/8.000, soit environ 7 à 8000 malades en France. Elle affecte les muscles, qui s’affaiblissent (dystrophie) et ont du mal à se relâcher après contraction (myotonie) ce qui désorganise les mouvements (marche instable par exemple). Elle atteint également d’autres organes (cœur et appareil respiratoire, appareil digestif, système endocrinien et système nerveux). A ce jour, cette dystrophie musculaire ne bénéficie d’aucun traitement curatif.

Les résultats publiés dans Brain sont le fruit d’une recherche menée depuis plusieurs années au sein d’I-Stem. En effet, grâce au développement de modèles cellulaires à partir de cellules souches pluripotentes, l’équipe de Cécile Martinat a, en 2011, identifié des mécanismes nouveaux à l’origine de la dystrophie myotonique de Steinert (Cell Stem Cell – 31 mars 2011). En 2015, Sandrine Baghdoyan, ingénieure de recherche à I-Stem, parvient à corriger certains défauts d’épissage dans des cellules souches embryonnaires et dans des myoblastes provenant de personnes atteintes de DM1 grâce à la metformine, une molécule anti-diabétique bien connue et identifiée comme efficace dans cette nouvelle indication grâce au criblage à haut-débit.(Mol.Therapy – 3 nov 2015).

Forts de ces résultats, I-Stem a lancé un essai clinique monocentrique de phase II, en double aveugle, randomisé contrôlé, chez 40 patients, en collaboration avec des équipes de l’Hôpital Henri Mondor AP-HP, celle du Dr Guillaume Bassez du centre de référence maladies neuromusculaires Ile-de-France, et celle du Centre d’Investigation Clinique coordonné par le Pr Philippe Le Corvoisier. Dans cette étude contre placebo, la metformine a été administrée trois fois par jour, par voie orale, avec une période d’augmentation de la dose sur 4 semaines (jusqu’à 3 g/jour), suivie de 48 semaines à la dose maximale.

L’évaluation de l’efficacité du traitement était notamment fondée sur le test de « 6 minutes de marche ». A la fin de l’étude, soit après un an de traitement, les patients ayant reçu la metformine gagnent une distance moyenne de marche de près de 33 mètres sur les performances initiales alors que le groupe ayant reçu le placebo reste stable (gain moyen de 3 mètres).

Cette motricité, analysée finement grâce à l’outil Locometryx développé par le laboratoire de physiologie et d’évaluation neuromusculaire de Jean-Yves Hogrel à l’Institut de Myologie au sein de l’hôpital de la Pitié-Salpêtrière AP-HP, est étroitement liée au fait que la metformine améliore la posture globale des patients qui, de fait, passent d’une marche instable « élargie », avant traitement, à une démarche droite, plus rapide et donc plus performante ».

Ces résultats démontrent, pour la première fois, l’efficacité d’un traitement pharmacologique sur la motricité dans la dystrophie myotonique de Steinert et, à notre connaissance, l’efficacité thérapeutique d’une molécule identifiée sur la base de la modélisation d’une pathologie avec des cellules souches pluripotentes.

Mécanisme de refoulement : peut-on altérer un souvenir à l’insu d’une personne ?

Photo by Christophe Hautier on Unsplash

Ces dernières années, les neurosciences cognitives ont permis de montrer qu’il était possible d’altérer un souvenir par un effort conscient. Des chercheurs du Centre de Psychiatrie et de Neurosciences de l’Inserm, du Centre Hospitalier Sainte Anne et de l’Université Paris Descartes viennent aujourd’hui de montrer qu’il est possible d’altérer inconsciemment des souvenirs. Cette démonstration expérimentale d’une manipulation inconsciente des souvenirs, qui s’apparente au refoulement, un concept de la psychanalyse, est publiée dans la revue Cognition.

Les chercheurs savent, depuis quelques années qu’en faisant un effort conscient de répression d’un souvenir précis, il est possible de l’altérer, c’est-à-dire de diminuer notre capacité à se le remémorer. Cet effet se traduit par une désactivation des hippocampes cérébraux, structures du cerveau impliquées dans l’encodage de la mémoire. Une telle fragilisation est-elle possible inconsciemment ?

Sous la direction du Professeur Raphaël Gaillard, des chercheurs du Centre de Psychiatrie et de Neurosciences de l’Inserm, du Centre Hospitalier Sainte Anne et de l’Université Paris Descartes ont mis à profit leur expertise de la conscience et des processus inconscients pour tester cette hypothèse.

Afin de recréer en laboratoire les conditions d’un mécanisme de remémoration inconscient, des personnes volontaires ont appris des paires de mots associés (par exemple, bougie-champagne, balade-colline…) puis étaient entraînées, lorsque le premier mot leur était présenté, soit à penser au second mot de la paire, soit à s’empêcher d’y penser, en fonction d’un signal visuel. Un dispositif expérimental similaire avait permis auparavant la démonstration d’une altération d’un souvenir par un effort conscient.

L’originalité de cette étude réside dans le fait que ces signaux visuels donnant la consigne de penser ou de s’efforcer de ne pas penser au second mot de la paire étaient parfois présentés de façon subliminale, c’est-à-dire trop brièvement pour accéder à la conscience. Dans ce cas, les volontaires devaient déterminer le plus rapidement possible si le premier mot était masculin ou féminin. Bien que ces signaux n’aient pas été consciemment perçus, les chercheurs ont mis en évidence une altération sur la capacité à se remémorer le second mot.

De ce fait le signal associé à la consigne de ne pas penser au second mot a diminué la capacité de remémoration de ce mot et le signal associé automatiquement à la consigne d’y penser l’a augmenté. Cette étude démontre ainsi qu’il est possible de manipuler inconsciemment le souvenir d’un mot.

Ces travaux ouvrent de nouvelles perspectives dans la compréhension des phénomènes psychiques inconscients. Si, dans le cadre du laboratoire et le temps d’une expérience de 2 heures, il est possible de démontrer un tel phénomène de refoulement, dans la vie quotidienne la répétition d’indices altérant un souvenir pourrait avoir des effets majeurs.

Plus généralement, ces travaux montrent une nouvelle fois que la mémoire est susceptible de distorsions, voire de manipulations : un enjeu pour les témoignages et pour la biographie de chacun.  

Pourquoi perdons-nous conscience lors d’une anesthésie générale?

Crédits photo: Inserm/Latron, Patrice

À l’état conscient, différentes aires du cerveau, même non connectées anatomiquement, peuvent fonctionner en phase, grâce au phénomène de « réverbération » de l’information dans le cerveau. C’est cette propriété qui est bloquée sous anesthésie générale. Quel que soit l’agent anesthésique employé, l’effet d’une anesthésie générale sur le cerveau correspond à une « rigidification » du cheminement de l’information au sein du cerveau : l’activité cérébrale est maintenue, mais reste cantonnée aux connexions anatomiques, lui retirant la possibilité de générer d’autres flux d’informations plus flexibles. C’est ce phénomène qui explique la perte de conscience induite par l’anesthésie générale chez un patient. Il a pu être caractérisé, chez le singe, grâce à l’IRM fonctionnelle, l’électroencéphalographie (EEG), et un algorithme faisant partie des méthodes de type « Big Data ». Les résultats sont publiés par une équipe rassemblant des chercheurs du CEA, de l’Inserm, des Universités de Versailles Saint-Quentin en Yvelines, Paris Sud/Paris Saclay, et Paris Descartes et de l’hôpital Foch, le 20 juillet dernier dans Anesthesiology, journal de l’American Society of Anesthesiologists, qui a consacré son éditorial à cette étude.

Le cerveau ne s’éteint pas sous anesthésie et continue à avoir une activité significative. Ainsi, les agents pharmacologiques utilisés agissent directement sur le cerveau et suppriment la conscience de manière contrôlée et réversible. Pourtant, le mécanisme d’action de l’anesthésie générale reste méconnu. Or cette connaissance est fondamentale pour développer des outils modernes de monitorage du cerveau pendant l’anesthésie, ainsi que le développement de nouveaux agents pharmacologiques plus sélectifs.

Dans une étude publiée dans la revue Anesthesiology, une équipe de NeuroSpin est parvenue à observer le cerveau d’un modèle animal de type primate non humain en état conscient et sous anesthésie générale, établissant ainsi une « signature cérébrale universelle » de l’anesthésie générale, quel que soit l’agent pharmacologique utilisé.

Béchir Jarraya, qui a dirigé ces travaux avec Lynn Uhrig, explique : « Pour mieux comprendre la découverte, imaginez que notre cerveau soit notre planète terre et que l’IRM fonctionnelle soit un satellite surveillant les axes routiers. Nous avons constaté que, dans l’état conscient, le réseau routier est fluide et flexible : axes autoroutiers et secondaires voient une bonne circulation et une bonne flexibilité dans la gestion des évolutions du flux rencontré par le réseau. En revanche, en cas d’anesthésie générale, le réseau est cantonné aux axes autoroutiers. Il ne permet ni une bonne flexibilité et ni une bonne répartition du flux, générant en quelque sorte des embouteillages».

« C’est ainsi que notre équipe a découvert une signature cérébrale universelle de l’anesthésie générale ».

Pour cette découverte, les scientifiques ont induit une anesthésie générale chez un primate non humain, suivant un protocole très similaire à l’anesthésie humaine, et enregistré l’activité cérébrale par imagerie par résonnance magnétique fonctionnelle (IRMf) et par électroencéphalographie (EEG). La dynamique cérébrale a été étudiée grâce à un algorithme de classification statistique qui a permis d’extraire, à partir des données de l’IRMf, des états cérébraux spécifiques à l’anesthésie générale (cf figure ci-dessus).

Les retombées de cette découverte pourraient impacter significativement la manière dont on surveille et ajuste une anesthésie générale chez les patients devant être opérés ou chez les patients comateux qui reçoivent une sédation en réanimation.

Ont également contribué à cette étude le Collège de France, les hôpitaux Sainte-Anne et Necker, ainsi que l’Institut du cerveau et de la moelle.

L’individualité des souris est influencée par leur entourage

Inserm/Latron Patrice, 2009 Inserm images

L’individualité existe chez tous les animaux, et plusieurs facteurs la façonnent au cours du temps. C’est le cas de l’environnement social pour les souris comme viennent de le montrer des chercheurs du CNRS, de l’Inserm et de Sorbonne Université. Chez cette espèce, certains traits de caractère stables peuvent s’inscrire dans l’activité même des neurones d’un individu et se voir modifiés lorsque change la composition de son groupe. Ces résultats sont publiés dans Nature Communications.

L’individualité n’est pas le propre de l’Homme. Si l’idée a pu rebuter les biologistes au départ, il est aujourd’hui admis qu’elle se rencontre chez toutes les espèces animales. On la définit comme l’ensemble des différences de comportement relativement stables dans le temps entre individus d’une même espèce. Si le processus dit d’individuation est sous-tendu par des composantes génétiques et développementales, des chercheurs viennent de démontrer chez la souris que l’environnement social et l’activité de certains neurones ont aussi un rôle déterminant dans l’émergence d’individus distincts.

Pour arriver à cette conclusion, les équipes des laboratoires Neuroscience Paris-Seine (CNRS/Inserm/Sorbonne Université), Adaptation biologique et vieillissement (CNRS/Sorbonne Université)1 et de l’Institut de la longévité de Sorbonne Université situé à l’Hôpital Charles Foix (AP-HP) ont étudié la vie des habitants de « Souris City », un dispositif expérimental novateur offrant deux lieux de vie en commun aux animaux, et la possibilité de leur faire passer un test un par un, sans intervention humaine. C’est grâce à ce test que les chercheurs ont identifié différentes « personnalités » parmi les souris. Celui-ci était un labyrinthe en T où elles devaient choisir entre deux bras menant, à de l’eau normale pour l’un ou à de l’eau sucrée pour l’autre. Ces deux positions étant alternées régulièrement. Face à ce problème, deux stratégies radicalement différentes ont émergé : certaines souris variaient très souvent leur choix, d’autres presque jamais.

La première chose que les auteurs ont observée est que le type de comportement adopté par chaque individu était corrélé au fonctionnement des neurones producteurs de dopamine, impliqués notamment dans la prise de décision. Les souris qui alternaient le plus par exemple, présentaient une activité dopaminergique plus faible. On peut donc dire qu’il y a une inscription biologique de l’individualité des souris.

Pour comprendre le rôle de l’environnement social des souris sur le développement de ces différentes individualités, les chercheurs ont poursuivi leurs expériences en modifiant la composition des groupes de Souris City. Ils ont regroupé les individus qui adoptaient la même stratégie au test, ceux qui alternaient peu d’un côté, et ceux qui alternaient beaucoup d’un autre. Surprise : après quelques semaines, les rôles étaient redistribués au sein de chaque groupe ! Certaines souris variant peu leur choix étaient devenues les plus exploratrices de leur nouveau groupe, et vice versa.

Plus étonnant encore, ce changement de comportement est corrélé à une modification de l’activité du système dopaminergique des souris.

Ces résultats suggèrent que, loin d’être figés, les mécanismes de prise de décision, les registres comportementaux, mais aussi le niveau d’activité des structures nerveuses de chaque individu s’adaptent en fonction de la structure sociale dans laquelle ils évoluent.

Le fait que l’environnement social contribue aux différences entre les individus a des implications en sociologie, en psychologie, en biologie mais aussi en médecine. Les facteurs sociaux ont aussi un rôle dans le développement de pathologies psychiatriques telles que l’addiction. Un domaine auquel les chercheurs vont s’intéresser en étudiant l’influence de l’environnement social sur la vulnérabilité aux drogues.

[1]Ces laboratoires sont membres de l’Institut de biologie Paris-Seine

Résistance aux antidépresseurs : des neurones capables de s’autoréguler

Neurones de l’hippocampe d’une souris observés en microscopie confocale à fluorescence puis reconstruits en 2D. Crédits: Inserm/CNRS/IGMM/Loustalot,Fabien/Kremer,Eric

Pourquoi certains patients déprimés présentent-ils une résistance quasi-totale aux antidépresseurs les plus courants ? C’est sur cette question que se sont penchés des chercheurs de l’Inserm et de Sorbonne Université au sein de l’Institut du Fer à Moulin qui ont pu mettre en évidence le rôle majeur des neurones sécréteurs de sérotonine – la cible médicamenteuse privilégiée dans les dépressions – dans la régulation de leur propre activité. En cause, un récepteur à la sérotonine porté par ces neurones dont la déficience pourrait être déterminante dans l’absence de réponse aux antidépresseurs les plus prescrits. Ces travaux, parus dans la revue Neurospychopharmacology ouvrent la voie à une meilleure compréhension de l’implication de la sérotonine dans les maladies psychiatriques.

La sérotonine est un neurotransmetteur – une substance chimique produite par certains neurones pour en activer d’autres – impliqué dans de nombreuses maladies psychiatriques telles que la dépression, l’addiction, l’impulsivité ou la psychose. Elle est sécrétée par des neurones spécifiques appelés neurones sérotoninergiques.

La libération de sérotonine hors de la cellule neuronale permet d’activer des neurones possédant des récepteurs spécifiques à ce neurotransmetteur. Lorsque ces récepteurs détectent une quantité suffisante de sérotonine dans le milieu extracellulaire, ils envoient un message d’activation ou d’inhibition au neurone qui les exprime. Les neurones sérotoninergiques possèdent également plusieurs types de récepteur à la sérotonine, qu’on appelle alors autorécepteurs et qui leur permettent d’autoréguler leur activité.

Des chercheurs de l’Inserm et de Sorbonne Universités/UPMC au sein de l’Institut du Fer à Moulin (Inserm, UPMC),  se sont intéressés au rôle d’un des autorécepteurs des neurones sérotoninergiques appelé 5-HT2B, dans la régulation de leur activité, afin de mieux comprendre l’absence d’effet de certains traitements antidépresseurs.

En temps normal, lorsqu’un neurone sérotoninergique sécrète de la sérotonine dans le milieu extracellulaire, il va être capable d’en recapturer une partie qu’il pourra de nouveau relarguer a posteriori.  Ce mécanisme assuré par un transporteur spécifique lui permet de réguler la quantité de sérotonine présente dans le milieu extracellulaire. Le transporteur est la cible privilégiée des médicaments antidépresseurs utilisés pour traiter les pathologies psychiatriques impliquant la sérotonine. Ceux-ci sont appelés « inhibiteurs sélectifs de la recapture de la sérotonine » (ISRS) car ils empêchent la recapture par le transporteur. Dans le contexte de la dépression où la sécrétion de la sérotonine est trop réduite, les ISRS permettent donc de conserver une concentration normale de sérotonine dans le milieu extracellulaire.

L’équipe de recherche est partie de l’observation que, chez la souris, lorsque le neurone sérotoninergique ne porte pas d’autorécepteur 5-HT2B, d’une part l’activité des neurones  sérotoninergiques est inférieure à la normale et d’autre part les molécules bloquant l’activité du transporteur comme les antidépresseurs ISRS sont sans effet sur la quantité extracellulaire de sérotonine. Les chercheurs ont ainsi montré que pour avoir un effet, ces molécules nécessitaient la présence et une expression normale du récepteur 5-HT2B à la sérotonine.

Ils ont également découvert que lorsqu’un neurone sécrète de la sérotonine, son autorécepteur 5-HT2B détecte la quantité présente dans le milieu extracellulaire et envoie un signal au neurone pour qu’il sécrète d’avantage de sérotonine. Pour éviter une sécrétion excessive de sérotonine, le neurone sérotoninergique possède un régulateur négatif : l’autorécepteur 5-HT1A qui détecte également la quantité de sérotonine extracellulaire et va envoyer un signal d’inhibition de la sécrétion au neurone sérotoninergique. Afin de conserver une activité neuronale normal, 5-HT2B permet de maintenir ainsi un certain niveau d’activité, en agissant comme un autorégulateur positif.

Ces résultats, à confirmer chez l’humain, mettent en évidence un mécanisme d’autorégulation fine des neurones sérotoninergiques avec une balance entre des autorécepteurs activateurs et des autorécepteurs inhibiteurs. Ils constituent une avancée dans l’identification de nouvelles cibles médicamenteuses,  dans la compréhension de l’implication de la sérotonine dans certaines pathologies psychiatriques et dans l’appréhension de l’inefficacité de certains traitements antidépresseurs.

L’hypertension artérielle à 50 ans augmenterait le risque de développer une démence

©JORGE LOPEZ on Unsplash 

Et si, selon l’âge à laquelle on la développe, l’hypertension artérielle avait des conséquences plus ou moins grandes sur le maintien de nos fonctions cognitives ? C’est ce que suggère l’étude d’une équipe Inserm en collaboration avec le Department of Epidemiology and Public Health du University College London qui suit, depuis 1985, l’évolution de la tension artérielle et la survenue de démences chez plus de 10 000 volontaires. Ces travaux parus dans European Heart Journal suggèrent qu’à 50 ans, une tension élevée mais toujours en-dessous du seuil de diagnostic de l’hypertension, pourrait être associée à une augmentation du risque de développer une démence plus tard dans la vie et ce, même pour les personnes ne présentant aucune autre pathologie cardio-vasculaire.

Bien qu’il existe déjà des études associant pression artérielle et risque accru de démence à un âge avancé, celles-ci portent sur les mesures de la pression artérielle chez une large catégorie de population dont l’âge varie de 35 à 68 ans et n’ont jamais été réalisées sur des tranches d’âge précises.

Des chercheurs de l’Inserm, en collaboration avec le  Department of Epidemiology and Public Health du University College London (UCL) ont entrepris avec l’étude Whitehall II, de suivre sur le long terme une population de 10 000 volontaires âgés de 35 à 55 ans au lancement de l’étude en 1985, afin d’étudier le lien entre âge, hypertension et démence. En 1985, 1991, 1997 et 2003, les chercheurs ont mesuré la pression sanguine des participants. Ces derniers ont été suivis jusqu’en 2017 afin de détecter la possible survenue d’une démence.

Parmi les participants, moins de 5% ont développé une démence en vieillissant avec un âge moyen de diagnostic d’environ 75 ans.

L’équipe de recherche a étudié deux types de pressions artérielles distincts : la pression artérielle systolique – mesurée lors de la phase de contraction du cœur permettant d’éjecter le sang dans les artères (systole) – et la pression artérielle diastolique – mesurée lors de la phase de relâchement du cœur qui lui permet de se remplir de sang (diastole).

Si la pression diastolique ne semble pas avoir d’impact sur le risque de développer une démence, les chercheurs ont en revanche observé que les quinquagénaires qui avaient une pression systolique égale ou supérieure à 130mmHg (selon la Société Européenne de cardiologie, la valeur seuil pour diagnostiquer une hypertension est de 140mmHg) avaient 45% de risque supplémentaire de développer une démence par rapport à ceux ayant une pression systolique plus basse au même âge. Aucune majoration de ce risque n’a été observée chez les personnes ayant une hypertension artérielle à 60 ou 70 ans.

Par ailleurs, le sur-risque associé à une pression artérielle supérieure à 130mmHg est constaté également chez les personnes n’ayant développé aucun problème cardio-vasculaire durant la période de suivi : leur risque était accru de 47% par rapport aux personnes sans problème cardio-vasculaires présentant une pression systolique inférieure à 130mmHg.

Selon Archana Singh-Manoux, directrice de recherche Inserm responsable du projet de recherche et professeur honoraire à l’UCL, ces analyses « suggèrent que l’impact de la pression artérielle sur la santé du cerveau est dépendant du temps d’exposition ; pour cette raison les personnes ayant une pression artérielle élevée dès 50 ans seraient plus susceptibles de développer une démence que celles qui développent une hypertension à 60 ou 70 ans ».

Ceci pourrait s’expliquer par le fait qu’une pression artérielle élevée est responsable de petits AVC qui, bien que souvent indétectables, sont dommageables pour le cerveau et peuvent entraîner à terme un déclin dans son fonctionnement.

« Dans cette étude, nous avons pu mettre en évidence différents schémas d’association selon les tranches d’âge étudiées », précise la première auteure de l’article Jessica Abell, post-doctorante à l’Inserm et  chercheuse associée à l’UCL qui ajoute que « ces résultats pourraient ainsi permettre de redéfinir les tranches d’âge à étudier pour évaluer l’impact de l’hypertension sur la santé ». Elle conclut : « Il est important d’insister sur le fait que ces résultats sont issus d’une étude observationnelle d’un échantillon de la population et ne peuvent être directement utilisés comme des outils prédictifs pour chaque individu. La définition de la valeur seuil optimale permettant de diagnostiquer l’hypertension est actuellement au cœur du débat ».

Un programme informatique capable de détecter et d’identifier automatiquement des lésions cérébrales

 ©Emmanuel Barbier – Inserm/Inria/Univ. Grenobles Alpes  – Figure d’IRM chez l’homme obtenue ici en présence d’une tumeur cérébrale. En gris, des IRM classiques, en couleur, des IRM quantitatives.

La radiologie du futur viendra-t-elle du machine learning ? C’est en tous cas ce que pensent des chercheurs de l’Inserm et d’Inria qui travaillent en collaboration au sein d’Univ. Grenoble Alpes et qui ont développé un programme capable de localiser et de diagnostiquer différents types de tumeurs cérébrales par analyse d’images d’IRM. Ces analyses ont montré des résultats de haute fiabilité avec 100% de localisations exactes et plus de 90% de diagnostics corrects du type de tumeurs. Cette méthode innovante et ses résultats font l’objet d’une étude publiée dans la revue IEEE-TMI.

L’IRM, ou imagerie par résonance magnétique, est la technique d’imagerie médicale de référence dans l’obtention d’images très détaillées du cerveau car elle permet de mettre en évidence de nombreuses caractéristiques des tissus cérébraux.  L’IRM peut produire des images dites quantitatives, c’est-à-dire qui cartographient chacune un paramètre mesurable du cerveau (par exemple le débit sanguin, le diamètre vasculaire…). Bien que la qualité de ces images quantitatives soit plus indépendante du calibrage des appareils de mesure que celle des images classiques obtenues par IRM et qu’elle soit donc plus fiable, ce type de technique est encore peu utilisé en IRM clinique. 

C’est sur des protocoles d’exploitation de ces images quantitatives que travaillent des chercheurs de l’Inserm en collaboration avec une équipe de recherche de d’Inria au sein d’Univ. Grenoble Alpes. Les chercheurs ont combiné différents outils mathématiques innovants, pour apprendre à un programme informatique à analyser les images quantitatives issues d’IRM cérébraux et à diagnostiquer d’éventuelles tumeurs.

Dans un premier temps, le programme a appris à reconnaître les caractéristiques de cerveaux en bonne santé. Confronté ensuite à des images de cerveaux atteints de cancers, il est ainsi devenu capable de localiser automatiquement les régions dont les caractéristiques divergent de celles des tissus en bonne santé et d’en extraire les particularités.

Enfin, pour apprendre à l’intelligence artificielle à discriminer les différents types de tumeurs, les chercheurs lui ont ensuite indiqué le diagnostic associé à chacune des images de cerveaux malades qui lui avaient été présentées.

Afin de tester les capacités du programme à différencier les tissus sains des tissus pathologiques, l’équipe de recherche lui a fourni des images qui lui étaient inconnues, issues tantôt de cerveaux en bonne santé, tantôt de cerveaux malades. Le programme devait indiquer si une tumeur était présente dans ces images et être capable de la caractériser. Et l’intelligence artificielle s’est montrée très bonne élève en réussissant à localiser parfaitement (100%) les lésions et à les diagnostiquer de façon très fiable (plus de 90%).

« Aujourd’hui, l’obtention d’images quantitatives ne correspond pas à ce qui se fait en routine clinique dans les services d’IRM », précise Emmanuel Barbier, chercheur Inserm responsable de l’étude. « Mais ces travaux montrent l’intérêt d’acquérir ce type d’images et éclairent les radiologues sur les outils d’analyse dont ils pourront disposer prochainement pour les aider dans leurs interprétations. »

D’ici là, l’équipe de recherche va s’intéresser aux images les plus pertinentes à acquérir pour diagnostiquer le plus finement et avec la plus grande fiabilité possible les tumeurs cérébrales. Elle va donc poursuivre le développement des outils mathématiques destinés à l’amélioration des capacités d’auto-apprentissage de ce programme ; l’objectif à terme étant de parvenir à étendre le potentiel diagnostique de cette intelligence artificielle à d’autres pathologies cérébrales, telles que Parkinson.

Ces outils de machine learning par IRM quantitative appliqués aux tumeurs cérébrales sont actuellement en cours d’évaluation dans le cadre du Plan Cancer porté par l’Inserm, au sein du Programme Hétérogénéité Tumorale et Ecosystème.

Leur développement dans le cadre du diagnostic de la maladie de Parkinson est également en cours via le projet pluridisciplinaire NeuroCoG sur financement IDEX de l’Université Grenoble Alpes.

Nos choix alimentaires prédits par l’anatomie de notre cerveau

©Katherine Chase – Unsplash 

Plutôt gâteau ou légumes ? S’il est parfois difficile de manger sainement, une étude conduite par une équipe de chercheurs Inserm, CNRS et Sorbonne Université réunie autour de Liane Schmidt et de Hilke Plassmann au sein de l’Institut du Cerveau et de la Moelle épinière (ICM) a établi un lien entre l’anatomie de certaines régions de notre cerveau et la capacité de contrôle lors de choix alimentaires. Ces résultats sont publiés dans la revue The Journal of Neuroscience le 4 Juin 2018.

Manger sainement n’est pas chose aisée pour un grand nombre de personnes. La capacité à maintenir une alimentation équilibrée et à faire des choix nutritionnels sains varie grandement entre les individus.

D’un point de vue cognitif, faire un choix implique deux mécanismes principaux : le premier consiste à attribuer une valeur à chacune des options. Dans le cas des choix alimentaires, le goût de l’aliment et sa qualité nutritive peuvent par exemple déterminer sa valeur. Le deuxième mécanisme pour notre cerveau consiste à analyser la valeur donnée à chaque option pour choisir la plus adéquate, ici l’aliment auquel on aura attribué la valeur la plus importante.

Comment se traduisent ces prises de décisions dans le cerveau ? Pour répondre à ces questions, Liane Schmidt, chercheuse Inserm, Hilke Plassmann et leurs collaborateurs Anita Tusche du California Institute of Technology (USA), Cendri Hutcherson de l’Université de Toronto (Canada) et Todd Hare de l’Université de Zurich (Suisse) ont réuni les données d’imagerie cérébrale issues de quatre études portant sur la prise de décision alimentaire.

Dans trois de ces études, les participants ont effectué la même tâche qui consistait à évaluer leur appétence pour un aliment particulier selon trois critères: leur préférence naturelle, le goût de l’aliment et son bénéfice pour la santé. Les participants pouvaient ainsi baser leur choix uniquement sur le goût ou se concentrer sur l’intérêt nutritionnel de l’aliment.

Dans la quatrième étude, les participants devaient utiliser la méthode de leur choix (intérêt de faire des économies, de manger des produits bio, ou bien de faire un régime) pour réduire leur envie de produits goûteux mais sans intérêt nutritif. Dans cette dernière étude «Il s’agit d’une stratégie de contrôle plus flexible ne se focalisant pas spécifiquement sur les attributs du goût ou de la santé mais sur tous les moyens permettant de se distancier d’un aliment ou de résister à une envie.» précise Liane Schmidt, première auteure de l’étude et chercheuse Inserm.

Les chercheurs ont étudié les variations de la quantité de matière grise du cerveau des participants grâce aux données d’imagerie des trois premières études.

Ils ont ainsi mis en évidence une corrélation entre les choix alimentaires et la quantité de matière grise au niveau de deux régions du lobe frontal : la région dorso-latérale préfontale (dlPFC) – qui régit la régularisation des décisions – et la région ventro-médiale préfontale (vmPFC), en charge de l’attribution des valeurs. Ils ont observé que les personnes qui avaient plus de matière grise dans ces deux régions avaient davantage d’appétence pour les aliments qu’ils considéraient comme sains.

L’équipe de recherche a ensuite cherché à prédire les choix alimentaires des participants à la quatrième étude en se basant sur la quantité de matière grise détectable dans les deux régions identifiées précédemment. « L’idée ici était de voir si les corrélations établies dans un contexte où les stratégies de contrôle sont très claires – se concentrer sur le goût ou la santé- se généralisent à une situation où les stratégies de contrôle  sont plus vagues. » poursuit Hilke Plassmann.

Les chercheurs confirment ces résultats et établissent ainsi pour la première fois que des différences dans la neuro-anatomie des régions dlPFC et vmPFC jouent un rôle dans les prises de décisions alimentaires individuelles. Ces résultats ouvrent des perspectives pour, à terme, le traitement de troubles alimentaires associés à une perturbation du contrôle alimentaire, comme la boulimie ou l’anorexie.

Vers une compréhension de l’origine du plus fréquent des troubles de l’infertilité féminine

©Concha Rodrigo – Unsplash

Des chercheurs de l’Inserm et de l’Université  de Lille, ont découvert que le plus fréquent des troubles de la fertilité féminine – le syndrome des ovaires polykystiques (SOPK) –  serait causé par la surexcitation de neurones cérébraux. La coupable : une hormone produite par les ovaires, appelée « Hormone anti-müllerienne» (AMH),  surproduite chez les femmes souffrant d’un SOPK. Les travaux de l’équipe chez la souris montrent l’importance de l’exposition in utero à des taux anormalement élevés d’AMH dans l’occurrence de la maladie. Ces résultats parus dans Nature Medicine ouvrent la voie à de nouveaux concepts sur l’origine embryonnaire de la maladie ainsi qu’à de nouvelles pistes pour l’élaboration d’un traitement.

Une femme sur dix en âge de procréer souffre du syndrome des ovaires polykystiques ou « SOPK » qui se traduit par une forte surproduction par les ovaires d’hormones masculines, les androgènes, perturbant les mécanismes de croissance des follicules ovariens. Ceux-ci vont stagner en plus grand nombre (d’où l’appellation, à tort, d’ovaires polykystiques) et causer des dysfonctionnements de l’ovulation à l’origine d’une infertilité.

Si on sait aujourd’hui diagnostiquer la maladie, sa cause reste encore inconnue. Les options thérapeutiques utilisées à ce jour visent à réduire les symptômes et à prévenir des complications mais aucun traitement préventif ou curatif n’existe.

Une équipe coordonnée par Paolo Giacobini, directeur de recherche Inserm (Centre de recherche Jean-Pierre Aubert – Neurosciences et cancer, Inserm U1172/Université de Lille/CHU de Lille), met à mal l’hypothèse selon laquelle le SOPK n’altèrerait que les ovaires, en montrant qu’il modifierait également l’activité de neurones cérébraux situés dans l’hypothalamus et responsables du contrôle de la reproduction. En cause, une hormone produite par les ovaires et impliquée dans leur fonctionnement : l’hormone anti-müllerienne (AMH). Chez les patientes souffrant d’un SOPK, l’AMH présente une concentration sanguine deux à trois fois plus élevée, directement liée à la sévérité de la maladie.

L’équipe de recherche a basé ses travaux sur deux constatations chez les femmes SOPK enceintes : l’une, déjà connue, est sa corrélation avec une hyperandrogénie (surproduction d’androgènes). La seconde, inédite, est sa corrélation avec une surproduction d’AMH pendant la grossesse. Les chercheurs ont montré que des souris traitées à l’AMH pendant la gestation donnent naissance à des femelles qui développent les symptômes caractéristiques du SOPK à l’âge adulte. La production de taux anormalement élevés d’AMH pendant la période prénatale pourrait donc être à l’origine d’une hyperandrogénie gestationnelle et d’une imprégnation hormonale anormale du fœtus.

L’équipe a également observé que chez les souris mimant un SOPK, l’exposition in utero à des taux d’AMH anormalement élevés, était responsable, à l’âge adulte, d’une activité accrue des neurones hypothalamiques sécrétant la protéine GnRH. Cette production intense de GnRH stimule la surproduction d’une autre hormone, l’hormone lutéinisante (LH), qui elle-même stimule la production d’androgènes. Paolo Giacobini et ses collaborateurs, dont Brooke Tata et Nour El Houda Mimouni, co-premier auteurs de  l’article, démontrent ici que l’exposition prénatale à l’AMH provoquerait une véritable réaction en chaîne chez la descendance : les neurones hypothalamiques se mettraient à sécréter davantage de GnRH, ce qui accroîtrait alors la production de LH par l’hypophyse et provoquerait au final cette hausse caractéristique d’androgènes dans les ovaires, à l’origine des troubles de l’ovulation observés dans la maladie.

Forts de ces observations, les chercheurs ont appliqué sur les souris mimant le SOPK un traitement spécifique « normalisant » l’action accrue de la GnRH sur la production de LH et restauré ainsi leur fertilité. Ces observations sur modèle murin offrent des perspectives thérapeutiques inédites qui restent à confirmer à l’échelle humaine.

Comment détecte-t-on le danger ?

Les êtres vivants sont capables d’intégrer et d’identifier les informations sensorielles pertinentes telles que les odeurs, les sons ou la lumière afin de réguler leurs réponses comportementales en présence d’un danger potentiel. C’est ce qu’on appelle la discrimination contextuelle. Des chercheurs de l’Inserm basés au Neurocentre Magendie de Bordeaux, viennent de découvrir quels sont les neurones impliqués dans ce phénomène et où ils se situent. Une bonne nouvelle pour les personnes souffrant de stress post traumatique chez qui cette discrimination contextuelle est déréglée. Ces travaux sont publiés dans la revue Neuron 

Vivre des expériences traumatisantes comme une catastrophe naturelle, une attaque terroriste, ou un combat militaire, sont des événements qui peuvent mener au développement de troubles psychiatriques, comme l’état de stress post-traumatique (PTSD). Quand ces personnes se trouvent confrontées à un environnement semblable à celui dans lequel l’évènement traumatisant est arrivé, elles revivent avec la même intensité les stress du trauma original. Chez ces patients, les troubles anxieux sont associés à une généralisation contextuelle. Ils sont effectivement devenus incapables d’intégrer et d’identifier les informations sensorielles pertinentes issues de leurs cinq sens- captées dans l’environnement- afin de réguler les réponses comportementales. Les circuits neuronaux impliqués dans ce phénomène sont inconnus.

Une équipe de chercheurs dirigée par le Dr. Cyril Herry vient d’identifier pour la première fois chez la souris une population de neurones impliqués dans la discrimination contextuelle. Ces neurones sont situés dans le cortex préfrontal médial.

Pour ce faire, les chercheurs ont utilisé notamment des approches optogénétiques (voir encadré) qui permettent d’activer ou d’inhiber l’activité de populations de neurones afin de déterminer leur implication dans un comportement particulier. Afin d’évaluer les circuits neuronaux jouant un rôle dans la discrimination contextuelle, les chercheurs ont exposé des souris à un contexte composé de différents éléments sensoriels (lumière, odeur, son) dans lequel elles ont reçu un ou plusieurs chocs électriques légers afin de rendre ce contexte aversif.

Dans une deuxième étape, les souris étaient exposées au même contexte mais sans les éléments sensoriels pertinents (odeur, son, lumière) leur faisant croire à un contexte non aversif. Grâce à des enregistrements en temps réel de l’activité des neurones du cortex préfrontal médian et leur manipulation optogénétique, les chercheurs ont pu identifier une population de neurones spécifiquement activée pendant la discrimination contextuelle.

Ces travaux démontrent que l’activité neuronale dans cette zone particulière du cerveau, qu’est le cortex préfrontal médian, est un élément clé de la discrimination contextuelle. Les chercheurs ont en outre démontré que ce groupe de neurones projette spécifiquement sur le tronc cérébral, une zone du cerveau directement impliquée dans la régulation motrice des comportements émotionnels.

 » Ces travaux qui améliorent notre compréhension de l’activité neuronale menant à la discrimination contextuelle pourrait contribuer au développement de traitements et de thérapies pour les personnes souffrant de troubles anxieux » estime le Dr. Cyril Herry, directeur de recherche à l’Inserm et investigateur de ce travail. »

L’optogénétique consiste à introduire dans les neurones des protéines photosensibles naturelles, comme la channelrhodopsine, extraite d’une algue qui est une protéine sensible à la lumière bleue ou l’archaerhodopsine sensible à la lumière verte ou jaune. Lorsque la lumière bleue est introduite dans le cerveau de la souris par une fibre optique, l’activation de la channelrhodopsine génère un courant dépolarisant : cela revient à activer les neurones. En revanche, si l’archaerhodopsine est activée par une lumière verte ou jaune, cela génère un courant hyperpolarisant et les neurones sont inhibés. Ces protéines photosensibles exprimées au niveau de la membrane neuronale sont donc capables d’activer ou d’inhiber l’influx nerveux à volonté. Cela permet aux chercheurs d’identifier des réseaux neuronaux impliqués dans une tâche particulière et d’en définir le rôle causal.
fermer