Menu

Un programme informatique capable de détecter et d’identifier automatiquement des lésions cérébrales

 ©Emmanuel Barbier – Inserm/Inria/Univ. Grenobles Alpes  – Figure d’IRM chez l’homme obtenue ici en présence d’une tumeur cérébrale. En gris, des IRM classiques, en couleur, des IRM quantitatives.

La radiologie du futur viendra-t-elle du machine learning ? C’est en tous cas ce que pensent des chercheurs de l’Inserm et d’Inria qui travaillent en collaboration au sein d’Univ. Grenoble Alpes et qui ont développé un programme capable de localiser et de diagnostiquer différents types de tumeurs cérébrales par analyse d’images d’IRM. Ces analyses ont montré des résultats de haute fiabilité avec 100% de localisations exactes et plus de 90% de diagnostics corrects du type de tumeurs. Cette méthode innovante et ses résultats font l’objet d’une étude publiée dans la revue IEEE-TMI.

L’IRM, ou imagerie par résonance magnétique, est la technique d’imagerie médicale de référence dans l’obtention d’images très détaillées du cerveau car elle permet de mettre en évidence de nombreuses caractéristiques des tissus cérébraux.  L’IRM peut produire des images dites quantitatives, c’est-à-dire qui cartographient chacune un paramètre mesurable du cerveau (par exemple le débit sanguin, le diamètre vasculaire…). Bien que la qualité de ces images quantitatives soit plus indépendante du calibrage des appareils de mesure que celle des images classiques obtenues par IRM et qu’elle soit donc plus fiable, ce type de technique est encore peu utilisé en IRM clinique. 

C’est sur des protocoles d’exploitation de ces images quantitatives que travaillent des chercheurs de l’Inserm en collaboration avec une équipe de recherche de d’Inria au sein d’Univ. Grenoble Alpes. Les chercheurs ont combiné différents outils mathématiques innovants, pour apprendre à un programme informatique à analyser les images quantitatives issues d’IRM cérébraux et à diagnostiquer d’éventuelles tumeurs.

Dans un premier temps, le programme a appris à reconnaître les caractéristiques de cerveaux en bonne santé. Confronté ensuite à des images de cerveaux atteints de cancers, il est ainsi devenu capable de localiser automatiquement les régions dont les caractéristiques divergent de celles des tissus en bonne santé et d’en extraire les particularités.

Enfin, pour apprendre à l’intelligence artificielle à discriminer les différents types de tumeurs, les chercheurs lui ont ensuite indiqué le diagnostic associé à chacune des images de cerveaux malades qui lui avaient été présentées.

Afin de tester les capacités du programme à différencier les tissus sains des tissus pathologiques, l’équipe de recherche lui a fourni des images qui lui étaient inconnues, issues tantôt de cerveaux en bonne santé, tantôt de cerveaux malades. Le programme devait indiquer si une tumeur était présente dans ces images et être capable de la caractériser. Et l’intelligence artificielle s’est montrée très bonne élève en réussissant à localiser parfaitement (100%) les lésions et à les diagnostiquer de façon très fiable (plus de 90%).

« Aujourd’hui, l’obtention d’images quantitatives ne correspond pas à ce qui se fait en routine clinique dans les services d’IRM », précise Emmanuel Barbier, chercheur Inserm responsable de l’étude. « Mais ces travaux montrent l’intérêt d’acquérir ce type d’images et éclairent les radiologues sur les outils d’analyse dont ils pourront disposer prochainement pour les aider dans leurs interprétations. »

D’ici là, l’équipe de recherche va s’intéresser aux images les plus pertinentes à acquérir pour diagnostiquer le plus finement et avec la plus grande fiabilité possible les tumeurs cérébrales. Elle va donc poursuivre le développement des outils mathématiques destinés à l’amélioration des capacités d’auto-apprentissage de ce programme ; l’objectif à terme étant de parvenir à étendre le potentiel diagnostique de cette intelligence artificielle à d’autres pathologies cérébrales, telles que Parkinson.

Ces outils de machine learning par IRM quantitative appliqués aux tumeurs cérébrales sont actuellement en cours d’évaluation dans le cadre du Plan Cancer porté par l’Inserm, au sein du Programme Hétérogénéité Tumorale et Ecosystème.

Leur développement dans le cadre du diagnostic de la maladie de Parkinson est également en cours via le projet pluridisciplinaire NeuroCoG sur financement IDEX de l’Université Grenoble Alpes.

Nos choix alimentaires prédits par l’anatomie de notre cerveau

©Katherine Chase – Unsplash 

Plutôt gâteau ou légumes ? S’il est parfois difficile de manger sainement, une étude conduite par une équipe de chercheurs Inserm, CNRS et Sorbonne Université réunie autour de Liane Schmidt et de Hilke Plassmann au sein de l’Institut du Cerveau et de la Moelle épinière (ICM) a établi un lien entre l’anatomie de certaines régions de notre cerveau et la capacité de contrôle lors de choix alimentaires. Ces résultats sont publiés dans la revue The Journal of Neuroscience le 4 Juin 2018.

Manger sainement n’est pas chose aisée pour un grand nombre de personnes. La capacité à maintenir une alimentation équilibrée et à faire des choix nutritionnels sains varie grandement entre les individus.

D’un point de vue cognitif, faire un choix implique deux mécanismes principaux : le premier consiste à attribuer une valeur à chacune des options. Dans le cas des choix alimentaires, le goût de l’aliment et sa qualité nutritive peuvent par exemple déterminer sa valeur. Le deuxième mécanisme pour notre cerveau consiste à analyser la valeur donnée à chaque option pour choisir la plus adéquate, ici l’aliment auquel on aura attribué la valeur la plus importante.

Comment se traduisent ces prises de décisions dans le cerveau ? Pour répondre à ces questions, Liane Schmidt, chercheuse Inserm, Hilke Plassmann et leurs collaborateurs Anita Tusche du California Institute of Technology (USA), Cendri Hutcherson de l’Université de Toronto (Canada) et Todd Hare de l’Université de Zurich (Suisse) ont réuni les données d’imagerie cérébrale issues de quatre études portant sur la prise de décision alimentaire.

Dans trois de ces études, les participants ont effectué la même tâche qui consistait à évaluer leur appétence pour un aliment particulier selon trois critères: leur préférence naturelle, le goût de l’aliment et son bénéfice pour la santé. Les participants pouvaient ainsi baser leur choix uniquement sur le goût ou se concentrer sur l’intérêt nutritionnel de l’aliment.

Dans la quatrième étude, les participants devaient utiliser la méthode de leur choix (intérêt de faire des économies, de manger des produits bio, ou bien de faire un régime) pour réduire leur envie de produits goûteux mais sans intérêt nutritif. Dans cette dernière étude «Il s’agit d’une stratégie de contrôle plus flexible ne se focalisant pas spécifiquement sur les attributs du goût ou de la santé mais sur tous les moyens permettant de se distancier d’un aliment ou de résister à une envie.» précise Liane Schmidt, première auteure de l’étude et chercheuse Inserm.

Les chercheurs ont étudié les variations de la quantité de matière grise du cerveau des participants grâce aux données d’imagerie des trois premières études.

Ils ont ainsi mis en évidence une corrélation entre les choix alimentaires et la quantité de matière grise au niveau de deux régions du lobe frontal : la région dorso-latérale préfontale (dlPFC) – qui régit la régularisation des décisions – et la région ventro-médiale préfontale (vmPFC), en charge de l’attribution des valeurs. Ils ont observé que les personnes qui avaient plus de matière grise dans ces deux régions avaient davantage d’appétence pour les aliments qu’ils considéraient comme sains.

L’équipe de recherche a ensuite cherché à prédire les choix alimentaires des participants à la quatrième étude en se basant sur la quantité de matière grise détectable dans les deux régions identifiées précédemment. « L’idée ici était de voir si les corrélations établies dans un contexte où les stratégies de contrôle sont très claires – se concentrer sur le goût ou la santé- se généralisent à une situation où les stratégies de contrôle  sont plus vagues. » poursuit Hilke Plassmann.

Les chercheurs confirment ces résultats et établissent ainsi pour la première fois que des différences dans la neuro-anatomie des régions dlPFC et vmPFC jouent un rôle dans les prises de décisions alimentaires individuelles. Ces résultats ouvrent des perspectives pour, à terme, le traitement de troubles alimentaires associés à une perturbation du contrôle alimentaire, comme la boulimie ou l’anorexie.

Vers une compréhension de l’origine du plus fréquent des troubles de l’infertilité féminine

©Concha Rodrigo – Unsplash

Des chercheurs de l’Inserm et de l’Université  de Lille, ont découvert que le plus fréquent des troubles de la fertilité féminine – le syndrome des ovaires polykystiques (SOPK) –  serait causé par la surexcitation de neurones cérébraux. La coupable : une hormone produite par les ovaires, appelée « Hormone anti-müllerienne» (AMH),  surproduite chez les femmes souffrant d’un SOPK. Les travaux de l’équipe chez la souris montrent l’importance de l’exposition in utero à des taux anormalement élevés d’AMH dans l’occurrence de la maladie. Ces résultats parus dans Nature Medicine ouvrent la voie à de nouveaux concepts sur l’origine embryonnaire de la maladie ainsi qu’à de nouvelles pistes pour l’élaboration d’un traitement.

Une femme sur dix en âge de procréer souffre du syndrome des ovaires polykystiques ou « SOPK » qui se traduit par une forte surproduction par les ovaires d’hormones masculines, les androgènes, perturbant les mécanismes de croissance des follicules ovariens. Ceux-ci vont stagner en plus grand nombre (d’où l’appellation, à tort, d’ovaires polykystiques) et causer des dysfonctionnements de l’ovulation à l’origine d’une infertilité.

Si on sait aujourd’hui diagnostiquer la maladie, sa cause reste encore inconnue. Les options thérapeutiques utilisées à ce jour visent à réduire les symptômes et à prévenir des complications mais aucun traitement préventif ou curatif n’existe.

Une équipe coordonnée par Paolo Giacobini, directeur de recherche Inserm (Centre de recherche Jean-Pierre Aubert – Neurosciences et cancer, Inserm U1172/Université de Lille/CHU de Lille), met à mal l’hypothèse selon laquelle le SOPK n’altèrerait que les ovaires, en montrant qu’il modifierait également l’activité de neurones cérébraux situés dans l’hypothalamus et responsables du contrôle de la reproduction. En cause, une hormone produite par les ovaires et impliquée dans leur fonctionnement : l’hormone anti-müllerienne (AMH). Chez les patientes souffrant d’un SOPK, l’AMH présente une concentration sanguine deux à trois fois plus élevée, directement liée à la sévérité de la maladie.

L’équipe de recherche a basé ses travaux sur deux constatations chez les femmes SOPK enceintes : l’une, déjà connue, est sa corrélation avec une hyperandrogénie (surproduction d’androgènes). La seconde, inédite, est sa corrélation avec une surproduction d’AMH pendant la grossesse. Les chercheurs ont montré que des souris traitées à l’AMH pendant la gestation donnent naissance à des femelles qui développent les symptômes caractéristiques du SOPK à l’âge adulte. La production de taux anormalement élevés d’AMH pendant la période prénatale pourrait donc être à l’origine d’une hyperandrogénie gestationnelle et d’une imprégnation hormonale anormale du fœtus.

L’équipe a également observé que chez les souris mimant un SOPK, l’exposition in utero à des taux d’AMH anormalement élevés, était responsable, à l’âge adulte, d’une activité accrue des neurones hypothalamiques sécrétant la protéine GnRH. Cette production intense de GnRH stimule la surproduction d’une autre hormone, l’hormone lutéinisante (LH), qui elle-même stimule la production d’androgènes. Paolo Giacobini et ses collaborateurs, dont Brooke Tata et Nour El Houda Mimouni, co-premier auteurs de  l’article, démontrent ici que l’exposition prénatale à l’AMH provoquerait une véritable réaction en chaîne chez la descendance : les neurones hypothalamiques se mettraient à sécréter davantage de GnRH, ce qui accroîtrait alors la production de LH par l’hypophyse et provoquerait au final cette hausse caractéristique d’androgènes dans les ovaires, à l’origine des troubles de l’ovulation observés dans la maladie.

Forts de ces observations, les chercheurs ont appliqué sur les souris mimant le SOPK un traitement spécifique « normalisant » l’action accrue de la GnRH sur la production de LH et restauré ainsi leur fertilité. Ces observations sur modèle murin offrent des perspectives thérapeutiques inédites qui restent à confirmer à l’échelle humaine.

Comment détecte-t-on le danger ?

Les êtres vivants sont capables d’intégrer et d’identifier les informations sensorielles pertinentes telles que les odeurs, les sons ou la lumière afin de réguler leurs réponses comportementales en présence d’un danger potentiel. C’est ce qu’on appelle la discrimination contextuelle. Des chercheurs de l’Inserm basés au Neurocentre Magendie de Bordeaux, viennent de découvrir quels sont les neurones impliqués dans ce phénomène et où ils se situent. Une bonne nouvelle pour les personnes souffrant de stress post traumatique chez qui cette discrimination contextuelle est déréglée. Ces travaux sont publiés dans la revue Neuron 

Vivre des expériences traumatisantes comme une catastrophe naturelle, une attaque terroriste, ou un combat militaire, sont des événements qui peuvent mener au développement de troubles psychiatriques, comme l’état de stress post-traumatique (PTSD). Quand ces personnes se trouvent confrontées à un environnement semblable à celui dans lequel l’évènement traumatisant est arrivé, elles revivent avec la même intensité les stress du trauma original. Chez ces patients, les troubles anxieux sont associés à une généralisation contextuelle. Ils sont effectivement devenus incapables d’intégrer et d’identifier les informations sensorielles pertinentes issues de leurs cinq sens- captées dans l’environnement- afin de réguler les réponses comportementales. Les circuits neuronaux impliqués dans ce phénomène sont inconnus.

Une équipe de chercheurs dirigée par le Dr. Cyril Herry vient d’identifier pour la première fois chez la souris une population de neurones impliqués dans la discrimination contextuelle. Ces neurones sont situés dans le cortex préfrontal médial.

Pour ce faire, les chercheurs ont utilisé notamment des approches optogénétiques (voir encadré) qui permettent d’activer ou d’inhiber l’activité de populations de neurones afin de déterminer leur implication dans un comportement particulier. Afin d’évaluer les circuits neuronaux jouant un rôle dans la discrimination contextuelle, les chercheurs ont exposé des souris à un contexte composé de différents éléments sensoriels (lumière, odeur, son) dans lequel elles ont reçu un ou plusieurs chocs électriques légers afin de rendre ce contexte aversif.

Dans une deuxième étape, les souris étaient exposées au même contexte mais sans les éléments sensoriels pertinents (odeur, son, lumière) leur faisant croire à un contexte non aversif. Grâce à des enregistrements en temps réel de l’activité des neurones du cortex préfrontal médian et leur manipulation optogénétique, les chercheurs ont pu identifier une population de neurones spécifiquement activée pendant la discrimination contextuelle.

Ces travaux démontrent que l’activité neuronale dans cette zone particulière du cerveau, qu’est le cortex préfrontal médian, est un élément clé de la discrimination contextuelle. Les chercheurs ont en outre démontré que ce groupe de neurones projette spécifiquement sur le tronc cérébral, une zone du cerveau directement impliquée dans la régulation motrice des comportements émotionnels.

 » Ces travaux qui améliorent notre compréhension de l’activité neuronale menant à la discrimination contextuelle pourrait contribuer au développement de traitements et de thérapies pour les personnes souffrant de troubles anxieux » estime le Dr. Cyril Herry, directeur de recherche à l’Inserm et investigateur de ce travail. »

L’optogénétique consiste à introduire dans les neurones des protéines photosensibles naturelles, comme la channelrhodopsine, extraite d’une algue qui est une protéine sensible à la lumière bleue ou l’archaerhodopsine sensible à la lumière verte ou jaune. Lorsque la lumière bleue est introduite dans le cerveau de la souris par une fibre optique, l’activation de la channelrhodopsine génère un courant dépolarisant : cela revient à activer les neurones. En revanche, si l’archaerhodopsine est activée par une lumière verte ou jaune, cela génère un courant hyperpolarisant et les neurones sont inhibés. Ces protéines photosensibles exprimées au niveau de la membrane neuronale sont donc capables d’activer ou d’inhiber l’influx nerveux à volonté. Cela permet aux chercheurs d’identifier des réseaux neuronaux impliqués dans une tâche particulière et d’en définir le rôle causal.

Une piste innovante pour combattre la douleur chronique

La douleur neuropathique est une maladie chronique qui affecte 7 à 10 % de la population française et pour laquelle aucun traitement n’est efficace. Des chercheurs de l’Institut des neurosciences de Montpellier (Inserm/Université de Montpellier) et du Laboratoire d’innovation thérapeutique (CNRS/Université de Strasbourg)1 ont mis en évidence le mécanisme responsable de l’installation et du maintien de la douleur. Grâce à leur découverte, ils ont mis au point un prototype de traitement innovant qui montre, sur des modèles animaux, un effet thérapeutique immédiat et durable sur les symptômes douloureux. Cette étude est publiée le 12 mars 2018 dans Nature Communications.

Des chercheurs français viennent de mettre en évidence un rôle inattendu dans la douleur chronique d’une molécule particulière, appelée FLT3, connue pour son rôle dans différentes fonctions sanguines et produite par les cellules souches hématopoïétiques à l’origine de toutes les cellules sanguines. La douleur neuropathique est le résultat d’une lésion des nerfs périphériques provoquée par des pathologies comme le diabète, le cancer ou le zona ou bien causée par un traumatisme accidentel ou par une intervention chirurgicale. Dans cette étude, les chercheurs ont montré que les cellules immunitaires sanguines qui envahissent le nerf au site de la lésion synthétisent et libèrent une autre molécule, appelée FL, qui s’accroche et active FLT3, ce qui déclenche dans le système sensoriel une réaction en chaîne qui est à l’origine de la douleur. Ils ont mis en évidence que FLT3 induit et maintient la douleur en agissant très en amont sur d’autres constituants du système sensoriel, connus pour rendre permanente la douleur : c’est le phénomène de « chronicisation ».

Au-delà de la découverte du rôle de FLT3, les chercheurs ont créé, en passant informatiquement au crible trois millions de configurations possibles, une molécule anti-FLT3 (BDT001) ciblant le site d’accrochage de FL. Cette molécule bloque la liaison entre FL et FLT3, empêchant ainsi la chaîne d’événements conduisant à la douleur chronique. Administrée à des modèles animaux, BDT001 a réduit, en trois heures, les symptômes douloureux neuropathiques typiques comme l’hyperalgie, une sensation douloureuse accrue, ou l’allodynie, une réaction douloureuse à des stimuli normalement non douloureux, avec un effet qui persiste 48 heures après une seule administration.

La douleur neuropathique, qui affecte environ 4 millions de personnes en France, est une maladie invalidante avec un coût social très élevé. Les traitements actuels, essentiellement constitués de médicaments repositionnés, comme les antidépresseurs et les antiépileptiques, sont peu efficaces : moins de 50 % des patients obtiennent une réduction significative de leurs douleurs. De plus, ils peuvent générer des effets secondaires importants. Le développement de l’innovation thérapeutique2 issue de ces travaux de recherche est assuré par la start-up Biodol Therapeutics, qui pourrait ainsi mettre au point la toute première thérapie spécifique des douleurs neuropathiques et, à terme, soulager de nombreuses personnes.

Vulnérabilité à l’addiction : une mauvaise production des nouveaux neurones en cause

©AdobeStock

Les comportements d’addiction aux drogues et la vulnérabilité aux rechutes seraient liés à l’aptitude de notre cerveau à produire de nouveaux neurones. C’est la conclusion de chercheurs de l’Inserm du Neurocentre Magendie de l’Université Bordeaux, obtenue après avoir observé le comportement de souris ayant appris à s’auto-administrer de la cocaïne. Leurs résultats, à paraître dans Molecular Psychiatry, mettent en évidence un lien entre production déficiente de nouveaux neurones dans l’hippocampe et dépendance aux drogues. 

Dans le cerveau, l’hippocampe est l’un des centres de la mémoire. Il comprend le gyrus dentelé, qui présente la particularité de produire de nouveaux neurones (neurogenèse) chez l’adulte. Une neurogenèse anormale est corrélée à de nombreux désordres neuropsychiatriques comme des troubles de la mémoire ou de l’humeur.

Bien qu’une relation entre neurogenèse erratique et addiction à la drogue ait déjà été soupçonnée, jusqu’à aujourd’hui aucune preuve scientifique concrète ne venait étayer cette hypothèse. Les équipes de recherche Inserm de Nora Abrous et de Pier-Vicenzo Piazza, du Neurocentre Magendie (Unité 1215) de l’Université de Bordeaux, se sont penchées sur le rôle de la neurogenèse dans la dépendance à la cocaïne.

Deux groupes de souris ont été comparés : un groupe sain et un groupe génétiquement modifié pour que la neurogenèse au niveau de l’hippocampe soit moindre. Les souris ont été entraînées à s’auto-administrer de la cocaïne en introduisant leur nez dans un trou, déclenchant ainsi la diffusion par voie intraveineuse de cocaïne dans leur sang. Le nombre d’actions à fournir pour obtenir une quantité similaire de drogue a ensuite été progressivement augmenté. Les chercheurs ont constaté que les souris transgéniques montraient une plus grande motivation (mesurée en nombre d’actions dans les trous) à « travailler » pour obtenir de la cocaïne.

Après plusieurs semaines de sevrage, les souris ont été de nouveau exposées à l’environnement dans lequel elles avaient appris à s’auto-administrer de la cocaïne. Les souris transgéniques ont alors montré une plus grande susceptibilité à la rechute en cherchant à nouveau à déclencher l’administration de la drogue.

La transition vers l’addiction est un processus associant l’exposition répétée à des stupéfiants et une vulnérabilité propre à chaque individu : en démontrant que la neurogenèse est un facteur clé dans la vulnérabilité à l’addiction, ces travaux offrent de nouvelles perspectives dans la compréhension de la fragilité individuelle face à la pharmacodépendance.

Ces recherches ouvrent également de nouvelles pistes pour la compréhension des conduites addictives chez les adolescents. « L’adolescence, période d’initiation à la consommation de drogues, est une étape de maturation du cerveau importante, caractérisée en particulier par une production de neurones extrêmement intense dans le gyrus dentelé »  précise Nora Abrous, chercheuse Inserm, qui avait déjà montré en 2002 l’impact négatif de la prise de drogues sur la production et la survie des nouveaux neurones de l’hippocampe. Elle ajoute que « la prise de drogue, en diminuant la production de ces neurones, rendraient les adolescents plus addicts et plus vulnérables à la rechute lors de tentatives de sevrage ».

Dans ses prochains travaux, son équipe « cherchera à manipuler les nouveaux neurones à l’aide d’approches de pharmacogénétique, de façon à diminuer la motivation des souris pour la drogue et à bloquer les rechutes au cours du sevrage ».

Des mécanismes de compensation intellectuelle chez les malades en début d’Alzheimer

©Tiago Muraro – Unsplash

L’étude INSIGHT-preAD, dirigée par le Pr Bruno Dubois et menée par des équipes AP-HP, Inserm, CNRS et Sorbonne Université au sein de l’Institut du cerveau et de la moelle épinière (ICM) et de l’Institut de la mémoire et de la maladie d’Alzheimer (IM2A), à l’Hôpital Pitié Salpêtrière AP-HP, en collaboration avec la cohorte MEMENTO, vise à observer chez des sujets âgés de plus de 70 ans, bien portants et sans trouble cognitif, les facteurs de développement de la maladie d’Alzheimer. 

Promue par l’Inserm, cette étude montre, à 30 mois de suivi, que la présence de lésions amyloïdes (lésions Alzheimer) n’a pas d’impact sur la cognition et le comportement des sujets qui en sont porteurs.

Ses résultats, publiés le 28 février 2018 dans la revue Lancet neurology, suggèrent l’existence de mécanismes de compensation chez les sujets porteurs de ces lésions.

Les médicaments actuellement en développement dans le traitement de la maladie d’Alzheimer montrent une efficacité significative sur les lésions cérébrales des patients, sans toutefois réduire de manière conjointe les symptômes. Les essais thérapeutiques seraient ainsi réalisés trop tardivement, chez des patients trop avancés dans la maladie. D’où l’idée de tester l’efficacité des traitements de façon plus précoce, c’est-à-dire au début ou avant même l’apparition des symptômes chez des patients porteurs de lésions cérébrales de la maladie d’Alzheimer. Ce qui nécessite de bien comprendre les marqueurs de la progression de la maladie à son stade pré-clinique.

L’étude INSIGHT-preAD (pour “INveStIGation of AlzHeimer’s PredicTors in subjective memory complainers – Pre Alzheimer’s disease”), pilotée par le Pr Bruno Dubois, directeur du centre des maladies cognitives et comportementales de l’hôpital de la Pitié-Salpêtrière AP-HP et professeur de neurologie à Sorbonne Université, vise à identifier ces facteurs de développement.

Elle s’appuie sur le suivi longitudinal (dans le temps) d’une cohorte active, lancée en mai 2013 à la Pitié-Salpêtrière AP-HP, de 318 patients volontaires âgés de plus de 70 ans, avec une plainte de mémoire subjective mais dont les performances cognitives et mnésiques sont normales.

Les participants ont accepté au départ que l’on détermine la présence ou non de lésions de la maladie d’Alzheimer (lésions dites « amyloïdes ») dans leur cerveau grâce à un examen d’imagerie. 28% d’entre eux étaient porteurs de lésions même s’ils n’en présentaient à ce stade aucun facteur.

A leur entrée dans l’étude INSIGHT-preAD, aucune différence n’était observée entre les sujets amyloïdes positifs et amyloïdes négatifs dans les tests cognitifs (mémoire, langage, orientation), fonctionnels et comportementaux. Aucune différence n’était observée entre les sous-groupes dans l’intensité de la plainte de mémoire, ni en neuro-imagerie structurelle (IRM) ou métabolique (PET-FDG).

L’étude INSIGHT-preAD prévoyait ensuite un suivi avec bilan neuropsychologique, électroencéphalogramme et actigraphie tous les ans, ainsi que des prélèvements sanguins (pour la recherche de biomarqueurs) et des examens de neuro-imagerie (IRM, PET-FDG et PET-amyloïde) tous les deux ans.

Les équipes ont analysé l’ensemble des données recueillies au démarrage de l’étude et à deux ans, en plus d’une évaluation clinique des sujets volontaires à 30 mois de suivi.

Elles n’ont pas noté de changement significatif entre les sujets amyloïdes positifs et ceux négatifs pour l’ensemble des marqueurs (comportementaux, cognitifs, fonctionnels) observés ainsi qu’en neuro-imagerie. En revanche, l’électroencéphalogramme montrait chez les patients porteurs de lésions une modification de l’activité électrique des régions antérieures de leur cerveau, notamment frontales, pour un maintien de leurs performances intellectuelles et mnésiques.

A deux ans et demi de suivi, seuls quatre sujets ont progressé vers la maladie d’Alzheimer. A leur entrée dans l’étude, ces patients présentaient des facteurs prédictifs, comme un âge plus avancé, une concentration de lésions amyloïdes plus élevée et un volume hippocampique diminué.

Ces résultats montrent ainsi que la présence de lésions amyloïdes cérébrales ne s’accompagne pas de modifications cognitives, morphologiques, métaboliques ou fonctionnelles chez les patients porteurs de ces lésions. Ils suggèrent l’existence de mécanismes de compensation confortés par les modifications électro-encéphalographiques observées.

La progression vers la maladie d’Alzheimer de ces patients âgés en moyenne de 76 ans est donc faible, ce qui témoigne d’une réserve cognitive importante pour ce type de population. Poursuivre ce suivi est donc nécessaire pour déterminer si ce constat se vérifie toujours après une plus longue période. 

L’étude INSIGHT-preAD fera l’objet d’un nouveau point d’étape en 2022. 

Ces travaux bénéficient d’un soutien financier du Ministère de la Recherche (Investissement d’avenir), de la Fondation Plan-Alzheimer et du laboratoire Pfizer.

En 2017 le pôle de recherche clinique de l’Inserm a été en charge de 238 études en phase de mise en conformité et en cours de réalisation et de 28 projets en cours d’expertise. Le pôle de recherche clinique accompagne 15 projets européens et/ou internationaux. En 2017, il a été impliqué dans l’élaboration de 6 futurs projets internationaux, dont 4 débuteront en 2018

Horloge biologique : à chaque organe, son rythme

©Adobe Stock

Une équipe de chercheurs de l’Inserm dirigée par Howard Cooper (Unité Inserm 1208  » Institut cellule souche et cerveau ») en collaboration avec des collègues américains fournit pour la première fois une cartographie inédite de l’expression des gènes, organe par organe, et selon le moment de la journée ; un travail colossal commencé il y a dix ans et qui a nécessité deux ans d’analyse. Ces résultats publiés dans Science montrent combien il est important de tenir compte de l’horloge biologique pour administrer les médicaments au bon moment afin d’améliorer leur efficacité et d’en réduire les effets indésirables. Les chercheurs préparent désormais un atlas qui sera disponible pour l’ensemble de la communauté.

Environ deux tiers des gènes codant pour des protéines sont exprimés de façon cyclique au cours des 24 heures avec des pics en matinée et en début de soirée. Néanmoins, cette expression varie beaucoup d’un tissu à l’autre confirmant que, en plus de l’horloge centrale interne, chaque organe exprime sa propre horloge. Une équipe Inserm le prouve pour la première fois chez une espèce diurne et fournit une cartographie spatio-temporelle inédite de l’expression circadienne des gènes pour l’ensemble des organes. Ces travaux marquent une avancée majeure dans le domaine de la chronobiologie.

Jusque-là, les études destinées à explorer le rythme circadien dans les différents organes étaient menées principalement chez des animaux modèles comme la drosophile (travaux récompensés l’année dernière par le prix Nobel) et les espèces nocturnes, en particulier la souris. L’horloge circadienne étant principalement synchronisée par le cycle de lumière jour-nuit, il aurait été tentant d’inverser le cycle pour obtenir des données chez les animaux diurnes. Mais les rongeurs ne sont pas seulement en décalage de phase par rapport à l’homme, ils ont aussi un mode de vie très différent : un sommeil fragmenté de jour comme de nuit contre un sommeil plus consolidé pendant la nuit pour les diurnes ou encore une alimentation permanente pendant la phase d’éveil nocturne alors que les hommes prennent  des repas répartis de façon régulière. Autant de facteurs qui contribuent également à la synchronisation de l’horloge biologique. Il était donc temps de travailler chez des espèces plus proches de l’homme pour en savoir plus chez ce dernier.

Pour cela, les chercheurs ont analysés les ARNs de plus de 25 000 gènes de 64 organes et tissus, toutes les deux heures et pendant vingt-quatre heures, chez des primates non humains. Les organes principaux ont été passés au crible ainsi que différentes régions du cerveau. Au total, les chercheurs ont analysé 768 prélèvements. Un travail colossal commencé il y a dix ans et qui a nécessité deux ans d’analyse ! Pour chacun d’entre eux, ils ont recherché, quantifié et identifié les ARN présents dans les cellules. Ces ARN deviennent ensuite des protéines ou restent à l’état d’ARN avec des propriétés régulatrices sur d’autres molécules. C’est ce qu’on appelle le transcriptome.

 

80% des gènes réglés sur l’horloge biologique assurent les fonctions essentielles des cellules

Les auteurs ont constaté que 80% des gènes exprimés de façon cyclique, codent pour des protéines assurant des fonctions essentielles de la vie des cellules comme l’élimination des déchets, la réplication et la réparation de l’ADN, le métabolisme, etc. Mais, il existe une très grande diversité des transcriptomes, c’est-à-dire de l’ensemble des ARN, présents dans les cellules des différents échantillons au cours des 24 heures.

Le nombre de gènes exprimés de façon cyclique varie en nombre (environ 3000 dans la thyroïde ou le cortex préfrontal contre seulement 200 dans la moelle osseuse) et en nature : moins de 1% des gènes « rythmiques » dans un tissu le sont également dans les autres tissus. 

Même les treize gènes connus de l’horloge biologique, que les auteurs s’attendaient à retrouver de façon cyclique dans tous les échantillons, n’y sont finalement pas tous présents, pas dans les mêmes quantités ou pas au même moment. Les seuls points communs entre ces 64 tissus sont finalement les pics bien définis d’expression des gènes au cours de la journée : en fin de matinée et en début de soirée. Le premier, le plus important, survient entre 6 et 8 heures après le réveil avec plus de 11.000 gènes exprimés à ce moment-là dans l’organisme. Et le second moins intense voit environ 5000 gènes en action dans les tissus. Puis, les cellules sont quasiment au repos au cours de la nuit, particulièrement lors de la première partie de la nuit.

Ces résultats ont surpris les auteurs par l’ampleur de la rythmicité des organes du primate non humain et des applications possibles.  » Deux tiers des gènes codants fortement rythmés, c’est beaucoup plus que ce à quoi nous nous attendions » clarifie Howard Cooper, directeur de recherche Inserm au sein de l’équipe « Chronobiologie et Désordres Affectifs » de l’Unité Inserm 1208. « Mais surtout, 82% d’entre eux codent des protéines ciblées par des médicaments ou sont des cibles thérapeutiques pour de futurs traitements. Cela prouve combien il est important de tenir compte de l’horloge biologique pour administrer les médicaments au bon moment de la journée afin d’améliorer l’efficacité et de réduire les effets indésirables. Quelques experts travaillent sur ces questions, notamment dans le domaine du cancer, mais il faut à mon avis aller beaucoup plus loin. C’est pourquoi nous préparons un véritable atlas, sous forme de base de données consultable, pour permettre aux scientifiques du monde entier de connaitre enfin le profil d’expression de chaque gène dans les différents organes au cours de 24 heures « , précise le chercheur

Migraine : ces zones du cerveau que l’on croyait indolores

©Carson Arias – Unsplash

Aurait-on cru à tort depuis 70 ans que certaines zones du cerveau étaient insensibles à la douleur ? C’est ce que laissent penser les résultats d’une équipe de chercheurs de l’Inserm, du CHU de Nice, d’Université Côte d’Azur et de l’hôpital St Anne à Paris. En collectant des observations de douleurs brèves lors de chirurgies du cerveau sur patients éveillés, les chercheurs ont pu observer que certaines structures, jusqu’alors considérées comme indolores, étaient à l’origine de sensations douloureuses lorsqu’elles étaient stimulées mécaniquement. Ces observations, publiées prochainement dans la revue Brain, ouvrent de nouvelles pistes à explorer dans le traitement des maux de tête et de la migraine en particulier.

Depuis plus de 70 ans, il est communément admis que la sensibilité douloureuse intracrânienne est limitée à la dure-mère – l’enveloppe méningée la plus externe qui tapisse la voûte et la base du crâne – et à ses vaisseaux nourriciers. La pie-mère – la méninge la plus fine, qui tapisse les circonvolutions et sillons cérébraux – et ses vaisseaux nourriciers sont considérés comme insensibles à la douleur. Ce postulat permet aux neurochirurgiens de réaliser des chirurgies intracrâniennes (craniotomies) indolores sur des patients éveillés. Jusqu’à présent, ce principe conditionnait également les recherches concernant le traitement des maux de tête et notamment de la migraine.

Afin de mieux comprendre l’origine des maux de tête, des chercheurs de l’Inserm, du CHU de Nice et d’Université Côte d’Azur se sont intéressés à cette insensibilité supposée de la pie-mère et de ses vaisseaux nourriciers. Pour réaliser cette étude, ils ont mis à contribution de 2010 à 2017, 3 neurochirurgiens et 53 de leurs patients atteints de tumeurs cérébrales devant être extraites en craniotomie éveillée. Durant l’opération, les patients soumis aux stimulations mécaniques inhérentes à l’acte chirurgical, devaient indiquer quand et où ils ressentaient une douleur. Le chirurgien notait quant à lui les structures crâniennes dont la stimulation avait provoqué la douleur.

En moyenne, près de deux sensations douloureuses ont été rapportées par patient, toutes du même côté que celui du stimulus. La douleur, brève et aiguë, s’arrêtait dès la fin de la stimulation. Les chercheurs ont notamment constaté que les stimulations de la pie-mère et de ses vaisseaux nourriciers entraînaient une douleur, localisée la plupart du temps dans le territoire sensitif V1. Ce territoire innerve le front, les orbites, la cornée, les régions temporales supérieures et antérieures, la racine du nez ainsi que la muqueuse nasale.                      

 

 

©Denys Fontaine – Correspondance entre à droite, les zones stimulées de la pie-mère lors des chirurgies et à gauche, les zones où le patient indique avoir ressenti la douleur.

Ces observations contredisent la théorie admise jusqu’à présent et plaident en faveur d’une sensibilité à la douleur de la pie-mère et de ses vaisseaux nourriciers. Elles permettent également de suggérer que ces structures peuvent être impliquées dans les céphalées, au même titre que les autres structures crâniennes sensibles.

Pour des raisons éthiques et pratiques, il n’a pas été possible lors de cette étude d’explorer systématiquement les structures crâniennes apparues comme sensibles. Cependant, l’identification des récepteurs impliqués dans la détection des messages douloureux pourrait constituer un nouvel axe de recherche pour le traitement des céphalées et, notamment, de la migraine.

Des puces pour modéliser et mieux comprendre la maladie de Huntington

©Inserm/Saudou, Frédéric

En combinant l’utilisation de neurones issus de souris modèles de la maladie de Huntington, une maladie neurologique d’origine génétique, et la technologie microfluidique, l’équipe de Frédéric Saudou, Directeur de Grenoble Institut des Neurosciences (GIN – Inserm/UGA) et responsable de l’équipe « Dynamiques intracellulaires et neurodégénérescence », en collaboration avec Benoit Charlot, de l’Institut d’électronique des systèmes (CNRS/Université de Montpellier), a reconstitué sur une puce le circuit neuronal atteint chez les patients. Cette étude qui a permis d’identifier un nouveau mécanisme pathogénique, a été publiée dans la revue Cell Reports le 2 janvier 2018.

La maladie de Huntington est une affection d’origine génétique qui touche en France environ 6 000 personnes, et concerne plus de 12 000 porteurs du gène muté, provisoirement indemnes de signes cliniques. Elle est caractérisée par des troubles cognitifs, psychiatriques et des mouvements incontrôlés.

Le gène HTT, responsable de la maladie, synthétise une protéine, la huntingtine, impliquée dans la régulation des dynamiques intracellulaires. À l’état normal, cette protéine contient des répétitions d’un acide aminé, la glutamine. Des répétitions qui peuvent devenir dangereuses : à partir d’un certain seuil (36 glutamines), la huntingtine est mutante et induit la maladie. Et plus les répétitions sont nombreuses, plus les symptômes apparaissent tôt.

Une des caractéristiques de la maladie est la dysfonction du circuit corticostriatal qui connecte deux régions du cerveau, le cortex et le striatum. Ces deux régions expriment la protéine mutante et dégénèrent dans la maladie de Huntington mais les mécanismes cellulaires impliqués sont encore mal compris. Jusqu’à présent, il était très difficile d’étudier les altérations du circuit avec une résolution subcellulaire.

Grace à l’approche microfluidique qui consiste à fabriquer dans un matériau biocompatible et transparent des chambres de culture et des canaux à l’échelle des cellules, les chercheurs ont pu contrôler la pousse et l’orientation des axones dans des canaux micrométriques pouvant atteindre jusqu’à 500 microns de longueur afin de reconstituer le circuit corticostriatal. Cette étude identifie ainsi les étapes critiques qui étaient altérées lorsque les neurones expriment la huntingtine mutante avec une résolution spatiotemporelle inédite. Cette étude montre le rôle fondamental du cortex dans la genèse des dysfonctions au niveau du circuit entier. En effet, grâce au système microfluidique, les chercheurs ont pu isoler les neurones du cortex et du striatum dans des compartiments identifiés afin de reconstituer des circuits hybrides contenant un cortex sain avec un striatum malade, et vice versa. L’équipe a ainsi montré que des neurones de cortex malade sont suffisants pour induire les dysfonctions du circuit alors même que les neurones du striatum sont sains. À l’inverse, des neurones corticaux sains sont capables de sauver les neurones du striatum malade.

Ces travaux permettent de mieux comprendre comment la huntingtine mutante induit la dysfonction et la mort sélective de ces deux régions du cerveau. Ces résultats devraient permettre de développer des stratégies thérapeutiques mieux adaptées pour les patients puisqu’elle identifie le cortex comme une cible d’importance pour empêcher la neurodégénerescence du striatum.

Ce modèle représente également une nouvelle approche pour tester et valider des molécules à intérêt thérapeutique.

fermer