Menu

Une piste pour rétablir la bonne intégration des informations sensorielles chez les autistes

Chez les enfants autistes, les informations en provenance des 5 sens : du toucher, de l’ouïe, de la vision, ou d’autres stimuli, ne sont pas intégrées correctement dans le cerveau, conduisant à un comportement inapproprié et à des réactions parfois violentes. Des chercheurs de l’Inserm dirigé par Andréas Frick au sein de l’Unité Inserm 862 « Neurocentre Magendie » viennent de comprendre pourquoi en étudiant un modèle de souris mimant la maladie. Ils ont même trouvé une molécule pouvant inverser ces effets et rétablir un comportement « normal » chez ces souris.
Ces résultats sont publiés dans la revue
Nature Neuroscience

cerveau c Fotolia

Les troubles du spectre autistique (TSA) touchent plus de 3 millions de personnes dans l’union européenne dont environ 650 000 en France. Des estimations récentes du Centre pour le contrôle des maladies (aux Etats-Unis) suggèrent qu’un enfant sur 68 est touché par cette maladie. Les TSA sont des troubles neuro-développementaux qui affectent les enfants de toutes origines ethniques et socio-économiques, et sont caractérisés par un spectre de symptômes regroupant à la fois des difficultés pour les interactions sociales et la communication, et des comportements répétitifs stéréotypés.

Un autre aspect fréquent des maladies neuro-développementales est le problème du traitement des informations sensorielles. Près de 90% des enfants avec des TSA sont touchés par différents types de problèmes sensoriels. Les anomalies d’intégration sensorielle proviennent du fait que les informations périphériques, que ce soit du touché, de l’ouïe, de la vision, ou d’autres stimuli, ne sont pas intégrées ou organisées correctement dans le cerveau, conduisant à un comportement inapproprié. De telles anomalies peuvent être extrêmement handicapantes au quotidien pour les personnes atteintes d’autisme et elles posent un défi aux parents et éducateurs. Par exemple, lors d’une sortie au supermarché, de simples lumières fluorescentes peuvent être une expérience sensorielle aversive. Malheureusement, les altérations de l’intégration sensorielle dans ces maladies et leurs traitements pharmacologiques sont peu étudiées, et ceci alors même que ces altérations sont également fréquemment observées dans une maladie neuro-développementale apparentée, à savoir le Syndrome de l’X Fragile.

Dans une étude publiée dans Nature Neuroscience, des chercheurs de l’Inserm (en collaboration avec des chercheurs du CNRS) ont montré que des souris Fragile X présentent des anomalies dans la façon dont les informations sensorielles sont traitées par le néocortex, qui est la partie du cerveau responsable entre autres de la perception sensorielle. Les chercheurs ont montré que le néocortex de ces souris est hyper-excité en réponse à des stimulations sensorielles tactiles. Ils ont ensuite effectué une variété de tests détaillés montrant que cette hyperexcitabilité néocorticale est reliée à la façon dont les neurones de cette région du cerveau intègrent les informations sensorielles. Avec cette étude, les chercheurs ont trouvé que la fonction de certains canaux ioniques (les molécules qui déterminent la façon dont les neurones traitent les signaux électriques) est altérée dans le compartiment dendritique (la structure qui intègre les informations et qui se comporte véritablement comme le « cerveau » des neurones).

En utilisant une molécule pharmacologique mimant le fonctionnement d’un de ces canaux, ils ont pu corriger cette hyperexcitabilité néocorticale ainsi que les anomalies de l’intégration neuronale.

De plus, ils ont aussi été capables de corriger une conséquence comportementale notamment de l’hypersensibilité aux stimuli sensoriels (les souris saines n’ont pas été affectées par ce traitement). Ces découvertes offrent un nouvel espoir pour un traitement sur mesure des aspects sensoriels du Syndrome de l’X Fragile et des troubles du spectre autistique, en particulier car ces traitements pourraient être appliqués à des patients adultes ou adolescents.

Dépression à répétition : quels effets sur le cerveau ?

La dépression n’est pas un banal coup de cafard et altère les fonctions intellectuelles de manière pérenne si elle n’est pas prise en charge. D’après les résultats d’une étude menée par Philip Gorwood (Unité Inserm 894  » Centre de psychiatrie et neurosciences », Clinique des Maladies Mentales et de l’Encéphale- CMME, Centre Hospitalier Sainte-Anne), les personnes qui ont déjà connu 2 épisodes dépressifs ou plus exécutent de manière anormalement lente des tâches cognitives courantes qui requièrent notamment attention, concentration et rapidité. Ces résultats publiés dans la revue European Neuropsychopharmacology semblent confirmer que la dépression est une maladie qui serait « neurotoxique ». Prévenir les rechutes s’avère donc essentiel.Fotolia_12376795_Scredits]fotolia[/credits]La dépression est une maladie fréquente qui a touché, touche ou touchera au moins une personne sur dix. Elle se caractérise par une tristesse permanente, une perte d’envie et de plaisir, une altération de l’appétit, du sommeil et de la libido. Son diagnostic correspond à des critères précis établis par des standards internationaux de psychiatrie. Si les différentes prises en charge, médicamenteuses comme psychothérapeutiques, ont démontré leur efficacité, le risque de rechute reste élevé, même plusieurs années après la rémission.

Ce sont les conséquences de ces rechutes à répétition qui inquiètent les médecins et chercheurs. S’il est maintenant prouvé qu’il existe un ralentissement psychomoteur chez les personnes déprimées (c’est d’ailleurs un des critères de diagnostic de la maladie), rien n’indiquait jusqu’alors que cette altération pouvait persister après l’épisode dépressif.

Pour en savoir plus, les chercheurs de l’Inserm ont mené une étude chez plus de 2000 patients ayant connu entre 1 et plus de 5 épisodes dépressifs au cours de leur vie. Afin d’évaluer leurs capacités cognitives, ils ont mesuré la rapidité à exécuter un test simple (le TMT : trail making test) qui consiste à relier des cercles numérotés et placés dans le désordre sur une feuille. Le test a été effectué deux fois chez chacun des patients : pendant l’épisode dépressif, puis 6 semaines après, lorsqu’une bonne partie de ces patients était en rémission complète (sans aucun symptôme dépressif résiduel).

Juste après une 1ère dépression, le temps nécessaire pour réaliser ce test est de 35 secondes. Ces performances sont à peu près identiques chez les personnes qui subissent le deuxième épisode dépressif de leur vie. Mais, pour les personnes qui ont déjà vécu 2, 3 ou plus d’épisodes dépressifs dans leurs antécédents, ce temps se rallonge considérablement, et ce même chez les sujets rétablis (1min20 au lieu des 35 sec).


« Plusieurs autres variables sont potentiellement explicatives (âge, niveau d’étude, activité professionnelle…) mais si on ajuste les paramètres, nos résultats restent extrêmement robustes » précise Philip Gorwood.Trails_Screenshot2           test TMA

Fig 1 : Exemple de test TMT    
Fig 2 : Rapidité d’exécution du test TMT pendant et après la dépression selon le nombre d’épisodes dépressifs vécus auparavant.

Ce résultat est le premier à montrer aussi simplement les effets « neurotoxiques » de la dépression. Il conforte également les observations quotidiennes des médecins et les conclusions de précédentes études épidémiologiques, à savoir que la dépression est une maladie qui s’aggrave avec le temps. Les chercheurs estiment donc qu’après le traitement, la prévention des rechutes doit être une des priorités de la prise en charge.

Par ailleurs, cette étude pourrait aussi fournir une explication possible à ce cercle vicieux : plus j’ai connu d’épisodes dépressifs plus je risque de rechuter. Si la rapidité et l’efficacité sont de plus en plus altérées au fur et à mesure des rechutes, on conçoit qu’il soit plus difficile de s’adapter à de nouvelles situations. Par exemple, un employé travaillant sur ordinateur, manifestant des capacités d’attention limitée, des oublis dans les tâches demandées et une lenteur dans l’ensemble de la réalisation de son travail, aura une estime de lui plus faible, moins de reconnaissance de son entourage professionnel ce qui pourrait le rendre plus vulnérable aux rechutes dépressives en cas de stress quel qu’il soit.

Enfin, le fait que ces altérations cognitives soient une séquelle de la dépression pourrait aussi être considéré comme un argument en faveur de l’utilisation de la « remédiation cognitive ». Cette thérapie est basée sur une sollicitation encadrée de fonctions cognitives défectueuses afin de réduire le risque de rechute. Elle est très utilisée dans la schizophrénie ou les addictions mais est peu employée pour remédier aux troubles de la dépression. »

L’étude INSIGHT : mieux comprendre les facteurs de déclenchement de la maladie d’Alzheimer

Plus de 35 millions de personnes dans le monde souffrent de démence, incluant la maladie d’Alzheimer [1]. En France, en 2014, environ 900.000 personnes sont atteintes et la prévalence de la maladie va considérablement augmenter : on estime que 1,3 million de personnes seront atteintes en 2020 [2] et plus de 2 millions en 2040 [3], avec plus de 225.000 nouveaux cas déclarés chaque année.

La Journée Mondiale de la Maladie d’Alzheimer qui aura lieu le dimanche 21 septembre, est l’occasion de faire un état des lieux de l’avancée de la recherche et de présenter INSIGHT, une étude inédite lancée par des équipes de l’Inserm et de l’Assistance Publique-Hôpitaux de Paris (AP-HP) au sein de l’Institut de la Mémoire et de la Maladie d’Alzheimer (IM2A) et de l’Institut du Cerveau et de la Moelle épinière (ICM), rassemblées au sein de l’IHU-A-ICM, et en collaboration avec Pfizer, visant à observer et comprendre l’histoire naturelle de la maladie d’Alzheimer. INSIGHT est une étude ancillaire de la cohorte nationale MEMENTO.Etude de la maladie d'Alzheimer

Etude de la maladie d’Alzheimer – Atrophie de l’hémisphère cérébral consécutif à la maladie d’Alzheimer.

INSIGHT est une étude innovante sur la maladie d’Alzheimer, et l’une des 1ères au monde à suivre des sujets sains à risque. Porteuse de grandes ambitions en matière de compréhension de la maladie, ses résultats pourraient apporter la promesse de traitements futurs pour les malades.

« Les recherches sur la maladie d’Alzheimer, et plus globalement sur les pathologies liées aux troubles de la mémoire, sont en pleine évolution. Nous sommes aujourd’hui en mesure de reconnaître la maladie très tôt grâce à une signature biologique identifiable chez tous les patients. Ce que nous cherchons désormais à explorer, ce sont les conditions endogènes et exogènes de l’évolution de la maladie : pourquoi et comment elle se déclare chez certains sujets mais pas chez d’autres » précise le Professeur Bruno Dubois, Directeur de l’IM2A (l’Institut de la Mémoire et de la Maladie d’Alzheimer, hébergé à la Pitié Salpêtrière à Paris) et Directeur de l’Equipe Inserm « Cognition, Neuro-imagerie et Maladies du Cerveau » à l’ICM, qui dirige cette étude en tant qu’investigateur principal.

Méthode d’investigation
Le projet est de suivre 400 sujets sains volontaires âgés de 70 ans à 85 ans, dont les bilans de mémoire sont normaux. Il ne s’agit ni de dépister ni de traiter la maladie mais d’observer l’évolution de ces sujets sains. Ont-ils des lésions dans le cerveau ? Vont-ils déclarer la maladie ? Quelles sont les délais d’apparition des premiers symptômes ? Ces sujets bénéficient tout au long de l’étude du suivi et de l’accompagnement d’une des meilleures équipes mondiales sur les pathologies liées à la mémoire. A ce jour, près de 220 sujets ont déjà été recrutés.
Cette étude monocentrique, qui se déroulera dans sa totalité à l’IM2A (l’Institut de la mémoire et de la maladie d’Alzheimer hébergé à la Pitié-Salpêtrière, AP-HP), constitue en soi un défi sans précédent.

INSIGHT est une étude ambitieuse rendue possible grâce à un dispositif innovant inédit dans la recherche médicale : un socle pluri-partenarial associant notamment les investissements d’avenir à travers l’IHU-A-ICM et Pfizer aux côtés des équipes de l’IM2A et de l’ICM autour d’un objectif commun, mieux comprendre la maladie d’Alzheimer

[1] Voir à ce sujet le rapport 2013 d’Alzheimer’s Disease International
[2] Chiffres issus du dossier d’information Inserm dédié à la maladie d’Alzheimer
[3] Plus d’informations sur le site de France Alzheimer & maladie apparentées

Alim Louis Benabid reçoit le prix Lasker 2014

Le Prix Lasker 2014 vient d’être décerné à Alim-Louis Benabid, directeur de l’Unité Inserm 318 « Neurobiologie préclinique » de 1988 à 2006 et lauréat en 2008 du prix d’honneur de l’Inserm, pour ses travaux sur la stimulation cérébrale profonde dans le traitement de la maladie de Parkinson.

Le Prix Lasker récompense depuis 1945 les chercheurs les plus brillants ayant contribué à de grandes avancées dans le diagnostic, le traitement et la prévention des maladies humaines. Il est considéré par l’ensemble de la communauté internationale comme l’antichambre du prix Nobel. Le Pr Benabid est le 8ème Français à obtenir ce prix.

Prix d'Honneur Inserm 2008 : Alim-Louis Benabid

© Inserm/Latron, Patrice

Né le 2 mai 1942 à la Tronche, près de Grenoble, Alim-Louis Benabid a passé son enfance à Sétif, en Algérie. Il revient en France mener ses études secondaires à Grenoble et ses études supérieures aux facultés de médecine et des sciences de Paris.

Interne des hôpitaux, docteur en médecine (1970), Docteur ès sciences en physique (1978) et professeur de de biophysique à l’université Joseph-Fourier de Grenoble, il dirige l’unité de recherche 318 de l’Inserm « Neurobiologie préclinique » de 1988 à 2006.

Alim-Louis Benabid a centré ses recherches sur plusieurs pathologies du cerveau, en particulier les tumeurs et les mouvements anormaux, et développé la chirurgie dite « stéréotaxique », qui permet de cibler de façon très précise certaines zones du cerveau. Il en a étendu les applications au traitement de patients atteints de la maladie de Parkinson résistants aux médicaments et à celui d’autres troubles cérébraux.

Entre 1987 et 1991, Alim-Louis Benabid et ses collaborateurs développent une technique visant à implanter des électrodes dans le cerveau de patients atteints de la maladie de Parkinson en vue de procéder à des stimulations électriques à haute fréquence. Ils obtiennent ainsi la disparition des symptômes moteurs (tremblement, akinésie, rigidité) de la maladie. Cette intervention présente une efficacité remarquable, une très faible morbidité et permet de diminuer les traitements médicaux. Elle constitue actuellement le traitement chirurgical le plus efficace de la maladie de Parkinson et apporte également des données fondamentales d’un intérêt théorique considérable.

Alim-Louis Benabid a également élargi les indications de la stimulation électrique profonde à d’autres pathologies : dystonies, épilepsie rebelle, troubles obsessionnels compulsifs.

L’introduction d’électrodes dans le cerveau, technologie mise au point sous sa direction, a été saluée par le monde scientifique international comme étant une découverte majeure.

Alim-Louis Benabid oriente ensuite ses travaux vers la compréhension des mécanismes d’action de la stimulation cérébrale profonde à haute fréquence et la mise en évidence de ses possibles effets à long terme, notamment neuroprotecteurs, sur l’évolution naturelle de la maladie de Parkinson. Il s’attache également à l’identification précise des cibles efficaces et des réseaux neuronaux mis en jeu lors de cette intervention.

Yves Lévy, Président-Directeur général de l’Inserm tient à adresser toutes ses félicitations à Alim Louis Benabid : « Ce prix prestigieux est à l’image de ses brillants travaux sur la maladie de Parkinson qui améliorent significativement le quotidien des malades. L’attribution de ce prix internationalement reconnu confirme l’excellence de la recherche biomédicale française. Il souligne également l’importance de mener en parallèle une recherche fondamentale et une recherche clinique de haut niveau. »

Conseiller scientifique auprès du Commissariat à l’énergie atomique (CEA) depuis 2007,il associe aujourd’hui ses recherches dans ce domaine à celles menées dans le champ des nanotechnologies, dans le cadre du projet CLINATEC. Développé par la direction de la recherche technologique du CEA, en partenariat avec le CHU de Grenoble, l’Inserm et l’université Joseph Fourier de Grenoble, ce laboratoire de recherche biomédicale dédié aux applications des micro-nanotechnologies pour la santé répond à un enjeu de santé public majeur : développer de nouvelles approches thérapeutiques des maladies cérébrales.

Pister la représentation des odeurs dans le cerveau grâce à l’imagerie par ultrasons

Une nouvelle technique d’imagerie par ultrasons a permis de visualiser pour la première fois, in vivo chez le rat, l’activité dans le cortex piriforme lors de la perception d’une odeur. Cette structure cérébrale profonde joue un rôle important dans l’olfaction et restait jusqu’à présent inaccessible par imagerie fonctionnelle. Ces travaux apportent également de nouvelles données sur le fonctionnement, encore mal connu, du système olfactif, notamment sur la façon dont sont traitées les informations au niveau cérébral.
Cette étude est le résultat d’une collaboration entre l’équipe de Mickaël Tanter de l’Institut Langevin (CNRS/Inserm/ESPCI ParisTech/UPMC/Université Paris Diderot) et celle de Hirac Gurden du laboratoire Imagerie et modélisation en neurobiologie et cancérologie (CNRS/Université Paris-Sud/Université Paris Diderot). Elle est publiée dans la revue NeuroImage du 15 juillet 2014.

Comment aboutir à une représentation de l’environnement extérieur à partir de la perception des sens ? Comment, par exemple, les informations olfactives liées à la nourriture ou aux parfums sont-elles traitées par le cerveau ? Si l’organisation du système olfactif est bien connue – elle est semblable des insectes jusqu’aux mammifères – son fonctionnement est encore peu compris. Pour répondre à ces questions, les chercheurs se sont donc intéressés à deux structures cérébrales qui constituent des relais majeurs pour l’olfaction : le bulbe olfactif et le cortex piriforme. Chez le rat, le bulbe olfactif se situe entre les deux yeux, juste derrière l’os du nez. Le cortex piriforme est par contre une structure beaucoup plus profonde du cerveau des rongeurs dont aucune image fonctionnelle n’avait pu être enregistrée chez un animal  vivant jusqu’à présent.

La technique d’imagerie neurofonctionnelle par ultrasons  développée par l’équipe de Mickaël Tanter, baptisée fUS (functional Ultrasound), a permis de suivre l’activité neuronale du cortex piriforme. Elle est basée sur l’envoi d’ondes planes ultrasonores dans les tissus cérébraux. Les échos renvoyés par les structures traversées par ces ondes permettent, après traitement des données, d’obtenir des images ayant une résolution spatiotemporelle inégalée : 80 micromètres et quelques dizaines de millisecondes.
Le contraste obtenu sur ces images est lié aux variations du flux sanguin dans le cerveau. En effet, l’activité des cellules nerveuses nécessite un apport en énergie : elle est donc couplée à un afflux de sang dans la zone concernée. En enregistrant les variations de volume dans les vaisseaux sanguins qui alimentent les différentes structures cérébrales, il est ainsi possible de connaître la localisation des neurones activés.

Plusieurs techniques d’imagerie, comme l’IRM, s’appuient déjà sur le lien entre volume sanguin et activité neuronale. Mais fUS est avantageuse en terme de coût, de maniabilité et de résolution. De plus, elle donne un accès facilité aux structures les plus profondes, situées plusieurs centimètres sous la boîte crânienne.

Les enregistrements effectués par cette technique dans l’équipe de Hirac Gurden ont permis d’observer la répartition spatiale de l’activité dans le bulbe olfactif. Lorsqu’une odeur est perçue, on observe une augmentation du volume sanguin dans des zones bien définies : à chaque odeur correspond une carte spécifique de neurones sollicités. Au-delà de ce résultat, les images révèlent aussi, pour la première fois, l’absence de cette répartition spatiale dans le cortex piriforme. A ce niveau, deux odeurs différentes entraînent la même activation de l’ensemble de la zone.

Les mécanismes cellulaires responsables de la disparition de la signature spatiale ne sont pas encore bien définis mais ce résultat permet déjà de formuler plusieurs hypothèses. Le cortex piriforme pourrait être une structure qui ne sert pas seulement à traiter les stimuli olfactifs mais plutôt à intégrer plusieurs types d’informations et à les mémoriser. Se détacher des cartographies strictes associées à chaque odeur permettrait de faire des associations et d’aboutir à un concept global. Par exemple, à partir de la perception de centaines de molécules odorantes contenues dans le café, le cortex piriforme permettrait de reconnaître une unique odeur : celle du café.

Ces travaux ouvrent de nouvelles perspectives pour l’imagerie et pour la neurobiologie. Les chercheurs vont maintenant s’intéresser à l’effet de l’apprentissage sur l’activité du cortex afin de mieux comprendre son rôle et les spécificités du système olfactif.

ultrasons_olfaction_artifica

Sur ces images, l’activation cérébrale détectée par imagerie ultrasonore est visualisée en rouge. A la présentation d’une odeur donnée, des territoires spécifiques sont sollicités dans le bulbe olfactif mais pas dans le cortex piriforme. © Michaël Tanter / Hirac Gurden

Maladie d’Alzheimer : un diagnostic simplifié, avec les critères les plus fiables

Combien de patients ont un diagnostic erroné de la maladie d’Alzheimer ? La réponse surprend par son importance: plus d’un tiers ! Pour limiter les erreurs, les critères de diagnostic doivent être les plus fiables possibles, en particulier au stade très précoce de la maladie. C’est ce sur quoi planche, depuis une dizaine d’années, une équipe internationale de neurologues, coordonnée par Bruno Dubois (UMRS 975 Inserm/Université Pierre et Marie-Curie/AP-HP). Dans la revue The Lancet Neurology de juin, les chercheurs sont parvenus à un diagnostic simplifié avec les critères les plus spécifiques de la maladie. Un enjeu principalement pour la recherche, mais aussi pour la clinique.

La maladie d’Alzheimer est une maladie neurodégénérative. C’est la plus fréquente (70%) des démences. En France, le nombre de personnes souffrant de la maladie d’Alzheimer et d’autres démences est estimé entre 750.000 et un million et devrait atteindre 1,29 à 1,40 million de patients en 2030. La maladie d’Alzheimer est due à une perte de neurones. C’est l’accumulation de certaines protéines cérébrales qui est à l’origine des lésions. La pathologie commence par des troubles de la mémoire. Puis viennent des difficultés à s’orienter dans l’espace et le temps, des troubles du comportement et une perte d’autonomie. Mais ces symptômes ne sont pas spécifiques de la maladie d’Alzheimer. Et tout l’enjeu est de savoir distinguer cette pathologie d’autres démences, de poser le diagnostic le plus fiable et le plus précoce possible.

En 2005, un groupe international de neurologues, coordonné par Bruno Dubois à l’Inserm, s’est réuni pour redéfinir les critères diagnostiques établis en 1984. Jusqu’alors, il fallait attendre la mort d’un patient pour pouvoir établir avec certitude le diagnostic de maladie d’Alzheimer, après l’examen des lésions dans son cerveau. Et de son vivant, on ne pouvait évoquer qu’une probabilité de pathologie et seulement à un stade tardif, à partir d’un certain seuil de sévérité de démence.

En 2007, l’équipe internationale a fait voler en éclats ces concepts. Les chercheurs ont introduit de nouveaux critères diagnostiques, en particulier des biomarqueurs. Il s’agit de véritables signatures de la pathologie, présentes dès les premiers symptômes (stade prodromal).

La publication de ces résultats a constitué une révolution. Des chercheurs se sont alors aperçus qu’avec ces nouveaux critères, « 36% de leurs patients inclus dans un essai thérapeutique sur la base d’anciens critères cliniques n’avaient pas la maladie d’Alzheimer », rapporte Bruno Dubois. Et même si cette analyse n’a porté que sur un sous-groupe de patients, l’enjeu est important. Des patients n’ont pas reçu le bon traitement et/ou la bonne prise en charge. Et la mauvaise sélection des patients a peut-être eu un impact sur l’absence d’efficacité du nouveau traitement qui a été observée.

Depuis 2007, beaucoup d’études ont été publiées. Et le groupe international a décidé d’analyser cette littérature pour rendre plus simple et plus fiable l’algorithme de diagnostic de la maladie d’Alzheimer.

« On est au bout du chemin, on arrive à l’essentiel, à quelque chose d’épuré, émanant d’un consensus international», indique le Pr Dubois. Le diagnostic de la maladie d’Alzheimer repose désormais sur « un seul couple de critère clinico-biologique pour tous les stades de la pathologie » (cf encadré).

Cet algorithme plus simple et plus fiable est important, tout d’abord pour la recherche (essais thérapeutiques, caractérisation de la pathologie, suivi de cohortes de patients…). En dehors de la recherche, l’utilisation des biomarqueurs, qui est onéreuse et/ou invasive, reste pour l’instant limitée aux patients jeunes ou aux cas difficiles ou complexes dans des centres experts.

Le diagnostic de la maladie d’Alzheimer repose la plupart du temps d’abord sur un profil clinique évocateur. Il est ensuite confirmé ou infirmé par un biomarqueur.

Pour le profil clinique, trois situations existent :

–        cas typiques (80 à 85% de tous les cas): troubles de la mémoire épisodique à long terme (appelés syndrome amnésique de type hippocampique et correspondant par exemple à la difficulté de se rappeler d’une liste de mots même avec des indices)

–        cas atypiques (15 à 20% des cas): atrophie de la partie arrière du cortex cérébral ou aphasie logopénique (trouble de la mémoire verbale où le patient répète un mot en inversant les syllabes par exemple) ou atteinte de la partie avant du cerveau (qui donne des troubles du comportement)

–        états précliniques: asymptomatiques à risque (patients sans symptôme mais pour lesquels on découvre fortuitement dans le cadre d’études scientifiques qu’ils ont des biomarqueurs positifs) et présymptomatiques (ayant une mutation génétique)

L’un des deux biomarqueurs suivants est nécessaire :

–        dans le liquide céphalorachidien (issu d’une ponction lombaire) : teneurs anormales de protéines cérébrales (en baisse pour la  protéine bêta amyloïde et en hausse pour la protéine tau)

–        dans le cerveau par neuro-imagerie TEP (tomographie par émission de positons) : rétention élevée du traceur amyloïde

Tablet mit der Diagnose Alzheimer auf dem Display

Des neurones d’emblée trop sensibles au stress cellulaire dans la maladie de Huntington

Les neurones ne peuvent pas se défendre correctement contre la maladie de Huntington, et ce, dès le début de la pathologie. C’est ce qu’une équipe de chercheurs de l’Inserm de l’Institut de biologie Paris-Seine (Inserm/CNRS/université Pierre et Marie Curie) et leurs collègues américains et australiens ont découvert. En cause, la défaillance d’un mécanisme important de longévité cellulaire. Au-delà de ce résultat, cette étude montre l’importance de restaurer la capacité de résistance au stress des neurones pour retarder les manifestations de la maladie. Des travaux qui conduisent à une nouvelle façon d’envisager de traiter les maladies neurodégénératives.Les résultats de ce travail sont publiés dans PLoS Biology.

Rôle de la huntingtine au cours de la mitose ©Inserm/Elias, Salah

La maladie de Huntington est une pathologie neurodégénérative héréditaire dont les symptômes comprennent des mouvements involontaires (chorée) et des troubles cognitifs et psychiatriques. La maladie se déclare à tous les âges de la vie, mais en général vers 40 ans. Elle évolue sur de nombreuses années, avec une perte d’autonomie progressive et un décès au bout de 15 à 20 ans en moyenne. Aucun traitement curatif ni préventif n’est actuellement disponible. Mais une prise en charge adaptée peut améliorer l’état des patients.

Environ 6.000 personnes seraient touchées par cette maladie en France, et probablement plus portent la mutation génétique à l’origine de la maladie. Des facteurs génétiques, épigénétiques et environnementaux permettraient d’expliquer les différences entre les patients, tant dans la diversité et la sévérité des symptômes rencontrés, que dans l’âge d’apparition de la maladie.

La maladie de Huntington est causée par des mutations dans le gène de la huntingtine et la production de protéines du même nom dont la forme est anormale. La huntingtine mutée génère un stress cellulaire continu qui conduit à la mort de certains neurones, notamment dans le striatum (partie centrale du cerveau). A partir de ce postulat, les chercheurs ont émis l’hypothèse que l’étude de cette maladie pourrait permettre de comprendre comment les neurones résistent au stress dans les maladies neurodégénératives.

«  Jusqu’à présent, on pensait que les neurones étaient capables de s’adapter à cette situation stressante, d’y résister en mobilisant pleinement leurs capacités de compensation. Ce que l’on a découvert, c’est que la résistance au stress de ces neurones est défaillante d’entrée de jeu, qu’elle est plus faible que celle d’une cellule normale », indique Christian Néri, directeur de recherche à l’Inserm à l’Institut de biologie Paris-Seine (Inserm/CNRS/université Pierre et Marie Curie). «  C’est une situation inattendue due à des anomalies précoces qui viennent bloquer les mécanismes de longévité des neurones adultes. Cela pose la question de « l’âge biologique » des neurones dans les maladies neurodégénératives », ajoute-t-il.

Le scientifique et ses collègues français, américains et australiens ont travaillé sur un petit ver (C. elegans) qui, grâce à sa transparence, rend facile une manipulation et une observation des neurones. A partir ces animaux dans lesquels le gène de la huntingtine mutée est introduit dans les neurones, ils ont étudié les effets de la huntingtine à l’échelle du génome à l’aide de modélisations mathématiques. Ils ont mis en évidence une inhibition des protéines FOXO, qui sont connues pour jouer un rôle important dans la longévité et la résistance au stress. Chez les centenaires, les gènes FOXO seraient efficaces pour lutter contre le stress cellulaire. Le secret de leur longévité s’expliquerait par un meilleur « équipement » pour résister au stress.

Les chercheurs ont confirmé ces résultats dans d’autres modèles de la maladie, mettant en lumière les liens étroits entre la longévité cellulaire et la résistance aux maladies neurodégénératives.

Mais surtout, ces travaux qui sont au centre du Laboratoire International Associé (LIA) de l’Inserm ‘Longévité Neuronale’ montrent l’importance de restaurer la capacité de résistance au stress des neurones pour retarder les manifestations de la maladie.


 Cette piste thérapeutique pourrait être particulièrement intéressante pour lutter contre les tout premiers stades de la maladie de Huntington et d’autres maladies neurodégénératives.

neri 1 neri 2

photo 1 : Les chercheurs ont fait appel à la biologie systémique pour déchiffrer la complexité des effets toxiques de la huntingtine mutée sur le génome des neurones. Ils ont analysé l’expression de ce génome par des modélisations mathématiques basées sur les réseaux d’interaction entre les gènes. Le résultat est illustré ici sous forme stylisée en 3D

photo 2 :Les chercheurs ont travaillé sur de petits vers transparents. Il s’agit de nématodes C. elegans transgéniques modélisant la pathologie neuronale dans la maladie de Huntington. On peut voir chez l’animal vivant des anomalies morphologiques des axones grâce à des marqueurs fluorescents.

Surdité : une perte auditive en apparence légère peut masquer un déficit plus profond

Grâce à un modèle de souris reproduisant une perturbation de la perception des sons aigus chez l’homme, des chercheurs de l’Institut Pasteur, de l’Inserm, du Collège de France, et de l’Université Pierre et Marie Curie, en collaboration avec une équipe de l’université d’Auvergne, ont pu élucider les anomalies en cause, et mettre en évidence une altération profonde du traitement des fréquences sonores. Ces travaux offrent une explication à la gêne considérable que représente le bruit pour la perception des fréquences aiguës chez certains malentendants. Ils suggèrent qu’un bilan auditif plus complet chez le praticien pourrait permettre d’améliorer le diagnostic de ces troubles, et de mieux prendre en charge les personnes concernées qui, malgré une perte auditive évaluée comme modérée par l’analyse audiométrique standard, nécessitent d’être appareillées, avec un ciblage fréquentiel approprié de la correction auditive.

surdite

Alors que leur examen audiométrique ne révèle qu’une perte auditive légère, certains patients se plaignent pourtant d’une gêne profonde et de difficultés de compréhension importantes de la parole dans les milieux bruités, qui les handicapent au quotidien. En étudiant une souris porteuse d’une mutation affectant certaines cellules sensorielles de l’oreille interne, des chercheurs ont établi un parallèle avec le tableau clinique de ces malentendants. Le projet a été mené par le Dr. Aziz El-Amraoui, et par le Pr. Christine Petit,  dans l’unité de génétique et physiologie de l’audition (Institut Pasteur/Inserm/Université Pierre et Marie Curie) qu’elle dirige, en étroite collaboration avec l’équipe de biophysique neurosensorielle de l’UMR Inserm 1107 à l’Université d’Auvergne, conduite par le Pr. Paul Avan.

La souris étudiée présente une perte auditive en apparence très modérée, qui ne concerne que les sons aigus (sons de haute fréquence), qui sont traités à la base de la cochlée. Les défauts morphologiques observés par les chercheurs sont pourtant très importants à ce niveau : les cellules ciliées externes de la base de la cochlée ne peuvent plus répondre aux hautes fréquences, et leurs touffes ciliaires, qui jouent le rôle d’antenne de réception du son, sont gravement touchées (cf photographie).

L’introduction de sons interférents a conduit les chercheurs à mettre en évidence, chez cette souris, un phénomène inédit : une perturbation considérable de la détection des sons aigus en présence de sons beaucoup plus graves (deux octaves) et d’intensité bien moindre. Les chercheurs ont pu identifier l’origine de ce défaut : indemne de toute atteinte, la région apicale de la cochlée, qui traite normalement les sons graves, répondrait, chez la souris mutante, non seulement aux sons graves, mais également aux sons aigus. Elle se substituerait ainsi fonctionnellement à leur région habituelle de codage, la base de la cochlée, qui a perdu sa sensibilité. Dans une cochlée saine, les sons aigus ne peuvent pas atteindre la région apicale, en raison des caractéristiques physiques de la membrane qui les propage. Les anomalies de la touffe ciliaire chez la souris mutante permettraient aux vibrations des sons aigus d’emprunter une autre voie de propagation aux caractéristiques physiques bien différentes.

Transposés à l’homme, ces résultats pointent l’existence, chez certains individus, d’audiogrammes faussement optimistes, qui dissuadent à tort de les appareiller. Pour améliorer le diagnostic, il serait donc judicieux de proposer de manière plus routinière aux personnes présentant une gêne auditive en présence de bruits de basse fréquence des tests auditifs complémentaires, permettant notamment d’analyser finement la réponse fréquentielle des cellules sensorielles auditives. Les prothèses auditives prescrites dans une telle situation devraient veiller à rétablir sélectivement la détection des hautes fréquences, tout en évitant l’interférence par les sons graves.

Illustration : Touffes ciliaires de cellules ciliées externes provenant d’une souris normale (en haut) et d’une souris mutante (en bas), analysées par microscope électronique. – Copyright Institut Pasteur – V. Michel & K. Kamiya

 Cette étude a été financée par le grant ERC-hair bundle ”2011-ADG_20110310”, le Labex ”Lifesenses”, la société japonaise ”Promotion of Science and Uehara Memorial Foundation”, Réunica Prévoyance, Humanis, Errera Hoechstettee, la fondation BNP-Paribas et la fondation ”Voir et Entendre”.

La crise d’épilepsie : une activité primitive du cerveau dont les mécanismes sont conservés à travers les espèces

Tout semble différencier une mouche d’un homme. Et pourtant, aussi étonnant que cela puisse paraitre, des chercheurs de l’Inserm dirigés par Christophe Bernard et Viktor Jirsa au sein de l’Institut de Neurosciences des Systèmes (INS) – Inserm U1106 à Marseille viennent de montrer que les crises d’épilepsie suivent des règles mathématiques simples et conservées à travers les espèces. La crise d’épilepsie est une forme d’activité neuronale qui est encodée dans tout cerveau sain, mais qui ne s’exprime que dans situations pathologiques. Grâce à l’identification de ces principes de base, les chercheurs ont pu classer rigoureusement les crises en 16 types distincts ; une classification qui sera très utile aux cliniciens pour envisager des traitements de plus en plus personnalisés et rechercher de nouveaux médicaments. Ces travaux sont publiés dans la revue Brain.

Photo CP Brain epilepsie
Qu’est-ce qu’une crise d’épilepsie? Cette question constitue une énigme pour les patients, leurs proches, les chercheurs et les médecins depuis des siècles. Les crises arrivent souvent sans signe avant-coureur avec des manifestations cliniques qui peuvent être spectaculaires. Pour les chercheurs et les médecins, la crise est considérée comme un problème très difficile à résoudre, faisant appel à des mécanismes très complexes.

Une percée majeure vient d’être faite par deux équipes de l’Institut de Neurosciences des Systèmes (INS) – Inserm U1106 à Marseille. Combinant neuroscience théorique, recherche fondamentale et clinique, les chercheurs ont apporté la preuve que les principes qui régissent le début, le décours et la fin des crises d’épilepsie focales (une forme d’épilepsie très répandue) sont d’une très grande simplicité et invariantes entre les régions du cerveau et les espèces, de la mouche à l’Homme.

Le point de départ est simple : tout cerveau sain peut faire une crise, par exemple après un électrochoc, un traumatisme crânien etc. sans être et sans forcément devenir épileptique. Autrement dit, cette activité du cerveau qu’est la crise existe à l’état latent chez chacun d’entre nous. La crise est naturellement codée dans nos neurones. Elle est toujours possible, mais dans un cerveau « sain » la probabilité qu’elle se produise est très faible.

Nous allons utiliser une métaphore pour décrire le résultat principal. Représentons-nous l’activité du cerveau au moyen d’un personnage qui se déplace dans un pays composé de montagnes, de vallées, de plaines, de plages etc. Les différentes régions du pays constituent autant d’activités dans lesquelles le cerveau est engagé (par exemple, lire un livre, faire du vélo etc.). Au sein de ce pays, il y a un endroit très particulier : une zone interdite entourée d’une très haute barrière. Cette zone interdite est toujours là, elle fait partie du paysage, mais notre personnage ne peut pas y pénétrer. Cette zone interdite, c’est la crise d’épilepsie. Il faut des conditions extrêmes pour rentrer dedans – comme par exemple après un électrochoc.

Les chercheurs de l’Institut de Neurosciences des Systèmes ont construit un modèle mathématique décrivant ce qui se passe à partir du moment où la barrière est franchie (début de la crise) jusqu’au moment où le personnage finit par ressortir de la zone interdite (fin de la crise) et retrouve une activité normale à l’extérieur. Ils ont montré que les trajectoires d’entrée et de sortie de la crise suivent des règles mathématiques simples et précises. Ils ont aussi montré que la crise est peut-être la forme d’activité la plus simple – ou primitive – que le cerveau peut générer.

« Le modèle mathématique prédit l’existence de 16 types de crises, ce qui permet de classer rigoureusement les crises ; une classification qui sera très utile aux cliniciens pour le traitement de ces crises et la recherche de nouveaux médicaments. » Explique Christophe Bernard, directeur de recherche à l’Inserm.

Les chercheurs ont ensuite vérifié expérimentalement les prédictions du modèle mathématique, en analysant les crises enregistrées chez différentes espèces, y compris chez l’Homme (en utilisant une base de données internationale). 

Ils ont pu ainsi montrer que les règles d’entrée et de sortie de la crise étaient invariantes de la mouche à l’Homme. C’est donc la même zone interdite qui est présente dans la plupart des régions du cerveau à travers les espèces.

Pourquoi l’épilepsie est-elle si difficile à traiter ?

En utilisant un modèle expérimental d’épilepsie chez la souris, les chercheurs ont démontré que la zone interdite peut être pénétrée à de multiples endroits. Autrement il y a de nombreuses façons d’effriter la barrière. Cette multiplicité de possibilités explique pourquoi les traitements doivent être adaptés à chaque patient, parce que le passage de la barrière ne se fait pas forcément au même endroit d’un individu à l’autre.

Ces travaux revêtent une importance majeure, non seulement parce qu’ils contribuent à démythifier l’épilepsie, mais aussi parce qu’ils fournissent un cadre conceptuel pour mieux comprendre les mécanismes des crises et proposer de nouvelles solutions thérapeutiques.

Que se passe-t-il chez les patients qui font des crises ?
Chez les patients, la barrière s’est effritée, et il est beaucoup plus facile de rentrer dans la zone interdite. Cette destruction de la barrière est un phénomène très courant. Elle se produit naturellement au cours du vieillissement, et c’est pour cette raison que la fréquence de l’épilepsie augmente avec l’âge. Les enfants sont aussi très susceptibles aux crises d’épilepsie, parce que leur barrière n’est pas assez haute. De nombreuses pathologies comme l’autisme, la maladie d’Alzheimer, la maladie de Huntington sont associées à des crises d’épilepsies, parce que les effets destructeurs que ces pathologies engendrent dans le cerveau finissent par éroder la barrière. C’est pour cette raison que l’épilepsie peut exister seule ou associée à d’autres pathologies. Les conditions pathologiques, la maladie, ne font que révéler une activité qui existe potentiellement en chacun de nous.

Comment le cerveau s’adapte à toutes les situations?

© CC BY-SA 2.0 by ZeroOne

Lorsque l’on est face à une situation incertaine, changeante voire nouvelle, notre cerveau opte, après un moment de réflexion, pour une solution plutôt qu’une autre. C’est le raisonnement par lequel l’Homme s’adapte à de telles situations, que vient de décrypter l’équipe d’Etienne Koechlin, directeur du laboratoire de Neurosciences Cognitives (Inserm/ENS). Les chercheurs ont découvert l’algorithme du cortex cérébral préfrontal permettant à l’Homme de raisonner pour s’adapter à ce type de situation grâce à deux processus distincts.

Les résultats sont publiés dans la revue Science Express le 29 mai 2014.

La prise de décision a lieu grâce à l’activité d’une zone cérébrale du lobe frontal appelée cortex préfrontal. Jusqu’à présent, on savait que cette zone était impliquée dans la prise de décision et le contrôle de l’action. Seulement, on ignorait comment cette zone cérébrale dotait l’homme de capacités de raisonnement et de jugement particulièrement développées et fortement sollicitées dans des situations nouvelles.

Dans cette étude publiée dans Science Express, les chercheurs du laboratoire de neurosciences Cognitives (Inserm/ENS) ont analysé l’activité cérébrale de 40 jeunes individus (18-26 ans) en bonne santé soumis à un protocole inspiré du jeu de société Mastermind. Ils devaient faire face à un scénario incertain et variable comme dans ce jeu où le joueur doit raisonner pour déduire la combinaison de pions de son partenaire à partir d’information parcellaire, mais aussi s’adapter car dans le protocole utilisé celle-ci pouvait changer à l’insu des participants.

Grâce à la neuroimagerie, les chercheurs ont découvert le fonctionnement algorithmique du cortex préfrontal expliquant comment les humains raisonnent pour s’adapter à des situations incertaines, changeantes et nouvelles.

L’étude révèle le rôle clé joué par deux régions. La première, située entre les régions ventro- et dorso-medial du cortex préfrontal, est capable d’évaluer la situation et détermine s’il faut ajuster le comportement de l’individu ou explorer de nouvelles stratégies plus ou moins connues par l’individu, c’est-à-dire émergeant de sa mémoire à long terme.

La seconde, appelée « frontopolaire », très antérieure et latérale des lobes frontaux, considéréee comme absente chez les primates non-humains, est capable d’analyser en parallèle la pertinence de 2 ou 3 stratégies alternatives. « La zone frontoplolaire permet à l’individu de tester en parallèle plusieurs hypothèses concurrentes et notamment de juger de la pertinence de former de nouvelles hypothèses émergeant de sa mémoire à long terme » explique Etienne Koechlin, directeur de recherche Inserm et principal auteur de l’étude.

Ces deux voies fonctionnent conjointement et sont à l’origine du raisonnement qui consiste à comparer, tester des hypothèses et les accepter ou les rejeter vis-à-vis d’autres stratégies nouvellement envisagées par l’individu.

« Nos résultats constituent une avancée majeure, puisque c’est la première fois que ce fonctionnement algorithmique est modélisé mathématiquement et mis à jour dans cette zone du cerveau «  conclut-il.

Le fonctionnement du cortex préfrontal est massivement altéré dans les maladies neuropsychiatriques. Son développement se poursuit tardivement dans l’adolescence et il est altéré dans le vieillissement. Ces résultats ouvrent de nombreuses perspectives puisqu’ils permettront de mieux comprendre comment son développement, son vieillissement et ses pathologies changent les capacités de jugement des individus et comment y remédier.

fermer