Menu

Pister la représentation des odeurs dans le cerveau grâce à l’imagerie par ultrasons

Une nouvelle technique d’imagerie par ultrasons a permis de visualiser pour la première fois, in vivo chez le rat, l’activité dans le cortex piriforme lors de la perception d’une odeur. Cette structure cérébrale profonde joue un rôle important dans l’olfaction et restait jusqu’à présent inaccessible par imagerie fonctionnelle. Ces travaux apportent également de nouvelles données sur le fonctionnement, encore mal connu, du système olfactif, notamment sur la façon dont sont traitées les informations au niveau cérébral.
Cette étude est le résultat d’une collaboration entre l’équipe de Mickaël Tanter de l’Institut Langevin (CNRS/Inserm/ESPCI ParisTech/UPMC/Université Paris Diderot) et celle de Hirac Gurden du laboratoire Imagerie et modélisation en neurobiologie et cancérologie (CNRS/Université Paris-Sud/Université Paris Diderot). Elle est publiée dans la revue NeuroImage du 15 juillet 2014.

Comment aboutir à une représentation de l’environnement extérieur à partir de la perception des sens ? Comment, par exemple, les informations olfactives liées à la nourriture ou aux parfums sont-elles traitées par le cerveau ? Si l’organisation du système olfactif est bien connue – elle est semblable des insectes jusqu’aux mammifères – son fonctionnement est encore peu compris. Pour répondre à ces questions, les chercheurs se sont donc intéressés à deux structures cérébrales qui constituent des relais majeurs pour l’olfaction : le bulbe olfactif et le cortex piriforme. Chez le rat, le bulbe olfactif se situe entre les deux yeux, juste derrière l’os du nez. Le cortex piriforme est par contre une structure beaucoup plus profonde du cerveau des rongeurs dont aucune image fonctionnelle n’avait pu être enregistrée chez un animal  vivant jusqu’à présent.

La technique d’imagerie neurofonctionnelle par ultrasons  développée par l’équipe de Mickaël Tanter, baptisée fUS (functional Ultrasound), a permis de suivre l’activité neuronale du cortex piriforme. Elle est basée sur l’envoi d’ondes planes ultrasonores dans les tissus cérébraux. Les échos renvoyés par les structures traversées par ces ondes permettent, après traitement des données, d’obtenir des images ayant une résolution spatiotemporelle inégalée : 80 micromètres et quelques dizaines de millisecondes.
Le contraste obtenu sur ces images est lié aux variations du flux sanguin dans le cerveau. En effet, l’activité des cellules nerveuses nécessite un apport en énergie : elle est donc couplée à un afflux de sang dans la zone concernée. En enregistrant les variations de volume dans les vaisseaux sanguins qui alimentent les différentes structures cérébrales, il est ainsi possible de connaître la localisation des neurones activés.

Plusieurs techniques d’imagerie, comme l’IRM, s’appuient déjà sur le lien entre volume sanguin et activité neuronale. Mais fUS est avantageuse en terme de coût, de maniabilité et de résolution. De plus, elle donne un accès facilité aux structures les plus profondes, situées plusieurs centimètres sous la boîte crânienne.

Les enregistrements effectués par cette technique dans l’équipe de Hirac Gurden ont permis d’observer la répartition spatiale de l’activité dans le bulbe olfactif. Lorsqu’une odeur est perçue, on observe une augmentation du volume sanguin dans des zones bien définies : à chaque odeur correspond une carte spécifique de neurones sollicités. Au-delà de ce résultat, les images révèlent aussi, pour la première fois, l’absence de cette répartition spatiale dans le cortex piriforme. A ce niveau, deux odeurs différentes entraînent la même activation de l’ensemble de la zone.

Les mécanismes cellulaires responsables de la disparition de la signature spatiale ne sont pas encore bien définis mais ce résultat permet déjà de formuler plusieurs hypothèses. Le cortex piriforme pourrait être une structure qui ne sert pas seulement à traiter les stimuli olfactifs mais plutôt à intégrer plusieurs types d’informations et à les mémoriser. Se détacher des cartographies strictes associées à chaque odeur permettrait de faire des associations et d’aboutir à un concept global. Par exemple, à partir de la perception de centaines de molécules odorantes contenues dans le café, le cortex piriforme permettrait de reconnaître une unique odeur : celle du café.

Ces travaux ouvrent de nouvelles perspectives pour l’imagerie et pour la neurobiologie. Les chercheurs vont maintenant s’intéresser à l’effet de l’apprentissage sur l’activité du cortex afin de mieux comprendre son rôle et les spécificités du système olfactif.

ultrasons_olfaction_artifica

Sur ces images, l’activation cérébrale détectée par imagerie ultrasonore est visualisée en rouge. A la présentation d’une odeur donnée, des territoires spécifiques sont sollicités dans le bulbe olfactif mais pas dans le cortex piriforme. © Michaël Tanter / Hirac Gurden

Maladie d’Alzheimer : un diagnostic simplifié, avec les critères les plus fiables

Combien de patients ont un diagnostic erroné de la maladie d’Alzheimer ? La réponse surprend par son importance: plus d’un tiers ! Pour limiter les erreurs, les critères de diagnostic doivent être les plus fiables possibles, en particulier au stade très précoce de la maladie. C’est ce sur quoi planche, depuis une dizaine d’années, une équipe internationale de neurologues, coordonnée par Bruno Dubois (UMRS 975 Inserm/Université Pierre et Marie-Curie/AP-HP). Dans la revue The Lancet Neurology de juin, les chercheurs sont parvenus à un diagnostic simplifié avec les critères les plus spécifiques de la maladie. Un enjeu principalement pour la recherche, mais aussi pour la clinique.

La maladie d’Alzheimer est une maladie neurodégénérative. C’est la plus fréquente (70%) des démences. En France, le nombre de personnes souffrant de la maladie d’Alzheimer et d’autres démences est estimé entre 750.000 et un million et devrait atteindre 1,29 à 1,40 million de patients en 2030. La maladie d’Alzheimer est due à une perte de neurones. C’est l’accumulation de certaines protéines cérébrales qui est à l’origine des lésions. La pathologie commence par des troubles de la mémoire. Puis viennent des difficultés à s’orienter dans l’espace et le temps, des troubles du comportement et une perte d’autonomie. Mais ces symptômes ne sont pas spécifiques de la maladie d’Alzheimer. Et tout l’enjeu est de savoir distinguer cette pathologie d’autres démences, de poser le diagnostic le plus fiable et le plus précoce possible.

En 2005, un groupe international de neurologues, coordonné par Bruno Dubois à l’Inserm, s’est réuni pour redéfinir les critères diagnostiques établis en 1984. Jusqu’alors, il fallait attendre la mort d’un patient pour pouvoir établir avec certitude le diagnostic de maladie d’Alzheimer, après l’examen des lésions dans son cerveau. Et de son vivant, on ne pouvait évoquer qu’une probabilité de pathologie et seulement à un stade tardif, à partir d’un certain seuil de sévérité de démence.

En 2007, l’équipe internationale a fait voler en éclats ces concepts. Les chercheurs ont introduit de nouveaux critères diagnostiques, en particulier des biomarqueurs. Il s’agit de véritables signatures de la pathologie, présentes dès les premiers symptômes (stade prodromal).

La publication de ces résultats a constitué une révolution. Des chercheurs se sont alors aperçus qu’avec ces nouveaux critères, « 36% de leurs patients inclus dans un essai thérapeutique sur la base d’anciens critères cliniques n’avaient pas la maladie d’Alzheimer », rapporte Bruno Dubois. Et même si cette analyse n’a porté que sur un sous-groupe de patients, l’enjeu est important. Des patients n’ont pas reçu le bon traitement et/ou la bonne prise en charge. Et la mauvaise sélection des patients a peut-être eu un impact sur l’absence d’efficacité du nouveau traitement qui a été observée.

Depuis 2007, beaucoup d’études ont été publiées. Et le groupe international a décidé d’analyser cette littérature pour rendre plus simple et plus fiable l’algorithme de diagnostic de la maladie d’Alzheimer.

« On est au bout du chemin, on arrive à l’essentiel, à quelque chose d’épuré, émanant d’un consensus international», indique le Pr Dubois. Le diagnostic de la maladie d’Alzheimer repose désormais sur « un seul couple de critère clinico-biologique pour tous les stades de la pathologie » (cf encadré).

Cet algorithme plus simple et plus fiable est important, tout d’abord pour la recherche (essais thérapeutiques, caractérisation de la pathologie, suivi de cohortes de patients…). En dehors de la recherche, l’utilisation des biomarqueurs, qui est onéreuse et/ou invasive, reste pour l’instant limitée aux patients jeunes ou aux cas difficiles ou complexes dans des centres experts.

Le diagnostic de la maladie d’Alzheimer repose la plupart du temps d’abord sur un profil clinique évocateur. Il est ensuite confirmé ou infirmé par un biomarqueur.

Pour le profil clinique, trois situations existent :

–        cas typiques (80 à 85% de tous les cas): troubles de la mémoire épisodique à long terme (appelés syndrome amnésique de type hippocampique et correspondant par exemple à la difficulté de se rappeler d’une liste de mots même avec des indices)

–        cas atypiques (15 à 20% des cas): atrophie de la partie arrière du cortex cérébral ou aphasie logopénique (trouble de la mémoire verbale où le patient répète un mot en inversant les syllabes par exemple) ou atteinte de la partie avant du cerveau (qui donne des troubles du comportement)

–        états précliniques: asymptomatiques à risque (patients sans symptôme mais pour lesquels on découvre fortuitement dans le cadre d’études scientifiques qu’ils ont des biomarqueurs positifs) et présymptomatiques (ayant une mutation génétique)

L’un des deux biomarqueurs suivants est nécessaire :

–        dans le liquide céphalorachidien (issu d’une ponction lombaire) : teneurs anormales de protéines cérébrales (en baisse pour la  protéine bêta amyloïde et en hausse pour la protéine tau)

–        dans le cerveau par neuro-imagerie TEP (tomographie par émission de positons) : rétention élevée du traceur amyloïde

Tablet mit der Diagnose Alzheimer auf dem Display

Des neurones d’emblée trop sensibles au stress cellulaire dans la maladie de Huntington

Les neurones ne peuvent pas se défendre correctement contre la maladie de Huntington, et ce, dès le début de la pathologie. C’est ce qu’une équipe de chercheurs de l’Inserm de l’Institut de biologie Paris-Seine (Inserm/CNRS/université Pierre et Marie Curie) et leurs collègues américains et australiens ont découvert. En cause, la défaillance d’un mécanisme important de longévité cellulaire. Au-delà de ce résultat, cette étude montre l’importance de restaurer la capacité de résistance au stress des neurones pour retarder les manifestations de la maladie. Des travaux qui conduisent à une nouvelle façon d’envisager de traiter les maladies neurodégénératives.Les résultats de ce travail sont publiés dans PLoS Biology.

Rôle de la huntingtine au cours de la mitose ©Inserm/Elias, Salah

La maladie de Huntington est une pathologie neurodégénérative héréditaire dont les symptômes comprennent des mouvements involontaires (chorée) et des troubles cognitifs et psychiatriques. La maladie se déclare à tous les âges de la vie, mais en général vers 40 ans. Elle évolue sur de nombreuses années, avec une perte d’autonomie progressive et un décès au bout de 15 à 20 ans en moyenne. Aucun traitement curatif ni préventif n’est actuellement disponible. Mais une prise en charge adaptée peut améliorer l’état des patients.

Environ 6.000 personnes seraient touchées par cette maladie en France, et probablement plus portent la mutation génétique à l’origine de la maladie. Des facteurs génétiques, épigénétiques et environnementaux permettraient d’expliquer les différences entre les patients, tant dans la diversité et la sévérité des symptômes rencontrés, que dans l’âge d’apparition de la maladie.

La maladie de Huntington est causée par des mutations dans le gène de la huntingtine et la production de protéines du même nom dont la forme est anormale. La huntingtine mutée génère un stress cellulaire continu qui conduit à la mort de certains neurones, notamment dans le striatum (partie centrale du cerveau). A partir de ce postulat, les chercheurs ont émis l’hypothèse que l’étude de cette maladie pourrait permettre de comprendre comment les neurones résistent au stress dans les maladies neurodégénératives.

«  Jusqu’à présent, on pensait que les neurones étaient capables de s’adapter à cette situation stressante, d’y résister en mobilisant pleinement leurs capacités de compensation. Ce que l’on a découvert, c’est que la résistance au stress de ces neurones est défaillante d’entrée de jeu, qu’elle est plus faible que celle d’une cellule normale », indique Christian Néri, directeur de recherche à l’Inserm à l’Institut de biologie Paris-Seine (Inserm/CNRS/université Pierre et Marie Curie). «  C’est une situation inattendue due à des anomalies précoces qui viennent bloquer les mécanismes de longévité des neurones adultes. Cela pose la question de « l’âge biologique » des neurones dans les maladies neurodégénératives », ajoute-t-il.

Le scientifique et ses collègues français, américains et australiens ont travaillé sur un petit ver (C. elegans) qui, grâce à sa transparence, rend facile une manipulation et une observation des neurones. A partir ces animaux dans lesquels le gène de la huntingtine mutée est introduit dans les neurones, ils ont étudié les effets de la huntingtine à l’échelle du génome à l’aide de modélisations mathématiques. Ils ont mis en évidence une inhibition des protéines FOXO, qui sont connues pour jouer un rôle important dans la longévité et la résistance au stress. Chez les centenaires, les gènes FOXO seraient efficaces pour lutter contre le stress cellulaire. Le secret de leur longévité s’expliquerait par un meilleur « équipement » pour résister au stress.

Les chercheurs ont confirmé ces résultats dans d’autres modèles de la maladie, mettant en lumière les liens étroits entre la longévité cellulaire et la résistance aux maladies neurodégénératives.

Mais surtout, ces travaux qui sont au centre du Laboratoire International Associé (LIA) de l’Inserm ‘Longévité Neuronale’ montrent l’importance de restaurer la capacité de résistance au stress des neurones pour retarder les manifestations de la maladie.


 Cette piste thérapeutique pourrait être particulièrement intéressante pour lutter contre les tout premiers stades de la maladie de Huntington et d’autres maladies neurodégénératives.

neri 1 neri 2

photo 1 : Les chercheurs ont fait appel à la biologie systémique pour déchiffrer la complexité des effets toxiques de la huntingtine mutée sur le génome des neurones. Ils ont analysé l’expression de ce génome par des modélisations mathématiques basées sur les réseaux d’interaction entre les gènes. Le résultat est illustré ici sous forme stylisée en 3D

photo 2 :Les chercheurs ont travaillé sur de petits vers transparents. Il s’agit de nématodes C. elegans transgéniques modélisant la pathologie neuronale dans la maladie de Huntington. On peut voir chez l’animal vivant des anomalies morphologiques des axones grâce à des marqueurs fluorescents.

Surdité : une perte auditive en apparence légère peut masquer un déficit plus profond

Grâce à un modèle de souris reproduisant une perturbation de la perception des sons aigus chez l’homme, des chercheurs de l’Institut Pasteur, de l’Inserm, du Collège de France, et de l’Université Pierre et Marie Curie, en collaboration avec une équipe de l’université d’Auvergne, ont pu élucider les anomalies en cause, et mettre en évidence une altération profonde du traitement des fréquences sonores. Ces travaux offrent une explication à la gêne considérable que représente le bruit pour la perception des fréquences aiguës chez certains malentendants. Ils suggèrent qu’un bilan auditif plus complet chez le praticien pourrait permettre d’améliorer le diagnostic de ces troubles, et de mieux prendre en charge les personnes concernées qui, malgré une perte auditive évaluée comme modérée par l’analyse audiométrique standard, nécessitent d’être appareillées, avec un ciblage fréquentiel approprié de la correction auditive.

surdite

Alors que leur examen audiométrique ne révèle qu’une perte auditive légère, certains patients se plaignent pourtant d’une gêne profonde et de difficultés de compréhension importantes de la parole dans les milieux bruités, qui les handicapent au quotidien. En étudiant une souris porteuse d’une mutation affectant certaines cellules sensorielles de l’oreille interne, des chercheurs ont établi un parallèle avec le tableau clinique de ces malentendants. Le projet a été mené par le Dr. Aziz El-Amraoui, et par le Pr. Christine Petit,  dans l’unité de génétique et physiologie de l’audition (Institut Pasteur/Inserm/Université Pierre et Marie Curie) qu’elle dirige, en étroite collaboration avec l’équipe de biophysique neurosensorielle de l’UMR Inserm 1107 à l’Université d’Auvergne, conduite par le Pr. Paul Avan.

La souris étudiée présente une perte auditive en apparence très modérée, qui ne concerne que les sons aigus (sons de haute fréquence), qui sont traités à la base de la cochlée. Les défauts morphologiques observés par les chercheurs sont pourtant très importants à ce niveau : les cellules ciliées externes de la base de la cochlée ne peuvent plus répondre aux hautes fréquences, et leurs touffes ciliaires, qui jouent le rôle d’antenne de réception du son, sont gravement touchées (cf photographie).

L’introduction de sons interférents a conduit les chercheurs à mettre en évidence, chez cette souris, un phénomène inédit : une perturbation considérable de la détection des sons aigus en présence de sons beaucoup plus graves (deux octaves) et d’intensité bien moindre. Les chercheurs ont pu identifier l’origine de ce défaut : indemne de toute atteinte, la région apicale de la cochlée, qui traite normalement les sons graves, répondrait, chez la souris mutante, non seulement aux sons graves, mais également aux sons aigus. Elle se substituerait ainsi fonctionnellement à leur région habituelle de codage, la base de la cochlée, qui a perdu sa sensibilité. Dans une cochlée saine, les sons aigus ne peuvent pas atteindre la région apicale, en raison des caractéristiques physiques de la membrane qui les propage. Les anomalies de la touffe ciliaire chez la souris mutante permettraient aux vibrations des sons aigus d’emprunter une autre voie de propagation aux caractéristiques physiques bien différentes.

Transposés à l’homme, ces résultats pointent l’existence, chez certains individus, d’audiogrammes faussement optimistes, qui dissuadent à tort de les appareiller. Pour améliorer le diagnostic, il serait donc judicieux de proposer de manière plus routinière aux personnes présentant une gêne auditive en présence de bruits de basse fréquence des tests auditifs complémentaires, permettant notamment d’analyser finement la réponse fréquentielle des cellules sensorielles auditives. Les prothèses auditives prescrites dans une telle situation devraient veiller à rétablir sélectivement la détection des hautes fréquences, tout en évitant l’interférence par les sons graves.

Illustration : Touffes ciliaires de cellules ciliées externes provenant d’une souris normale (en haut) et d’une souris mutante (en bas), analysées par microscope électronique. – Copyright Institut Pasteur – V. Michel & K. Kamiya

 Cette étude a été financée par le grant ERC-hair bundle ”2011-ADG_20110310”, le Labex ”Lifesenses”, la société japonaise ”Promotion of Science and Uehara Memorial Foundation”, Réunica Prévoyance, Humanis, Errera Hoechstettee, la fondation BNP-Paribas et la fondation ”Voir et Entendre”.

La crise d’épilepsie : une activité primitive du cerveau dont les mécanismes sont conservés à travers les espèces

Tout semble différencier une mouche d’un homme. Et pourtant, aussi étonnant que cela puisse paraitre, des chercheurs de l’Inserm dirigés par Christophe Bernard et Viktor Jirsa au sein de l’Institut de Neurosciences des Systèmes (INS) – Inserm U1106 à Marseille viennent de montrer que les crises d’épilepsie suivent des règles mathématiques simples et conservées à travers les espèces. La crise d’épilepsie est une forme d’activité neuronale qui est encodée dans tout cerveau sain, mais qui ne s’exprime que dans situations pathologiques. Grâce à l’identification de ces principes de base, les chercheurs ont pu classer rigoureusement les crises en 16 types distincts ; une classification qui sera très utile aux cliniciens pour envisager des traitements de plus en plus personnalisés et rechercher de nouveaux médicaments. Ces travaux sont publiés dans la revue Brain.

Photo CP Brain epilepsie
Qu’est-ce qu’une crise d’épilepsie? Cette question constitue une énigme pour les patients, leurs proches, les chercheurs et les médecins depuis des siècles. Les crises arrivent souvent sans signe avant-coureur avec des manifestations cliniques qui peuvent être spectaculaires. Pour les chercheurs et les médecins, la crise est considérée comme un problème très difficile à résoudre, faisant appel à des mécanismes très complexes.

Une percée majeure vient d’être faite par deux équipes de l’Institut de Neurosciences des Systèmes (INS) – Inserm U1106 à Marseille. Combinant neuroscience théorique, recherche fondamentale et clinique, les chercheurs ont apporté la preuve que les principes qui régissent le début, le décours et la fin des crises d’épilepsie focales (une forme d’épilepsie très répandue) sont d’une très grande simplicité et invariantes entre les régions du cerveau et les espèces, de la mouche à l’Homme.

Le point de départ est simple : tout cerveau sain peut faire une crise, par exemple après un électrochoc, un traumatisme crânien etc. sans être et sans forcément devenir épileptique. Autrement dit, cette activité du cerveau qu’est la crise existe à l’état latent chez chacun d’entre nous. La crise est naturellement codée dans nos neurones. Elle est toujours possible, mais dans un cerveau « sain » la probabilité qu’elle se produise est très faible.

Nous allons utiliser une métaphore pour décrire le résultat principal. Représentons-nous l’activité du cerveau au moyen d’un personnage qui se déplace dans un pays composé de montagnes, de vallées, de plaines, de plages etc. Les différentes régions du pays constituent autant d’activités dans lesquelles le cerveau est engagé (par exemple, lire un livre, faire du vélo etc.). Au sein de ce pays, il y a un endroit très particulier : une zone interdite entourée d’une très haute barrière. Cette zone interdite est toujours là, elle fait partie du paysage, mais notre personnage ne peut pas y pénétrer. Cette zone interdite, c’est la crise d’épilepsie. Il faut des conditions extrêmes pour rentrer dedans – comme par exemple après un électrochoc.

Les chercheurs de l’Institut de Neurosciences des Systèmes ont construit un modèle mathématique décrivant ce qui se passe à partir du moment où la barrière est franchie (début de la crise) jusqu’au moment où le personnage finit par ressortir de la zone interdite (fin de la crise) et retrouve une activité normale à l’extérieur. Ils ont montré que les trajectoires d’entrée et de sortie de la crise suivent des règles mathématiques simples et précises. Ils ont aussi montré que la crise est peut-être la forme d’activité la plus simple – ou primitive – que le cerveau peut générer.

« Le modèle mathématique prédit l’existence de 16 types de crises, ce qui permet de classer rigoureusement les crises ; une classification qui sera très utile aux cliniciens pour le traitement de ces crises et la recherche de nouveaux médicaments. » Explique Christophe Bernard, directeur de recherche à l’Inserm.

Les chercheurs ont ensuite vérifié expérimentalement les prédictions du modèle mathématique, en analysant les crises enregistrées chez différentes espèces, y compris chez l’Homme (en utilisant une base de données internationale). 

Ils ont pu ainsi montrer que les règles d’entrée et de sortie de la crise étaient invariantes de la mouche à l’Homme. C’est donc la même zone interdite qui est présente dans la plupart des régions du cerveau à travers les espèces.

Pourquoi l’épilepsie est-elle si difficile à traiter ?

En utilisant un modèle expérimental d’épilepsie chez la souris, les chercheurs ont démontré que la zone interdite peut être pénétrée à de multiples endroits. Autrement il y a de nombreuses façons d’effriter la barrière. Cette multiplicité de possibilités explique pourquoi les traitements doivent être adaptés à chaque patient, parce que le passage de la barrière ne se fait pas forcément au même endroit d’un individu à l’autre.

Ces travaux revêtent une importance majeure, non seulement parce qu’ils contribuent à démythifier l’épilepsie, mais aussi parce qu’ils fournissent un cadre conceptuel pour mieux comprendre les mécanismes des crises et proposer de nouvelles solutions thérapeutiques.

Que se passe-t-il chez les patients qui font des crises ?
Chez les patients, la barrière s’est effritée, et il est beaucoup plus facile de rentrer dans la zone interdite. Cette destruction de la barrière est un phénomène très courant. Elle se produit naturellement au cours du vieillissement, et c’est pour cette raison que la fréquence de l’épilepsie augmente avec l’âge. Les enfants sont aussi très susceptibles aux crises d’épilepsie, parce que leur barrière n’est pas assez haute. De nombreuses pathologies comme l’autisme, la maladie d’Alzheimer, la maladie de Huntington sont associées à des crises d’épilepsies, parce que les effets destructeurs que ces pathologies engendrent dans le cerveau finissent par éroder la barrière. C’est pour cette raison que l’épilepsie peut exister seule ou associée à d’autres pathologies. Les conditions pathologiques, la maladie, ne font que révéler une activité qui existe potentiellement en chacun de nous.

Comment le cerveau s’adapte à toutes les situations?

© CC BY-SA 2.0 by ZeroOne

Lorsque l’on est face à une situation incertaine, changeante voire nouvelle, notre cerveau opte, après un moment de réflexion, pour une solution plutôt qu’une autre. C’est le raisonnement par lequel l’Homme s’adapte à de telles situations, que vient de décrypter l’équipe d’Etienne Koechlin, directeur du laboratoire de Neurosciences Cognitives (Inserm/ENS). Les chercheurs ont découvert l’algorithme du cortex cérébral préfrontal permettant à l’Homme de raisonner pour s’adapter à ce type de situation grâce à deux processus distincts.

Les résultats sont publiés dans la revue Science Express le 29 mai 2014.

La prise de décision a lieu grâce à l’activité d’une zone cérébrale du lobe frontal appelée cortex préfrontal. Jusqu’à présent, on savait que cette zone était impliquée dans la prise de décision et le contrôle de l’action. Seulement, on ignorait comment cette zone cérébrale dotait l’homme de capacités de raisonnement et de jugement particulièrement développées et fortement sollicitées dans des situations nouvelles.

Dans cette étude publiée dans Science Express, les chercheurs du laboratoire de neurosciences Cognitives (Inserm/ENS) ont analysé l’activité cérébrale de 40 jeunes individus (18-26 ans) en bonne santé soumis à un protocole inspiré du jeu de société Mastermind. Ils devaient faire face à un scénario incertain et variable comme dans ce jeu où le joueur doit raisonner pour déduire la combinaison de pions de son partenaire à partir d’information parcellaire, mais aussi s’adapter car dans le protocole utilisé celle-ci pouvait changer à l’insu des participants.

Grâce à la neuroimagerie, les chercheurs ont découvert le fonctionnement algorithmique du cortex préfrontal expliquant comment les humains raisonnent pour s’adapter à des situations incertaines, changeantes et nouvelles.

L’étude révèle le rôle clé joué par deux régions. La première, située entre les régions ventro- et dorso-medial du cortex préfrontal, est capable d’évaluer la situation et détermine s’il faut ajuster le comportement de l’individu ou explorer de nouvelles stratégies plus ou moins connues par l’individu, c’est-à-dire émergeant de sa mémoire à long terme.

La seconde, appelée « frontopolaire », très antérieure et latérale des lobes frontaux, considéréee comme absente chez les primates non-humains, est capable d’analyser en parallèle la pertinence de 2 ou 3 stratégies alternatives. « La zone frontoplolaire permet à l’individu de tester en parallèle plusieurs hypothèses concurrentes et notamment de juger de la pertinence de former de nouvelles hypothèses émergeant de sa mémoire à long terme » explique Etienne Koechlin, directeur de recherche Inserm et principal auteur de l’étude.

Ces deux voies fonctionnent conjointement et sont à l’origine du raisonnement qui consiste à comparer, tester des hypothèses et les accepter ou les rejeter vis-à-vis d’autres stratégies nouvellement envisagées par l’individu.

« Nos résultats constituent une avancée majeure, puisque c’est la première fois que ce fonctionnement algorithmique est modélisé mathématiquement et mis à jour dans cette zone du cerveau «  conclut-il.

Le fonctionnement du cortex préfrontal est massivement altéré dans les maladies neuropsychiatriques. Son développement se poursuit tardivement dans l’adolescence et il est altéré dans le vieillissement. Ces résultats ouvrent de nombreuses perspectives puisqu’ils permettront de mieux comprendre comment son développement, son vieillissement et ses pathologies changent les capacités de jugement des individus et comment y remédier.

L’origine neurobiologique du trouble du déficit de l’attention confirmée

Une étude vient de confirmer, chez la souris, l’origine neurobiologique du trouble du déficit de l’attention (TDA), un syndrome dont les causes restent mal connues. Des chercheurs du CNRS, de l’université de Strasbourg et de l’Inserm1 ont identifié une structure cérébrale, le colliculus supérieur, dont l’hyperstimulation entraine des modifications de comportement similaires à celles de certains patients souffrant de TDA. Leurs travaux montrent aussi une accumulation de noradrénaline dans la zone concernée, mettant en lumière un rôle de ce médiateur chimique dans les troubles de l’attention. Ces résultats sont publiés dans la revue Brain Structure and Function.

Le trouble du déficit de l’attention touche entre 4 et 8% des enfants. Il se manifeste principalement par une perturbation de l’attention, une impulsivité verbale et motrice, parfois accompagnés d’hyperactivité. Environ 60% de ces enfants présenteront encore des symptômes à l’âge adulte. Il n’existe à ce jour aucun traitement curatif. Seule l’administration de psychostimulants améliore l’état des patients, avec cependant des effets secondaires importants tels que la dépendance. Une controverse persistante autour de l’origine neurobiologique de ce trouble a freiné le développement de nouveaux traitements.

L’étude strasbourgeoise s’intéresse au comportement de souris transgéniques présentant un défaut développemental au niveau du colliculus supérieur. Cette structure, située dans le cerveau moyen, est une plaque tournante sensorielle impliquée dans le contrôle de l’attention et de l’orientation visuelle et spatiale. Les souris étudiées sont caractérisées par une duplication des projections neuronales entre le colliculus supérieur et la rétine. Cette anomalie provoque une hyperstimulation visuelle du colliculus supérieur, dans lequel on trouve également un excès de noradrénaline. Les effets de ce neurotransmetteur, qui varient chez différentes espèces, sont encore mal connus.

Cependant, ce déséquilibre en noradrénaline est associé à des changements comportementaux significatifs chez les souris porteuses de la mutation génétique. En les étudiant, les chercheurs ont observé une perte de l’inhibition : les souris hésitent par exemple moins à pénétrer dans un environnement hostile. Elles ont en fait des difficultés à prendre en compte les informations pertinentes et font preuve d’une forme d’impulsivité. Ces symptômes rappellent ceux des patients adultes souffrant d’une des formes du TDA.

Actuellement, les travaux fondamentaux sur le TDA utilisent surtout des modèles animaux obtenus par des mutations perturbant les voies de production et de transmission de la dopamine. Chez les souris au colliculus supérieur malformé, ces voies sont intactes. Les modifications interviennent ailleurs, au niveau des réseaux de neurones du cerveau moyen. Utiliser ces nouveaux modèles permettrait de développer une approche plus globale du TDA, en élargissant le périmètre classique des recherches sur ses causes. Caractériser plus précisément les effets de la noradrénaline sur le colliculus supérieur pourrait donc ouvrir la voie à des stratégies thérapeutiques innovantes.

Colliculus supérieur

Sur cette image un marquage permet de voir les axones des neurones de la rétine (en rouge) qui innervent le colliculus supérieur (en bleu) chez une souris « normale »
© Michael Reber / Inserm Institut des neurosciences cellulaires et intégratives

(1) Du Laboratoire de neurosciences cognitives et adaptatives (CNRS/Université de Strasbourg) et de l’Institut des neurosciences cellulaires et intégratives (CNRS)

Caféine et maladie d’Alzheimer : un lien avec la protéine Tau

Des chercheurs de l’Inserm, de l’Université Lille 2/Université Lille-Nord de France et du CHRU de Lille dirigés par David Blum chargé de recherche à l’Inserm fournissent la preuve expérimentale des effets bénéfiques de la caféine dans un modèle animal de la maladie d’Alzheimer. Ces travaux, réalisés chez la souris et publiés dans la revue Neurobiology of Aging, renforcent l’idée d’un effet protecteur de la caféine sur certaines pathologies cérébrales.
Post-it note with smiley face sticked on cup 

©fotolia


Avec plus de 800 000 personnes atteintes en France, la maladie d’Alzheimer et les maladies apparentées représentent la première cause de perte des fonctions intellectuelles liée à l’âge. Les altérations cognitives observées dans la maladie d’Alzheimer sont notamment le résultat de l’accumulation de protéines Tau anormales dans les cellules nerveuses en dégénérescence. La consommation habituelle de caféine est connue pour réduire le déclin cognitif au cours du vieillissement et le risque de développer une démence. Cependant, les effets de la caféine sur les pathologies liées à la protéine Tau, et dont fait partie la maladie d’Alzheimer, autrement appelées Tauopathies, n’étaient pas clairement élucidés.

Le Dr. David Blum, du laboratoire « Alzheimer & Tauopathies » de l’unité mixte de recherche 837 (Inserm/Université Lille 2/Université Lille Nord de France/CHRU de Lille) dirigée par le Dr. Luc Buée vient de montrer, chez la souris, qu’une consommation habituelle de caféine prévient des déficits de mémoire et de certaines modifications de la protéine Tau. Pour parvenir à ce résultat, de jeunes souris transgéniques, qui développent progressivement avec l’âge une neurodégenerescence liée à la protéine Tau, ont reçu durant 10 mois de la caféine par voie orale.

 » Les souris traitées par la caféine ont développé une pathologie moins importante du point de vue de la mémoire, des modifications de la protéine Tau mais également de la neuro-inflammation » explique David Blum, chargé de recherche à l’Inserm. Cette étude fournit la preuve expérimentale d’un lien entre consommation de caféine et les pathologies liées à la protéine Tau dans un modèle de neurodégénérescence de la maladie d’Alzheimer. Cette étude indique également que la caféine agirait sur différents dysfonctionnements cérébraux impliqués dans la maladie d’Alzheimer pour exercer ses effets bénéfiques.

« Ces travaux vont dans le sens d’une contribution importante des facteurs environnementaux dans le développement de la maladie d’Alzheimer, souligne le chercheur. Aux vues de ces résultats, nous souhaitons maintenant d’une part identifier la cible moléculaire responsable des effets bénéfiques de la caféine et, d’autre part, mettre sur pied un essai clinique à base de caféine chez des patients atteints de la maladie d’Alzheimer  » ajoute-t-il.


Ces travaux ont fait l’objet d’un soutien du LabEx DISTALZ (development of Innovative Strategies for a Transdisciplinary Approach to Alzheimer’s Disease) dans le cadre des investissements d’avenir et des associations France Alzheimer et LECMA/AFI.

Ataxie de Friedreich : une thérapie génique efficace chez l’animal

L’équipe d’Hélène Puccio, directrice de recherche Inserm à l’IGBMC (Inserm / CNRS / Université de Strasbourg), en collaboration avec celle de Patrick Aubourg (Inserm et Professeur de Neuropédiatrie à l’hôpital Bicêtre-Paris Sud) a démontré chez la souris, l’efficacité d’une thérapie génique sur l’atteinte cardiaque associée à l’ataxie de Friedreich, une maladie neurodégénérative rare héréditaire. Le transfert d’une copie normale du gène déficient dans la maladie, via un vecteur viral, a permis de guérir complètement et très rapidement le cœur malade des souris traitées. Ces résultats sont publiés le 06 Avril 2014 dans la revue Nature Medicine.

L’ataxie de Friedreich est une maladie héréditaire rare et grave, associant une atteinte neurodégénérative progressive, une atteinte du cœur et un risque accru de diabète. Cette pathologie concerne une naissance sur 50 000. Aucun traitement efficace n’est disponible à l’heure actuelle pour cette maladie. L’ataxie de Friedreich débute le plus souvent à l’adolescence par des troubles de l’équilibre et de coordination (ataxie) des mouvements volontaires des jambes et des bras, confinant la plupart des patients au fauteuil roulant au bout de 10 à 20 ans d’évolution. Ce sont cependant les complications cardiaques qui engagent le pronostic vital chez 60 % des patients, le plus souvent avant l’âge de 35 ans.

La maladie est causée par une mutation principale dans le gène FXN, qui conduit à une réduction drastique de la production de la protéine appelée « frataxine ». Le taux réduit de frataxine perturbe l’activité de la mitochondrie, un organite essentiel à la cellule et qui joue un rôle fondamental dans la production d’énergie. Les tissus nerveux (cervelet, moelle épinière) et cardiaque sont particulièrement touchés par ce déficit énergétique, qui peut provoquer jusqu’à une insuffisance cardiaque fatale.

Les équipes d’Hélène Puccio, directrice de recherche Inserm, et Patrick Aubourg ont développé une approche thérapeutique basée sur l’utilisation d’un virus adéno-associé (AAV)[1], qui est connu pour cibler et faire exprimer avec efficacité un gène thérapeutique dans les cellules cardiaques. Le virus a été modifié pour être rendu inoffensif, tout en gardant sa capacité d’introduire une copie normale du gène FXN dans les cellules du cœur et d’y faire ainsi exprimer la frataxine normale.

L’équipe d’Hélène Puccio a testé sur un modèle de souris reproduisant les symptômes cardiaques des patients atteints d’ataxie de Friedreich l’efficacité de ce traitement. Les résultats de l’étude démontrent qu’une seule injection d’AAVrh10 exprimant la frataxine par voie intraveineuse permet, non seulement d’empêcher le développement de l’atteinte cardiaque chez des animaux avant l’apparition des symptômes, mais de façon plus impressionnante, un rétablissement complet et rapide du cœur d’animaux à un stade avancé de la maladie cardiaque. Au bout de trois semaines de traitement, le cœur redevient totalement fonctionnel, l’aspect du tissu cardiaque et la fonction des mitochondries sont très proches de ceux de souris saines. « C’est la première fois qu’une thérapie génique permet une rémission complète, durable et aussi rapide d’une maladie cardiaque dans un modèle animal. » explique Hélène Puccio.

Figure 3 post review

Mesure de l’activité d’une protéine mitochondriale (en bleu) essentielle à la production d’énergie cellulaire et qui est perturbée en absence de frataxine (absence de marquage dans le cœur non traité). Le traitement par thérapie génique exprimant la frataxine permet de corriger sur la totalité de la surface du cœur l’activité de cette protéine essentielle. © Inserm / H. Puccio

Par ailleurs,  le système nerveux central étant une autre cible des vecteurs AAV, les équipes d’Hélène Puccio et Patrick Aubourg sont en train de vérifier si une approche similaire de thérapie génique pourrait être aussi efficace qu’elle l’est pour le cœur, au niveau de la moelle épinière et du cervelet.

Ces résultats prometteurs font d’ores et déjà l’objet d’un développement pour proposer aux patients atteints d’ataxie de Friedreich et une cardiomyopathie évolutive un traitement par thérapie génique. Dans cet objectif, trois des auteurs de la publication ont créé AAVLife, entreprise française dédiée à la thérapie génique pour les maladies rares, pour entreprendre les essais chez l’homme. Cet essai a fait l’objet d’une demande de dépôt de brevet par Inserm Transfert.

Cette étude a été réalisée notamment grâce au soutien des associations FARA[2], AFAF[3] et l’AFM[4].

 


[1] AAV : plus particulièrement le serotype AAVrh10.

[2] Friedreich’s Ataxia Research Alliance, association américaine dédiée au traitement de l’ataxie de Friedreich

[3] Association Française de l’Ataxie de Friedreich

[4] Association Française contre les Myopathies

Les nouveau-nés font déjà le lien entre l’espace, le temps et les quantités

Les nourrissons possèdent déjà à leur naissance une représentation de l’espace, du temps et des quantités. C’est ce qu’ont réussi à démontrer Dr Maria Dolores de Hevia, Dr Véronique Izard, Aurélie Coubart, Professeur Elizabeth Spelke et Professeur Arlette Streri du Laboratoire de psychologie de la perception (Université Paris Descartes/CNRS/ Inserm) dans une étude publiée dans la revue PNAS.

L’origine des concepts d’espace, de temps et de quantité est un sujet étudié par différentes disciplines comme la philosophie, la psychologie expérimentale, la psychologie du développement et les sciences cognitives. L’espace, le temps et les quantités sont reliés à la fois dans le monde et dans l’esprit humain, mais comment ces connections viennent-elles à l’esprit ? Apprend-on à relier ces concepts grâce à nos expériences sensorielles en observant leurs corrélations dans le monde qui nous entoure ou bien notre esprit  permet-il d’emblée de les appréhender naturellement dès notre naissance ?

4 month old baby

© Fotolia

Afin de répondre à cette question, un protocole expérimental a été mis en place, au sein de la maternité de l’hôpital Bichat, permettant d’enregistrer l’attention visuelle de 96 nouveau-nés âgés de 2 jours en moyenne (entre 7h et 96h). L’expérience les plaçait dans une situation sollicitant deux de leurs modalités sensorielles : la vision et l’audition. Dans une première phase, pendant une minute, les nouveau-nés entendaient une séquence de sons évoquant une quantité numérique (6 ou 18 syllabes) et/ou une durée (1.4 ou 4.2 secondes), pendant qu’ils voyaient sur un écran une ligne légèrement en mouvement. Dans une seconde phase, les expérimentateurs présentaient de nouveaux événements visuels et auditifs, modifiés par rapport à la première phase. Cependant, ces événements changeaient soit de manière congruente (1), tous dans la même direction (ex : ligne plus longue, et une quantité de sons plus élevé), soit de manière non congruente, dans des directions opposées (ex : ligne plus grande, quantité de sons réduit).

Les résultats ont montré que les nouveau-nés réagissent quand ces grandeurs changent de manière congruente. Ils sont donc capables de relier une quantité numérique et/ou une durée, à une longueur dans l’espace.

Ce protocole expérimental a permis de montrer que, seulement quelques heures après leur naissance, les êtres humains sont déjà sensibles à la structure commune du temps, de l’espace et de la quantité, confortant ainsi certaines théories philosophiques comme celles de Kant.

Reste à savoir si d’autres dimensions quantitatives (luminosité, sonorité, etc..) sont concernées et à déterminer les bases cérébrales de ces prédispositions.

(1)   Qui est en rapport avec quelque chose.

Comment la lumière influence t-elle le fonctionnement du cerveau ?

Pensiez-vous que notre cerveau pouvait exécuter d’autant mieux une tâche cognitive, que nous avons été exposés à la lumière quelques heures auparavant ? Des chercheurs de l’Unité Inserm 846 « Cellules Souches et Cerveau « et du Centre de Recherche du Cyclotron de l’Université de Liège (Belgique) viennent de montrer que cet « effet retard » était dû au fait que nous possédons une sorte de mémoire de la lumière (ou mémoire photique). Les résultats de ce travail sont publiés dans la revue PNAS.

Il est établi depuis longtemps que la lumière exerce des effets importants sur le cerveau et notre bien-être. La lumière n’est pas uniquement indispensable à la vision, mais joue aussi un rôle essentiel dans un ensemble de fonctions dites « non-visuelles » comme la synchronisation de notre horloge biologique avec l’alternance jour-nuit. La lumière constitue également un stimulant puissant pour l’éveil et la cognition et elle est couramment employée pour améliorer la performance, et pour lutter contre la somnolence ou le « blues hivernal ».

Les mécanismes qui sous-tendent ces effets positifs de la lumière ne sont que très peu connus.

Durant les 10 dernières années, des scientifiques ont découvert un nouveau type de cellule sensible à la lumière dans l’œil (photorécepteur) appelé mélanopsine. Ce nouveau photorécepteur est essentiel pour transmettre l’information lumineuse vers de nombreux centres du cerveau dits « non-visuels ». Les recherches en laboratoire ont montré que sans ce photorécepteur, les fonctions non-visuelles sont perturbées, l’horloge biologique est déréglée et fonctionne en « roue libre » par rapport à l’alternance jour-nuit, et l’effet stimulant de la lumière est compromis.

La mélanopsine diffère des cônes et des bâtonnets puisqu’elle exprime des propriétés ressemblant aux photorécepteurs des invertébrés et elle est particulièrement sensible à la lumière bleue.  Toutefois, chez l’être humain, le rôle de la mélanopsine dans la régulation de l’éveil et de la cognition humaine n’est pas établi.

Des chercheurs du Centre de Recherche du Cyclotron de l’Université de Liège (Belgique) et du Département de Chronobiologie de l’Institut Cellules Souches et Cerveau de l’Inserm viennent cependant d’apporter les preuves de son implication dans l’impact de la lumière sur le cerveau.

En exploitant les propriétés photoréceptrices uniques de la mélanopsine couplée à Imagerie par Résonance Magnétique fonctionnelle (IRMf), ils ont pu montrer que l’impact de la lumière sur les régions cérébrales nécessaires à la réalisation d’une tâche cognitive dépendait de la couleur spécifique de la lumière reçue plus d’une heure auparavant. 

Une exposition préalable à la lumière orange avant une lumière test augmente l’impact de cette lumière test, alors qu’une exposition préalable à une lumière bleue produit l’effet inverse.

image IRM

16 jeunes participants ont réalisé une tâche cognitive pendant qu’ils étaient exposés à une lumière test. Les régions cérébrales en orange répondaient plus à la lumière test si les participants avaient été exposés à une lumière orange 70 minutes plus tôt. 1. Thalamus; 2. Cortex prefrontal dorsolateral; 3. Cortex préfrontal ventrolatéral. Ces régions sont importantes pour la régulation de l’éveil et des processus cognitifs complexes. © Inserm/ Howard Cooper

Ce « effet retard » d’une exposition à la lumière sur la réponse lumineuse suivante est typique de la mélanopsine et de certains photopigments rencontrés chez les invertébrés et les plantes, et est connu sous le nom de « mémoire photique ».

 » Nous aurions donc une machinerie dans l’œil identique à celle des invertébrés qui participe à la régulation de notre cognition. De façon générale, la lumière de notre environnement évolue au cours de la journée et ces changements modifient notre état. Cette recherche met en avant l’importance de la lumière pour les fonctions cognitives cérébrales et constitue une preuve en faveur d’un rôle cognitif de la mélanopsine. » explique Howard Cooper.

Pour les chercheurs, cette découverte plaide également pour l’utilisation et la conception de systèmes lumineux qui optimisent les performances cognitives.

fermer