Menu

Alcoolisme et risque de démences

©AdobeStock

La consommation excessive d’alcool est associée à un triplement du risque de démences en général et un doublement de celui de développer la maladie d’Alzheimer, ce qui en ferait un facteur de risque modifiable majeur pour ces maladies. Telle est la conclusion d’une étude de l’Inserm menée en collaboration avec des chercheurs canadiens via le groupe de recherche QalyDays[1]. A partir de données exhaustives des hospitalisations en France entre 2008-2013, les chercheurs ont étudié l’association entre alcoolisme et démences. Leurs travaux parus dans The Lancet Public Health confirment l’importance de renforcer la prévention contre l’abus d’alcool.

La liste des troubles associés à l’alcool s’allonge encore. Après les problèmes hépatiques, cardiovasculaires et les cancers, les démences font maintenant partie du lot. Une consommation excessive d’alcool correspondant à six verres ou plus par jour pour les hommes et quatre pour les femmes s’est en effet trouvée associée à un triplement du risque de démences. Celles-ci incluent les démences précoces enregistrées avant 65 ans et directement attribuables à l’alcool de type syndrome de korsakoff, les démences vasculaires résultant par exemple d’accidents vasculaires cérébraux et enfin, les démences neurodégénératives de type Alzheimer.

Alors que quelques études suggèrent un effet protecteur d’une consommation faible à modérée d’alcool sur la fonction cognitive, peu de données permettent de travailler sur des consommations élevées. Les personnes alcooliques refusent en effet, dans la plupart des cas, de participer à des cohortes de recherche médicale. Pour contourner ce problème, les chercheurs ont utilisé les informations issues du Programme de Médicalisation des Systèmes d’Information qui renseigne toutes les causes d’hospitalisation. A partir de cette base, ils ont identifié 31,6 millions d’adultes hospitalisés entre 2008 et 2013 dont 1,3 million étaient affectés de démences et 950 000 présentaient une consommation excessive d’alcool (dont 85% une dépendance). Après exclusion des cas de démences attribuables à une pathologie bien identifiée, les chercheurs ont retrouvé une consommation excessive d’alcool dans 57% des démences précoces et 8% de celles survenues après 65 ans. Alors que pour l’ensemble des adultes hospitalisés, les taux d’alcoolisme étaient évalués à 6,2% chez les hommes et 1,5% chez les femmes.

Selon l’analyse de cette cohorte, la consommation excessive d’alcool est associée à un triplement du risque de démence et un doublement du risque en ce qui concerne la maladie d’Alzheimer. Après avoir pris en compte les autres facteurs de risque de démence, les chercheurs estiment qu’il s’agit d’un facteur de risque de démence (modifiable) , pouvant être considéré comme le plus important devant le tabagisme ou l’hypertension artérielle.

« Nous pensons que l’alcool pourrait précipiter la survenue de ces maladies et accélérer leur progression en augmentant les dommages structurels et fonctionnels dans le cerveau, expliquent les auteurs de ce travail Carole Dufouil, directrice de recherche à l’Inserm et Michaël Schwarzinger (Translational Health Economics Network (THEN) et chercheur affilié à l’Unité Inserm 1137 IAME « infection, antimicrobiens, modélisation, évolution »). Mais les mécanismes possibles sont nombreux et restent à clarifier. Cette étude interpelle donc une nouvelle fois sur les dangers de l’alcool, suggérant que des mesures préventives supplémentaires pourraient contribuer à réduire le risque de démences et leur coût financier et sociétal », clarifie Carole Dufouil.

Ces travaux permettent par ailleurs de confirmer l’intérêt de travailler avec des bases de santé. « Le fait de mettre en évidence un problème de santé majeur grâce à l’utilisation de ce type de données est très prometteur en raison de l’ouverture de ces bases dans le cadre de la loi de modernisation du système de santé », se réjouit Carole Dufouil. Les chercheurs ont désormais accès au « système national des données de santé » qui regroupe plusieurs bases de santé[2] « Les données utilisées dans notre étude sont imparfaites puisqu’elles n’ont pas été collectées spécifiquement pour nos travaux. Elles ne permettent pas par exemple, d’avoir une mesure précise de la consommation d’alcool, ni du seuil au-delà duquel le risque de démence devient élevé. Mais le nombre de cas est si important que la puissance statistique gomme beaucoup de ces imperfections. C’est le gros avantage de travailler à partir de ces bases », concluent Michaël Schwarzinger et Carole Dufouil.

[1] Le groupe QalyDays étudie les déterminants de l’espérance de vie et de l’espérance de vie sans dépendance. Il associe deux équipes Inserm au sein des unités mixtes 1137 «  IAME « infection, antimicrobiens, modélisation, évolution » (Inserm-Université Paris Diderot) et 1219 « Bordeaux population health research center » (Inserm-Université de Bordeaux).

[2] (Données SNIIRAM de l’assurance maladie, base PMSI sur l’activité des établissements de santé, base CepiDC sur les causes de décès ou encore données liées au handicap, etc.).

La flunarizine, nouveau candidat médicament dans le traitement de l’amyotrophie spinale

©Adobestock

Une équipe de chercheurs de l’Inserm (INSERM UMR 1124 « Toxicologie, pharmacologie et signalisation cellulaire ») et des universités Paris Descartes et Paris Diderot, vient de découvrir qu’un médicament déjà utilisé contre la migraine et l’épilepsie, la flunarizine, permet de réparer un défaut moléculaire lié à l’amyotrophie spinale, maladie grave et incurable. Ce travail est l’aboutissement de recherches menées depuis 1995, lorsque l’équipe Inserm à laquelle appartenait Suzie Lefebvre, directrice des travaux publiés aujourd’hui, est parvenue à identifier le gène responsable de l’amyotrophie spinale infantile. Les résultats des premiers essais chez l’animal, parus dans Scientific Reports, se révèlent extrêmement prometteurs avec une nette amélioration de l’état de santé. Ils doivent maintenant se confirmer chez l’homme. 

L’amyotrophie spinale est une maladie rare d’origine génétique. Elle touche 1 à 9 individus pour 100.000. Elle est due à une dégénérescence des motoneurones dans la moelle épinière qui entraine une perte musculaire progressive. Les symptômes apparaissent le plus souvent après la naissance, avec l’impossibilité d’acquérir le port de tête; ou un peu plus tard dans la petite enfance, avec l’impossibilité de marcher. Plus rarement, les symptômes apparaissent à l’adolescence avec des troubles musculaires importants mais compatibles avec une vie à peu près normale.

La maladie est causée par une mutation sur le gène SMN1 qui entraine un déficit en protéine SMN. C’est alors le gène SMN2, quasiment identique, qui prend le relai mais il produit en majorité une protéine SMN tronquée peu fonctionnelle.

 

Un problème d’adressage de la protéine SMN

Chez les individus sains, la protéine SMN est attirée dans des structures du noyau de la cellule appelées corps de Cajal. Y sont formés de petits ARN non codants, impliqués dans une étape de maturation des ARN messagers (l’épissage),  précurseurs des protéines. Dans l’amyotrophie spinale, les protéines SMN tronquées ne parviennent pas à rejoindre les corps de Cajal, ces derniers fonctionnent mal et la fabrication des petits ARN non codants est altérée. Ainsi, de nombreux ARN messagers présentent des problèmes de maturation et aboutissent à des protéines anormales ou déficientes et cela dans tous les tissus.

Pour tenter de restaurer ce mécanisme chez les malades, les chercheurs ont testé des molécules à visée thérapeutique in vitro, sur des cellules issues de patients atteints de la forme sévère de la maladie. L’objectif était d’en trouver une ou plusieurs capables de réacheminer les protéines SMN vers les corps de Cajal pour qu’ils retrouvent leur fonctionnalité.

 

La flunarizine efficace sur des cellules provenant de différents patients

Une seule molécule a démontré un effet sur un grand nombre de cellules de patients différents : la flunarizine, déjà utilisée dans le traitement de la migraine et de l’épilepsie. Dans un second temps, des souris malades ont été traitées dès la naissance avec cette molécule, à raison d’une injection par jour au niveau de la moelle épinière. L’espérance de vie des animaux traités a augmenté de 40% en moyenne, passant de 11 à 16 jours et même jusqu’à 36 jours pour l’un de sujets. L’analyse des motoneurones et des muscles montre qu’ils sont préservés plus longtemps chez les animaux traités. « La molécule présente un effet neuroprotecteur important bien que l’on ne se sache pas encore expliquer pourquoi », déclare Suzie Lefebvre, responsable de ces travaux et membre de l’équipe ayant découvert en 1995 le gène responsable de l’amyotrophie spinale infantile. En outre, son équipe a constaté que  la flunarizine permettait de rétablir le fonctionnement des petits ARN non codants fabriqués dans les corps de Cajal pour la maturation des ARN messagers.

 

Des résultats à confirmer chez l’homme

Reste à tester la flunarizine chez l’homme mais cette étape se heurte à la difficulté de recruter des patients dans le cadre d’une maladie rare. En outre, la plupart d’entre eux sont déjà inclus dans un essai clinique d’évaluation d’un médicament de nouvelle génération ayant obtenu une autorisation de mise sur le marché en décembre 2016 et ne peuvent donc pas être mobilisés pour un second essai. A terme, les deux approches thérapeutiques qui ciblent des mécanismes différents, pourraient tout à fait devenir complémentaires pour favoriser la survie et la qualité de vie des patients.

Un nouveau gène impliqué dans l’hypertension artérielle

Une équipe de chercheurs dirigée par Maria-Christina Zennaro, directrice de recherche Inserm au sein du Paris Centre de Recherche Cardiovasculaire (Inserm/ Université Paris-Descartes), en collaboration avec des collègues allemands[1], a identifié un nouveau gène impliqué dans l’hypertension artérielle. Cette étude a été publiée dans Nature Genetics.

Ces nouveaux résultats soulignent l’importance du terrain génétique dans la  survenue  des  maladies communes et confortent l’intérêt du déploiement du Plan France Médecine Génomique 2025. L’un de ses objectifs consiste effectivement à permettre l’accès au dépistage génétique, même pour des pathologies communes, pour proposer une médecine individualisée.

L’hypertension artérielle est un facteur de risque cardiovasculaire majeur, qui touche jusqu’à 25% de la population. Dans environ 10% des cas, elle est due au dysfonctionnement de la glande surrénale qui produit en excès l’aldostérone, une hormone qui régule la pression artérielle. On parle alors d’hyperaldostéronisme primaire. Les patients touchés par cette maladie ont une hypertension souvent grave et résistante aux traitements habituels. Ces patients ont aussi plus de risques de développer des accidents cardiovasculaires, notamment des infarctus du myocarde et des AVC.

Afin de mieux comprendre les causes de cette maladie, Maria-Christina Zennaro et Fabio Fernandes-Rosa, chercheurs Inserm à Paris, ont analysé les exomes (la part du génome codant pour les protéines) de patients atteints d’hyperaldostéronisme primaire avant l’âge de 25 ans. Cette approche a permis d’identifier une mutation dans un gène jusqu’à alors inconnu, CLCN2. Ce gène code pour un canal chlorure, dont la présence et les effets dans la glande surrénale étaient alors inconnus.

Une production autonome d’aldostérone

Grâce à leur partenariat avec une équipe allemande dirigée par Thomas Jentsch à Berlin, les chercheurs ont étudié les mécanismes par lesquels cette mutation pouvait induire une production autonome d’aldostérone et déclencher une hypertension artérielle. Ils ont découvert que la mutation entrainait une ouverture permanente du canal chlorure.

Dans un modèle animal, les chercheurs ont montré que ce canal est justement exprimé dans la zone des surrénales produisant l’aldostérone. Par des expériences d’électrophysiologie et de biologie cellulaire, ils ont montré que l’influx de chlorure à travers le canal muté aboutissait à une augmentation des flux de chlorure et une dépolarisation de la membrane cellulaire. Les cellules de cortex surrénalien produisent alors plus d’aldostérone en présence du canal muté et expriment d’avantage les enzymes impliqués dans sa biosynthèse.

Cette découverte révèle un rôle jusqu’alors inconnu d’un canal chlorure dans la production d’aldostérone. Elle ouvre des perspectives tout à fait nouvelles dans la pathogenèse et la prise en charge de l’hypertension artérielle.

[1] Du Leibniz Institute for Molecular Pharmacology (FMP) et Max Delbrück Center for Molecular Medicine (MDC) à Berlin.

Diabète de type 1 : le rôle du thymus n’est pas celui que l’on croyait !

©nerthuz – adobestock 

C’est une petite révolution dans le monde de la recherche sur le diabète de type 1 : une étude menée par l’équipe Inserm dirigée par Roberto Mallone à l’Institut Cochin (Inserm, CNRS, Université Paris Descartes), remet en question le rôle attribué de longue date au thymus dans la sélection et l’élimination des globules blancs associés au diabète de type 1 et révèle que nous sommes tous auto-immuns. Ces découvertes changent notre compréhension des mécanismes du diabète de type 1 et suggèrent de nouvelles stratégies thérapeutiques pour lutter contre cette maladie.   

Ces travaux sont publiés dans la revue Science Immunology. 

Dans la grande famille des globules blancs, les lymphocytes sont en charge de la réponse immunitaire lors des infections. Parmi eux, les lymphocytes T sont responsables de la reconnaissance et de la destruction spécifique des agents pathogènes. Ces lymphocytes tirent le « T » de leur nom du thymus, organe de passage obligé entre leur lieu de naissance, la moelle osseuse, et leur entrée dans la circulation sanguine. Jusqu’à aujourd’hui, on pensait que le thymus était un lieu de maturation et de sélection des lymphocytes T et notamment d’une sous-catégorie rare (5 à 10 seulement pour 10 mL de sang !) impliquée dans le diabète de type 1 (DT1) : les lymphocytes TCD8+ (LTCD8+). Ces lymphocytes auto-immuns s’activent lorsqu’ils rencontrent pour la première fois certaines protéines caractéristiques comme celles des cellules β du pancréas, ce qui va les amener par la suite à les considérer comme indésirables et à les détruire.

Jusqu’à présent, il était admis que le thymus « présentait » aux LTCD8+ des fragments protéiques caractéristiques des cellules β pancréatiques afin de pouvoir les pré-activer, les détecter et les éliminer. Il était supposé que, dans le cas du DT1, la sélection du thymus était altérée, et que si un thymus sain filtrait la quasi-totalité des LTCD8+, celui d’une personne diabétique en laissait passer beaucoup plus dans la circulation sanguine. Or, en comparant des prélèvements sanguins sains et DT1, les chercheurs de l’Inserm ont pu observer que non seulement le sang des sujets sains présentait des LTCD8+, mais qu’en plus il en contenait autant que celui des personnes diabétiques. Ces résultats inattendus remettent en question le rôle du thymus dans la sélection des lymphocytes T : sa présentation des fragments β aux LTCD8+ n’entraînant pas leur élimination, sa sélection s’avère incomplète et inefficace.

Cette découverte implique une constatation étonnante : nous sommes tous auto-immuns. C’est en effet le prix à payer pour être bien protégés contre les menaces infectieuses, car les LTCD8+ épargnés par le thymus sont également capables de reconnaître des fragments protéiques microbiens similaires à ceux des cellules β (on parle de « reconnaissance croisée »).

Mais si nous sommes tous auto-immuns, alors pourquoi ne sommes-nous pas tous diabétiques ? Selon Roberto Mallone, chercheur Inserm à l’Institut Cochin qui a dirigé cette étude :

« le prochain défi est de mieux comprendre les ingrédients qui transforment l’auto-immunité « bénigne »  de Monsieur Tout-le-monde en DT1. Cela pourrait permettre de dépister le DT1 à une étape très précoce, et de développer des thérapies pour faire revenir l’auto-immunité à son état bénin. »

 Deux hypothèses principales sont à l’étude : la première est que les individus sains, contrairement aux individus diabétiques, seraient capables de garder leurs LTCD8+ sous contrôle, soit grâce à d’autres lymphocytes T régulateurs qui joueraient un rôle de « policiers », soit grâce à une faible activation des LTCD8+. La seconde hypothèse repose sur une potentielle vulnérabilité des cellules β des diabétiques, qui entraînerait soit leur détection comme indésirables par les LTCD8+, soit leur auto-destruction.

Le diabète fait partie des maladies communes, dans lesquelles des facteurs génétiques complexes interviennent. C’est pourquoi il figure au cœur du Plan France Médecine génomique 2025 porté par Aviesan et l’Inserm. Dès 2019, une expérience pilote sur le diabète comme modèle de maladie commune sera menée en France pour déterminer comment l’accès au séquençage génétique pourrait aboutir à des diagnostics plus fins et plus précoces qu’aujourd’hui et à la mise en place de traitements adéquats. Des nouveaux programmes de dépistage chez les apparentés de patients DT1 sont également mis en place avec les études TRAKR et INNODIA, afin d’arriver à un diagnostic précoce et lancer par la suite des essais cliniques de prévention.

Consommation d’aliments ultra-transformés et risque de cancer

© AdobeStock

Une nouvelle étude associant des chercheurs de l’Inserm, de l’Inra et de l’Université Paris 13 (Centre de recherche épidémiologie et statistique Sorbonne Paris Cité, équipe EREN) suggère une association entre la consommation d’aliments ultra-transformés et le sur-risque de développer un cancer. Au total, 104 980 participants de la cohorte française NutriNet-Santé ont été inclus. Au cours du suivi (8 ans), 2 228 cas de cancers ont été diagnostiqués et validés. Une augmentation de 10% de la proportion d’aliments ultra-transformés dans le régime alimentaire s’est révélée être associée à une augmentation de plus de 10% des risques de développer un cancer au global et un cancer du sein en particulier. Parmi les différentes hypothèses qui pourraient expliquer ces résultats, la moins bonne qualité nutritionnelle globale des aliments ultra-transformés ne serait pas la seule impliquée, suggérant des mécanismes mettant en jeu d’autres composés (additifs, substances formées lors des process industriels, matériaux au contact des aliments, etc.). Ces résultats doivent donc être considérés comme une première piste d’investigation dans ce domaine et doivent être confirmés dans d’autres populations d’étude. Notamment, le lien de cause à effet reste à démontrer. Cette étude est publiée le 15 février 2018 dans le British Medical Journal.

Durant les dernières décennies, les habitudes alimentaires se sont modifiées dans le sens d’une augmentation de la consommation d’aliments ultra-transformés qui contribuent aujourd’hui à plus de la moitié des apports énergétiques dans de nombreux pays occidentaux. Ils se caractérisent souvent par une qualité nutritionnelle plus faible, mais aussi par la présence d’additifs alimentaires, de composés néoformés et de composés provenant des emballages et autres matériaux de contact.

Des études récentes ont montré des associations entre la consommation d’aliments ultra-transformés et un risque accru de dyslipidémies, de surpoids, d’obésité, et d’hypertension artérielle. Toutefois, aucune étude n’a porté sur le risque de cancer, alors que des expérimentations chez l’animal suggèrent de potentiels effets cancérogènes de plusieurs composants habituellement présents dans les aliments ultra-transformés.

Au total, 104 980 participants de la cohorte française NutriNet-Santé (suivis entre 2009 et 2017) ont été inclus. Les données alimentaires ont été recueillies à l’entrée dans l’étude à l’aide d’enregistrements de 24h répétés, conçus pour évaluer la consommation habituelle des participants pour 3300 aliments différents. Ceux-ci ont été classés en fonction de leur degré de transformation par la classification NOVA (voir encadré ci-dessous).

Au cours du suivi, 2 228 cas de cancers ont été diagnostiqués et validés. Une augmentation de 10% de la proportion d’aliments ultra-transformés dans le régime alimentaire s’est révélée être associée à une augmentation de plus de 10% des risques de développer un cancer au global et un cancer du sein en particulier. Ces résultats étaient significatifs après prise en compte d’un grand nombre de facteurs sociodémographiques et liés au mode de vie, et également en tenant compte de la qualité nutritionnelle de l’alimentation. Ceci suggère que la moins bonne qualité nutritionnelle globale des aliments ultra-transformés ne serait pas le seul facteur impliqué dans cette relation.

Ces résultats doivent être considérés comme une première piste d’investigation dans ce domaine et doivent être confirmés dans d’autres populations d’étude. Notamment, le lien de cause à effet reste à démontrer. De même, d’autres études sont nécessaires afin de mieux comprendre l’impact relatif des différentes dimensions de la transformation des aliments (composition nutritionnelle, additifs alimentaires, matériaux de contact et contaminants néoformés) dans ces relations.

Pour poursuivre ces travaux, l’équipe de recherche lance actuellement un nouveau programme sur les additifs alimentaires, dont l’objectif principal sera d’évaluer les expositions alimentaires usuelles à ces substances et d’étudier leurs effets potentiels sur la santé et la survenue de maladies chroniques. Ceci sera rendu possible grâce à une évaluation précise et répétée de l’exposition alimentaire dans la cohorte NutriNet-Santé (mais également des compléments alimentaires et des médicaments), incluant les marques et noms commerciaux des aliments industriels consommés. Ce dernier point est fondamental pour estimer de manière précise l’exposition aux additifs au niveau individuel étant donné la grande variabilité des compositions entre les marques. Le recrutement de nouveaux volontaires pour participer à l’étude NutriNet-Santé se poursuit. Il suffit pour cela de s’inscrire en ligne (www.etude-nutrinet-sante.fr) et de remplir des questionnaires, qui permettront aux chercheurs de faire progresser les connaissances sur les relations entre nutrition et santé et ainsi d’améliorer la prévention des maladies chroniques par notre alimentation.

 

Définition et exemples d’aliments ultra-transformés

La classification NOVA permet de catégoriser les aliments selon 4 groupes, en fonction de leur degré de transformation industrielle (aliments peu ou pas transformés, ingrédients culinaires, aliments transformés, aliments ultra-transformés). Cette étude portait sur le groupe des «aliments ultra-transformés», qui comprend par exemple les pains et brioches industriels, les barres chocolatées, les biscuits apéritifs, les sodas et boissons sucrées aromatisées, les nuggets de volaille et de poisson, les soupes instantanées, les plats cuisinés congelés ou prêts à consommer, et tous produits transformés avec ajout de conservateurs autre que le sel (nitrites par exemple), ainsi que les produits alimentaires principalement ou entièrement constitués de sucre, de matières grasses et d’autres substances non utilisées dans les préparations culinaires telles que les huiles hydrogénées et les amidons modifiés. Les procédés industriels comprennent par exemple l’hydrogénation, l’hydrolyse, l’extrusion, et le prétraitement par friture. Des colorants, émulsifiants, texturants, édulcorants et d’autres additifs sont souvent ajoutés à ces produits.

Exemples :

-Les compotes de fruits avec seulement du sucre ajouté sont considérées comme des «aliments transformés», tandis que les desserts aux fruits aromatisés avec du sucre ajouté, mais également des agents texturants et des colorants sont considérés comme des «aliments ultra-transformés».

-Les viandes rouges ou blanches salées sont considérées comme des «aliments transformés» alors que les viandes fumées et/ou avec des nitrites et des conservateurs ajoutés, comme les saucisses et le jambon, sont classées comme «aliments ultra-transformés».

-De même, les conserves de légumes uniquement salées sont considérées comme des «aliments transformés» alors que les légumes industriels cuits ou frits, marinés dans des sauces et/ou avec des arômes ou texturants ajoutés (comme les poêlées industrielles de légumes) sont considérés comme des «aliments ultra-transformés».

Source : Monteiro CA, Cannon G, Moubarac JC, Levy RB, Louzada MLC, Jaime PC. The UN Decade of Nutrition, the NOVA food classification and the trouble with ultra-processing. Public Health Nutr 2018;21:5-17. http://dx.doi.org/10.1017/S1368980017000234

Une nouvelle technique hybride d’imagerie médicale non invasive ultra performante

Actuellement en pleine ébullition, l’imagerie médicale pourrait bien avoir trouvé une technique inédite permettant d’observer de multiples facettes du vivant en temps réel et de manière non invasive. En effet, des équipes de chercheurs Inserm et CNRS au sein de l’Institut Langevin (ESPCI Paris – Université PSL / CNRS), de l’Accélérateur de Recherche Technologique (A.R.T. Inserm) en Ultrasons biomédicaux et du centre de recherche cardiovasculaire de Paris (Inserm / Université Paris Descartes) ont mis au point un nouvel instrument d’imagerie médicale associant la tomographie par émission de positons – « Pet-scan* » – avec l’imagerie ultrasonore ultrarapide, baptisé PETRUS pour Positron Emission Tomography Registered Ultrafast Sonography. Ces équipes ont obtenu des images en trois  dimensions où l’anatomie, le métabolisme, la fonctionnalité et même l’élasticité des organes sont parfaitement superposés. Ces travaux font la couverture de la revue Nature Biomedical Engineering le 6 Février.

Les chercheurs ont pu tester leur méthode à partir d’instruments commercialisés et assemblés sans modification majeure. Ils ont notamment imagé des tumeurs cancéreuses chez la souris, ou encore l’activité cardiaque chez le rat afin de tester la synchronisation des deux méthodes et la complémentarité des paramètres observés.  Parce qu’elle permet de visualiser simultanément plusieurs paramètres biologiques fondamentaux sous forme de cartes paramétriques quantitatives, cette nouvelle imagerie reflète encore plus finement la complexité de la topologie du vivant.

Cette technique totalement a-traumatique d’observation du vivant en temps réel offre de nombreuses perspectives : explorer le lien entre le métabolisme et la vascularisation d’organes comme le cœur, le rein ou encore le foie, suivre de manière plus précise l’effet des nouveaux traitements sur le cancer, caractériser les suites d’un infarctus, etc. Développée dans un contexte préclinique, PETRUS est une technologie performante aisément traduisible cliniquement pour la recherche biomédicale.

Figure 1: a : Le système PETRUS associe un tomographe à positons (TEP), un scanner X et un échographe ultrarapide. Le recalage entre les trois volumes d’images est assuré par micro positionneur motorisé. b : à gauche, cinétique du métabolisme glucidique obtenu par TEP après administration du désoxyfluoroglucose ; à droite, imagerie Doppler 3D ultrarapide (500 images par seconde) montrant la vascularisation tumorale. c : imagerie chez une souris montrant la topographie des signaux métabolique et vasculaire superposés; à gauche, vue cavalière d’une souris ; au centre et à droite, vue agrandie 3D et coupe d’une tumeur. Les échelles de couleur indiquées à gauche sont les mêmes pour les trois images. ©Provost J et al., Nature Biomedical Engineering

Figure 2 : Imagerie PETRUS thorax fermé d’un cœur du rat battant vue par son petit axe montrant l’anatomie cardiaque par échographie ultrarapide (en noir et blanc) et l’activité métabolique du myocarde en fin de diastole à gauche, en fin de systole au centre et à mi-diastole à droite. Notez la superposition parfaite du signal métabolique avec la paroi myocardique. Chaque image correspond au signal moyen pendant un dixième de la durée d’un cycle cardiaque. Echelle : 1 mm. ©Provost J et al., Nature Biomedical Engineering.

Ces travaux ont fait l’objet du dépôt d’une demande de brevepar Inserm Transfert

*Pet-Scan ou Tomographie par émission de Positons : imagerie médicale en 3D permettant d’imager en 3D l’activité métabolique ou moléculaire d’un organe, en s’appuyant sur le principe de la scintigraphie.

Horloge biologique : à chaque organe, son rythme

©Adobe Stock

Une équipe de chercheurs de l’Inserm dirigée par Howard Cooper (Unité Inserm 1208  » Institut cellule souche et cerveau ») en collaboration avec des collègues américains fournit pour la première fois une cartographie inédite de l’expression des gènes, organe par organe, et selon le moment de la journée ; un travail colossal commencé il y a dix ans et qui a nécessité deux ans d’analyse. Ces résultats publiés dans Science montrent combien il est important de tenir compte de l’horloge biologique pour administrer les médicaments au bon moment afin d’améliorer leur efficacité et d’en réduire les effets indésirables. Les chercheurs préparent désormais un atlas qui sera disponible pour l’ensemble de la communauté.

Environ deux tiers des gènes codant pour des protéines sont exprimés de façon cyclique au cours des 24 heures avec des pics en matinée et en début de soirée. Néanmoins, cette expression varie beaucoup d’un tissu à l’autre confirmant que, en plus de l’horloge centrale interne, chaque organe exprime sa propre horloge. Une équipe Inserm le prouve pour la première fois chez une espèce diurne et fournit une cartographie spatio-temporelle inédite de l’expression circadienne des gènes pour l’ensemble des organes. Ces travaux marquent une avancée majeure dans le domaine de la chronobiologie.

Jusque-là, les études destinées à explorer le rythme circadien dans les différents organes étaient menées principalement chez des animaux modèles comme la drosophile (travaux récompensés l’année dernière par le prix Nobel) et les espèces nocturnes, en particulier la souris. L’horloge circadienne étant principalement synchronisée par le cycle de lumière jour-nuit, il aurait été tentant d’inverser le cycle pour obtenir des données chez les animaux diurnes. Mais les rongeurs ne sont pas seulement en décalage de phase par rapport à l’homme, ils ont aussi un mode de vie très différent : un sommeil fragmenté de jour comme de nuit contre un sommeil plus consolidé pendant la nuit pour les diurnes ou encore une alimentation permanente pendant la phase d’éveil nocturne alors que les hommes prennent  des repas répartis de façon régulière. Autant de facteurs qui contribuent également à la synchronisation de l’horloge biologique. Il était donc temps de travailler chez des espèces plus proches de l’homme pour en savoir plus chez ce dernier.

Pour cela, les chercheurs ont analysés les ARNs de plus de 25 000 gènes de 64 organes et tissus, toutes les deux heures et pendant vingt-quatre heures, chez des primates non humains. Les organes principaux ont été passés au crible ainsi que différentes régions du cerveau. Au total, les chercheurs ont analysé 768 prélèvements. Un travail colossal commencé il y a dix ans et qui a nécessité deux ans d’analyse ! Pour chacun d’entre eux, ils ont recherché, quantifié et identifié les ARN présents dans les cellules. Ces ARN deviennent ensuite des protéines ou restent à l’état d’ARN avec des propriétés régulatrices sur d’autres molécules. C’est ce qu’on appelle le transcriptome.

 

80% des gènes réglés sur l’horloge biologique assurent les fonctions essentielles des cellules

Les auteurs ont constaté que 80% des gènes exprimés de façon cyclique, codent pour des protéines assurant des fonctions essentielles de la vie des cellules comme l’élimination des déchets, la réplication et la réparation de l’ADN, le métabolisme, etc. Mais, il existe une très grande diversité des transcriptomes, c’est-à-dire de l’ensemble des ARN, présents dans les cellules des différents échantillons au cours des 24 heures.

Le nombre de gènes exprimés de façon cyclique varie en nombre (environ 3000 dans la thyroïde ou le cortex préfrontal contre seulement 200 dans la moelle osseuse) et en nature : moins de 1% des gènes « rythmiques » dans un tissu le sont également dans les autres tissus. 

Même les treize gènes connus de l’horloge biologique, que les auteurs s’attendaient à retrouver de façon cyclique dans tous les échantillons, n’y sont finalement pas tous présents, pas dans les mêmes quantités ou pas au même moment. Les seuls points communs entre ces 64 tissus sont finalement les pics bien définis d’expression des gènes au cours de la journée : en fin de matinée et en début de soirée. Le premier, le plus important, survient entre 6 et 8 heures après le réveil avec plus de 11.000 gènes exprimés à ce moment-là dans l’organisme. Et le second moins intense voit environ 5000 gènes en action dans les tissus. Puis, les cellules sont quasiment au repos au cours de la nuit, particulièrement lors de la première partie de la nuit.

Ces résultats ont surpris les auteurs par l’ampleur de la rythmicité des organes du primate non humain et des applications possibles.  » Deux tiers des gènes codants fortement rythmés, c’est beaucoup plus que ce à quoi nous nous attendions » clarifie Howard Cooper, directeur de recherche Inserm au sein de l’équipe « Chronobiologie et Désordres Affectifs » de l’Unité Inserm 1208. « Mais surtout, 82% d’entre eux codent des protéines ciblées par des médicaments ou sont des cibles thérapeutiques pour de futurs traitements. Cela prouve combien il est important de tenir compte de l’horloge biologique pour administrer les médicaments au bon moment de la journée afin d’améliorer l’efficacité et de réduire les effets indésirables. Quelques experts travaillent sur ces questions, notamment dans le domaine du cancer, mais il faut à mon avis aller beaucoup plus loin. C’est pourquoi nous préparons un véritable atlas, sous forme de base de données consultable, pour permettre aux scientifiques du monde entier de connaitre enfin le profil d’expression de chaque gène dans les différents organes au cours de 24 heures « , précise le chercheur

Migraine : ces zones du cerveau que l’on croyait indolores

©Carson Arias – Unsplash

Aurait-on cru à tort depuis 70 ans que certaines zones du cerveau étaient insensibles à la douleur ? C’est ce que laissent penser les résultats d’une équipe de chercheurs de l’Inserm, du CHU de Nice, d’Université Côte d’Azur et de l’hôpital St Anne à Paris. En collectant des observations de douleurs brèves lors de chirurgies du cerveau sur patients éveillés, les chercheurs ont pu observer que certaines structures, jusqu’alors considérées comme indolores, étaient à l’origine de sensations douloureuses lorsqu’elles étaient stimulées mécaniquement. Ces observations, publiées prochainement dans la revue Brain, ouvrent de nouvelles pistes à explorer dans le traitement des maux de tête et de la migraine en particulier.

Depuis plus de 70 ans, il est communément admis que la sensibilité douloureuse intracrânienne est limitée à la dure-mère – l’enveloppe méningée la plus externe qui tapisse la voûte et la base du crâne – et à ses vaisseaux nourriciers. La pie-mère – la méninge la plus fine, qui tapisse les circonvolutions et sillons cérébraux – et ses vaisseaux nourriciers sont considérés comme insensibles à la douleur. Ce postulat permet aux neurochirurgiens de réaliser des chirurgies intracrâniennes (craniotomies) indolores sur des patients éveillés. Jusqu’à présent, ce principe conditionnait également les recherches concernant le traitement des maux de tête et notamment de la migraine.

Afin de mieux comprendre l’origine des maux de tête, des chercheurs de l’Inserm, du CHU de Nice et d’Université Côte d’Azur se sont intéressés à cette insensibilité supposée de la pie-mère et de ses vaisseaux nourriciers. Pour réaliser cette étude, ils ont mis à contribution de 2010 à 2017, 3 neurochirurgiens et 53 de leurs patients atteints de tumeurs cérébrales devant être extraites en craniotomie éveillée. Durant l’opération, les patients soumis aux stimulations mécaniques inhérentes à l’acte chirurgical, devaient indiquer quand et où ils ressentaient une douleur. Le chirurgien notait quant à lui les structures crâniennes dont la stimulation avait provoqué la douleur.

En moyenne, près de deux sensations douloureuses ont été rapportées par patient, toutes du même côté que celui du stimulus. La douleur, brève et aiguë, s’arrêtait dès la fin de la stimulation. Les chercheurs ont notamment constaté que les stimulations de la pie-mère et de ses vaisseaux nourriciers entraînaient une douleur, localisée la plupart du temps dans le territoire sensitif V1. Ce territoire innerve le front, les orbites, la cornée, les régions temporales supérieures et antérieures, la racine du nez ainsi que la muqueuse nasale.                      

 

 

©Denys Fontaine – Correspondance entre à droite, les zones stimulées de la pie-mère lors des chirurgies et à gauche, les zones où le patient indique avoir ressenti la douleur.

Ces observations contredisent la théorie admise jusqu’à présent et plaident en faveur d’une sensibilité à la douleur de la pie-mère et de ses vaisseaux nourriciers. Elles permettent également de suggérer que ces structures peuvent être impliquées dans les céphalées, au même titre que les autres structures crâniennes sensibles.

Pour des raisons éthiques et pratiques, il n’a pas été possible lors de cette étude d’explorer systématiquement les structures crâniennes apparues comme sensibles. Cependant, l’identification des récepteurs impliqués dans la détection des messages douloureux pourrait constituer un nouvel axe de recherche pour le traitement des céphalées et, notamment, de la migraine.

fermer