Menu

Augmentation du risque d’AVC ischémique associée à certains médicaments destinés à soulager les nausées et vomissements

Chaque année en France, 140 000 personnes sont victimes d’un accident vasculaire cérébral. © Adobe Stock

Chaque année en France, 140 000 personnes sont victimes d’un accident vasculaire cérébral (AVC)[1]. Environ 80 % d’entre eux sont des infarctus cérébraux ou AVC ischémiques, liés à l’occlusion d’une artère cérébrale par un caillot sanguin. Des études ont montré que le risque d’AVC ischémique était augmenté par la prise d’antipsychotiques, médicaments aux propriétés antidopaminergiques[2] communément prescrits en psychiatrie. Des chercheurs et chercheuses de l’Inserm et de l’université de Bordeaux (Centre de recherche Bordeaux Population Health), et du CHU de Bordeaux, ont évalué le risque d’AVC ischémique associé à l’exposition à d’autres médicaments antidopaminergiques : les antiémétiques, des médicaments utilisés de façon très courante dans le traitement symptomatique des nausées et vomissements. Les résultats de cette étude, obtenus grâce à l’analyse des données nationales de remboursement de soins de l’Assurance Maladie, mettent en évidence une association entre la prise de ces médicaments et le risque de présenter un AVC ischémique. Ils sont publiés dans le British Medical Journal.

Depuis le début des années 2000, la prise des médicaments antipsychotiques indiqués en psychiatrie a été associée à un risque augmenté d’AVC ischémique. Ce risque a été démontré pour l’ensemble de ces médicaments à propriétés antidopaminergiques ; il augmente avec l’âge et l’existence d’une démence. Les mécanismes sous-jacents ne sont pas élucidés, l’action antidopaminergique est une hypothèse possible. Les antiémétiques -dompéridone, métoclopramide et métopimazine- utilisés dans le traitement symptomatique des nausées et vomissements d’origines diverses (gastro-entérite aigüe, migraine, contexte post-opératoire ou dans le cadre d’une chimio- ou radiothérapie) sont d’autres médicaments présentant cette propriété.

A ce jour, aucune étude n’avait été publiée évaluant le risque d’AVC ischémique associé à une exposition aux antiémétiques antidopaminergiques. Ces médicaments sont pourtant utilisés de façon très courante : en 2017 en France, plus de 4 millions de personnes avaient eu au moins un remboursement de métopimazine, le plus utilisé d’entre eux.

Des chercheurs et chercheuses de l’Inserm, de l’université de Bordeaux et du CHU de Bordeaux se sont intéressés à ce risque. Ils ont réalisé une étude[3] dite « cas propre-témoin » en utilisant les données de remboursement de l’Assurance Maladie et celles des admissions à l’hôpital. Dans ce type d’étude, l’utilisation potentielle du médicament dans la période précédant immédiatement l’accident (ici 14 jours) est comparée à la même utilisation au cours d’une période plus ancienne (ici plus d’un mois) où elle ne peut avoir provoqué l’événement. Une utilisation plus forte dans la période précédant immédiatement l’accident est en faveur d’un rôle joué par le médicament dans l’attaque.

Cette méthode permet de prendre en compte automatiquement les facteurs de risque personnels d’AVC ischémique, tels que le tabagisme, l’indice de masse corporelle, l’activité physique, ou les habitudes alimentaires. D’autres facteurs susceptibles de varier dans le temps court du suivi chez un même individu ont été considérés parmi lesquels l’utilisation de médicaments facteurs de risque d’AVC (tels que les vasoconstricteurs) ou au contraire prémunissant contre ce risque (anticoagulants, antiagrégants plaquettaires).

L’étude a ainsi dans un premier temps analysé les données pour 2 612 adultes hospitalisés pour un premier AVC ischémique et ayant débuté un traitement par antiémétiques dans les 70 jours précédant l’AVC ischémique. Chez ces sujets, les analyses ont retrouvé une plus forte consommation d’antiémétiques dans les jours précédant l’AVC marquée par un pic de d’initiation de traitement sur cette période. Ce résultat suggère qu’il y aurait une augmentation du risque d’AVC ischémique en début d’utilisation de ces médicaments (Figure ci-dessous).

antiémétiques

Distribution de l’initiation des antiémétiques au cours des 70 jours ayant précédé la survenue de l’AVC ischémique (N=2 612 sujets avec AVC ischémique).

Pour éliminer un biais dans les résultats qui pourrait survenir si l’utilisation du médicament variait fortement au cours du temps dans la population générale (par exemple, lors d’épidémies de gastro-entérite aiguë), l’étude a dans un second temps considéré, sur la même période, un groupe aléatoirement constitué de 21 859 personnes n’ayant pas présenté d’AVC. Chez ces personnes, aucun pic ou excès d’utilisation d’antiémétiques comparable à celui mis en évidence chez les patients ayant présenté un AVC n’a été retrouvé (Figure ci-dessous).

Distribution de l’initiation des antiémétiques au cours des 70 jours précédant la date de référence (N= 21 859 sujets n’ayant pas présenté d’AVC ischémique).

Les résultats de cette étude suggèrent une augmentation du risque d’AVC ischémique dans les premiers jours d’utilisation des médicaments antiémétiques antidopaminergiques. Cette augmentation de risque était retrouvée pour les trois antiémétiques étudiés -dompéridone, métoclopramide et métopimazine-, et le risque apparaissait plus élevé dans les premiers jours d’utilisation.

« Cette première étude apporte un signal fort, portant sur des médicaments largement utilisés dans la population générale. Dans l’immédiat, il parait très important que ces résultats puissent être répliqués dans d’autres études, études qui pourraient en outre apporter des indications sur la fréquence de cet effet indésirable, que nous ne pouvions pas mesurer ici compte tenu de l’approche méthodologique retenue. Disposer d’informations précises sur les sous-types d’AVC ischémiques et leur localisation permettrait également d’explorer les mécanismes en cause », explique Anne Bénard-Laribière, l’une des auteurs de l’étude.

 

[1]  Accident vasculaire cérébral (AVC), La première cause de handicap acquis de l’adulte, Inserm, 2019

[2] Les antidopaminergiques bloquent l’action de la dopamine, un neurotransmetteur impliqué, entre autres, dans la régulation du comportement, mais aussi du tonus musculaire et la coordination des mouvements.

[3] Cette étude a été réalisée dans le cadre du programme de travail du Centre DRUGS-SAFER, financé par l’ANSM et partenaire du GIS EPI-PHARE.

Restaurer la conscience grâce à une stimulation profonde du cerveau : une piste pour la recherche sur le coma

©Adobe stock

Une équipe de de recherche associant des chercheurs en neurosciences et des cliniciens du CEA, de l’Hôpital Foch, de l’Université de Versailles Saint-Quentin-en-Yvelines, de l’Inserm et du Collège de France apporte la preuve que la stimulation cérébrale profonde (deep brain stimulation, DBS) peut rétablir la conscience lorsque celle-ci est altérée. Ce résultat, fruit de plus de 5 ans de travail mené chez l’animal, ouvrirait la voie à des essais cliniques chez les patients qui ne recouvrent pas la conscience et a fait l’objet d’une publication dans la revue Science Advances.

La conscience est un processus dynamique et complexe qui coordonne l’activité de différentes régions du cerveau, particulièrement le tronc cérébral, le thalamus et le cortex.

Il existe deux niveaux hiérarchiques de conscience. Le premier est celui de l’éveil, ou vigilance, caractérisé par l’ouverture sur le monde. Il correspond à l’activation de structures très profondes du cerveau nichées dans le tronc cérébral. Le deuxième est « l’accès conscient », caractérisé par la perception consciente de telle ou telle information. À chaque fois que nous prenons conscience d’une information, par exemple une note de musique, ce contenu de conscience est codé par l’activation simultanée de groupes de neurones distribués dans différentes aires du cortex (l’« écorce » plissée, composée de six couches de neurones, qui tapisse les deux hémisphères). Un lien a été établi entre la perte de conscience et une forte perturbation des communications entre les différentes aires du cortex cérébral, et entre le cortex et le thalamus, une région du cerveau à mi-chemin entre le tronc cérébral et le cortex.

Les études d’imagerie cérébrale suggèrent que le rétablissement de ces communications entre cortex et thalamus pourrait être la clé de la récupération des troubles chroniques de la conscience. Plusieurs équipes à travers le monde ont eu l’idée de les rétablir par des stimulations électriques.

Si de premiers résultats avaient déjà montré qu’une telle stimulation pouvait permettre de rétablir le premier niveau de conscience (l’état d’éveil), aucune n’avait pu démontrer si une telle stimulation pouvait aussi rétablir le deuxième niveau de conscience, « l’accès conscient ».

Et si le centre du thalamus était la bonne cible à stimuler pour rétablir les deux niveaux hiérarchiques d’une conscience altérée ? C’est l’hypothèse testée par l’équipe de recherche française à l’origine de ce travail publié dans Science Advances et associant le CEA, l’Hôpital Foch, l’Université de Versailles Saint-Quentin-en-Yvelines, l’Inserm et le Collège de France.

La stimulation électrique du thalamus permet de restaurer une conscience perdue

Pour tester leur hypothèse, les chercheurs ont appliqué une anesthésie générale à un primate non-humain, et ce afin de supprimer les deux composantes de la conscience, à savoir l’éveil et l’accès conscient. Une électrode de stimulation cérébrale profonde, un dispositif équivalent à celui utilisé chez des patients atteints de la maladie de Parkinson avait préalablement été implanté chez ces animaux. Résultat : pendant l’anesthésie générale, la stimulation électrique de la partie centrale du thalamus a permis de réveiller les primates anesthésiés.

La stimulation électrique a induit immédiatement l’observation clinique de l’ouverture des yeux, la reprise d’une respiration spontanée, et des mouvements des membres. L’arrêt de la stimulation par la coupure du courant électrique a fait immédiatement replonger le primate dans un état de sédation profonde, celui de l’anesthésie générale. Cette expérience a ainsi pu démontrer dans un premier temps que la stimulation cérébrale profonde peut restaurer le premier niveau de la conscience.

Grâce à la technologie de l’imagerie cérébrale par IRM fonctionnelle et également d’un examen par électroencéphalographie, les chercheurs sont parvenus pour la première fois à mesurer finement, durant la stimulation du thalamus, les deux niveaux de la conscience (éveil et accès conscient). Ils ont observé de près les activations cérébrales de l’animal, pendant l’anesthésie et pendant les périodes de « réveil » induit par la stimulation. De plus, un casque permettait de faire écouter au primate une série de sons différents réalisant une composition complexe. Alors qu’il avait perdu sa capacité à intégrer la complexité de la composition sonore sous l’effet de l’anesthésie profonde, le cerveau a retrouvé cette capacité dès la mise en route de la stimulation cérébrale. Une analyse algorithmique appliquée au signal IRM fonctionnelle de repos (en dehors des périodes d’application des compositions sonores) a pu démontrer que la stimulation cérébrale ramenait au cerveau une richesse d’activité perdue sous anesthésie générale. Ainsi, la stimulation cérébrale du thalamus a pu restaurer les deux dimensions fondamentales et hiérarchiques de la conscience. Ce travail scientifique apporte une pièce maîtresse pour envisager de futurs essais cliniques chez les patients souffrant de troubles chroniques de la conscience.

Après un traumatisme crânien grave ou un accident vasculaire cérébral sévère, il arrive que des patients ne recouvrent jamais un état de conscience normal. Du coma initial soigné en réanimation, le patient passe à un état chronique de conscience altérée pour lequel il n’existe aucun traitement validé. L’espoir pourrait venir des neurosciences qui, depuis une vingtaine d’années, ont considérablement fait progresser la compréhension du phénomène neurobiologique de la conscience.

 

Ce travail a bénéficié du soutien de la Fondation Bettencourt Schueller, de la Fondation pour la Recherche Médicale, de la Fondation de France, du Human Brain Project et du Collège de France.

Covid-19 : La vaccination « réactive », un outil efficace en cas de circulation virale élevée ?

vaccin covid

Les scientifiques réfléchissent à de nouvelles stratégies pour continuer à promouvoir la vaccination auprès des populations qui demeurent hésitantes © Mat Napo sur Unsplash

Bien que la majorité de la population française soit entièrement vaccinée, la circulation du virus est toujours active dans le pays. Dans un contexte de levée des restrictions sanitaires, la crainte d’une reprise épidémique et de l’émergence de nouveaux variants plus contagieux conduit les scientifiques à réfléchir à de nouvelles stratégies pour continuer à promouvoir la vaccination auprès des populations qui demeurent hésitantes. Une nouvelle étude de modélisation réalisée par des chercheurs et chercheuses de l’Inserm et de Sorbonne Université à l’Institut Pierre Louis d’Epidémiologie et de Santé Publique  montre qu’une stratégie de vaccination dite « réactive », dans laquelle la vaccination est proposée à tout l’entourage d’une personne infectée, pourrait avoir des effets bénéfiques, réduisant le nombre de cas de Covid-19 dans certaines situations épidémiques. Les résultats de ces travaux sont publiés dans le journal Nature Communications.  Les chercheurs ont été soutenus par l’ANRS | Maladies infectieuses émergentes via le projet Emergen.

 

Les campagnes de vaccination massive contre la Covid-19 dans de nombreux pays ont permis d’atténuer considérablement la pandémie. Toutefois, le taux de personnes vaccinées stagne désormais en Europe et aux Etats-Unis, à cause de contraintes logistiques et de l’hésitation d’une partie de la population à se faire vacciner. 

En mars 2022, 79 % des Français étaient complètement vaccinés avec un schéma vaccinal à deux doses et 53 % avait reçu la troisième dose de rappel. Même si ces nombres sont élevés, les efforts pour contrer l’épidémie doivent être maintenus car dans un contexte de circulation virale toujours élevée et de levée des restrictions sanitaires, la reprise épidémique n’est pas encore exclue, et, avec elle, l’apparition de variants plus contagieux.

Dans ce contexte, de nombreux scientifiques estiment donc qu’il faut tester d’autres stratégies vaccinales favorisant accessibilité et acceptabilité pour une meilleure efficacité.

Les chercheuses et chercheurs de l’Inserm et de Sorbonne Université se sont ainsi intéressés à une stratégie de vaccination dite « réactive », qui implique de vacciner l’ensemble de l’entourage des cas dans le foyer et le lieu de travail ou de scolarité. Cette approche est déjà utilisé dans d’autres contextes épidémiques, par exemple face à des vagues de méningites. Dans le contexte de la Covid-19, elle a ponctuellement été utilisée sur le terrain en France, par exemple à Strasbourg au sein de la Haute Ecole des Arts du Rhin (HEAR), à la suite de la découverte d’un cluster du variant delta.

Qu’est-ce que la « vaccination en anneau » (ring vaccination) ?

Dans d’autres contextes épidémiques, par exemple lors de certaines épidémies d’Ebola, d’autres stratégies innovantes ont été déployées pour toucher le plus de monde possible. La plus connue est la stratégie de vaccination en anneau qui consiste à vacciner autour d’un cas avéré les cas contacts directs et les cas contacts de ces derniers.

L’équipe de recherche a voulu évaluer les effets de cette approche réactive sur la circulation virale et le nombre de cas de Covid-19, dans différents scénarios épidémiques. Pour construire leur modèle, les scientifiques se sont appuyés sur des données de l’Insee afin de modéliser une population type, possédant les caractéristiques sociodémographiques, les contacts sociaux et les situations professionnelles d’une population d’une ville française de taille moyenne.

Plusieurs paramètres ont par ailleurs été intégrés au modèle, notamment les caractéristiques de la maladie, la couverture vaccinale, l’efficacité des vaccins, les restrictions des contacts dans les lieux de travail ou dans la communié, leurs déplacements, ou encore la mise en place de stratégies de traçage des cas-contacts.

Les scientifiques ont alors pu étudier l’impact d’une stratégie de vaccination réactive dans le cadre de plusieurs scénarios de dynamique épidémique. Ils montrent ainsi que dans la plupart des scénarios, avec un même nombre de doses de vaccins, une stratégie réactive est plus efficace que d’autres stratégies de vaccination pour réduire le nombre de cas de Covid-19.

Par exemple, dans un contexte où la couverture vaccinale est d’environ 45 % et où la circulation virale est élevée, la réduction du nombre de cas sur une période de deux mois passe de 10 à 16 %, si on compare un programme de vaccination de masse avec un programme où la vaccination réactive est mise en place en parallèle à la vaccination de masse.

Les résultats suggèrent que cette stratégie est surtout efficace lorsque la couverture vaccinale est faible et lorsqu’elle est couplée à des mesures robustes de traçage des cas-contacts.

Lorsque la couverture vaccinale est élevée, une stratégie réactive est moins intéressante, puisque majorité de l’entourage de la personne infectée est déjà vaccinée. Néanmoins, une telle approche aurait quand même le bénéfice d’atteindre les personnes qui ne seraient pas encore vaccinées et de les convaincre plus facilement de l’utilité du vaccin. En effet, le fait d’avoir été exposé au virus augmente la perception des risques et tend à rendre la vaccination plus acceptable.

« Le modèle que nous avons construit permet d’envisager la vaccination réactive comme une stratégie efficace pour augmenter la couverture vaccinale et pour réduire le nombre de cas dans certains scénarios épidémiques, surtout lorsqu’elle est couplée à d’autres mesures comme un traçage efficace des cas contacts. Il s’agit d’un outil qui pourra aussi être réutilisé et adapté en France dans le cas où un autre variant émergerait et où il faudrait tester l’efficacité d’une stratégie réactive pour administrer d’éventuelles doses de rappel. Cette modélisation peut aussi intéresser d’autres pays aux caractéristiques sociodémographiques similaires à la France, dans lesquels la couverture vaccinale est plus faible », explique Chiara Poletto, chercheuse Inserm et dernière auteure de l’étude.

La suggestion hypnotique éclairée par les neurosciences

Hypnose

© Photo Brent De RanterUnsplash


Dans les murs de l’hôpital Pitié-Salpêtrière AP-HP où Charcot a exploré l’hypnose à la fin du XIXe siècle, une équipe de recherche associant des chercheurs et chercheuses de Sorbonne Université, de l’AP-HP, du CNRS et de l’Inserm1, et dirigée par le professeur Lionel Naccache, vient de rapporter une observation originale qui éclaire les mécanismes cérébraux et psychologiques de la suggestion hypnotique. Ce travail de recherche vient d’être publié dans la revue Frontiers in Neuroscience.

La suggestion hypnotique permet d’induire volontairement chez un individu des états mentaux conscients très variés, et elle peut être utilisée à la fois dans le cadre de la recherche sur la biologie de la conscience, et dans un cadre thérapeutique où elle peut, par exemple, diminuer l’expérience douloureuse associée à une intervention chirurgicale chez un sujet éveillé conscient.

Dans ce travail dont le premier auteur est l’étudiant en thèse de neurosciences et chercheur à l’Inserm Esteban Munoz-Musat, les auteurs ont induit une surdité transitoire chez une femme en bonne santé, tout en disséquant les étapes cérébrales de sa perception auditive à l’aide de la technique de l’électroencéphalographie (EEG) à haute densité qui permet de suivre la dynamique du fonctionnement cérébral à l’échelle fine du millième de seconde.

Les chercheurs ont enregistré l’activité cérébrale de la volontaire en situation normale et en situation de surdité hypnotique.

Ils avaient formulé les trois prédictions suivantes qui dérivent des mécanismes cérébraux connus de la perception auditive (voir encadré) et de la théorie de l’espace de travail neuronal global conscient élaborée depuis 2001 par Stanislas Dehaene, Jean-Pierre Changeux et Lionel Naccache:

1 – Les premières étapes corticales de la perception d’un stimulus auditif devraient être préservées durant la surdité hypnotique ;

2 – La surdité hypnotique devrait être associée à une disparition totale de la P300 qui signe l’entrée de l’information auditive dans l’espace neuronal global conscient ;

3 – Ce blocage devrait être associé à un mécanisme inhibiteur déclenché volontairement par l’individu qui accepte de suivre la consigne d’induction hypnotique.

De manière remarquable, les analyses détaillées et approfondies de l’activité cérébrale de cette volontaire ont permis de confirmer ces trois prédictions, et ont également mis en lumière l’implication probable d’une région du lobe frontal connue pour son rôle inhibiteur : le cortex cingulaire antérieur.

L’équipe de recherche a ensuite pu proposer un scénario cérébral précis du phénomène d’induction hypnotique qui affecte spécifiquement les étapes de la prise de conscience tout en préservant les premières étapes inconscientes de la perception.

Ce travail original apporte une preuve de concept importante et va être prolongé sur un groupe plus important d’individus.

Outre leur importance pour les théories biologiques de la conscience et de la subjectivité, ces résultats ouvrent également des perspectives thérapeutiques non seulement dans le champ de l’hypnose médicale, mais également dans le champ voisin des troubles neurologiques fonctionnels qui sont très fréquents (près de 20 % des urgences neurologiques), et dans lesquels les patients souffrent de symptômes invalidants.

Ces symptômes sont souvent sensibles à l’induction hypnotique, et semblent partager avec l’hypnose plusieurs facteurs clés.

Résumé de la physiologie de la perception auditive

La signification et la portée de ces résultats nécessite le rappel suivant : la perception auditive d’un stimulus extérieur débute dans l’oreille interne où les variations de pression de l’air induites par ce son sont converties en impulsions électriques, puis se poursuit dans les différents relais neuronaux des voies auditives avant de gagner le cortex auditif vers 15 millièmes de seconde. A partir de cette entrée en scène du cortex, la perception auditive enchaîne trois étapes sérielles principales que l’on peut identifier à l’aide des outils de neuro-imagerie fonctionnelle tel que l’EEG.

Premièrement, les régions auditives dites primaires construisent activement une carte mentale des caractéristiques acoustiques du son perçu. Cette première étape est identifiable notamment par une onde cérébrale (l’onde P1 qui survient moins de 100 millièmes de seconde après le son). Puis des régions auditives primaires et secondaires qui calculent en temps réel les régularités statistiques de la scène auditive à l’échelle de la seconde écoulée, – et qui anticipent donc quels devraient être les sons suivants -, détectent à quel point ce stimulus transgresse leurs prédictions.

Cette deuxième étape est identifiable par une onde cérébrale découverte vers la fin des années 1970 : la MMN (MisMatch Negativity) ou négativité de discordance (vers 120 et 200 millièmes de seconde). Enfin, vers 250-300 millièmes de secondes après le son, la représentation neuronale du stimulus auditif gagne un vaste réseau cérébral qui s’étend entre les régions antérieures (préfrontales) et postérieures (pariétales) du cerveau.

Cette troisième étape est identifiable par l’onde P300. Fait crucial, alors que les deux premières étapes corticales de la perception auditives opèrent de manière inconsciente, la P300 est la signature de la prise de conscience subjective de ce son qui devient alors rapportable à soi-même : « J’entends le son X ».

Découverte d’un mécanisme d’échappement immunitaire permettant à Listeria d’infecter le système nerveux central

 vaisseau cérébral

Section d’un vaisseau cérébral de modèle animal infecté, contenant des monocytes infectés adhérant aux cellules endothéliales. Listeria est marquée en rouge, l’actine en blanc (y compris les comètes d’actine propulsant Listeria), les noyaux en bleu et les macrophages en vert. © Unité Biologie des infections – Institut Pasteur

Certaines souches « hypervirulentes » de Listeria monocytogenes ont une capacité accrue à infecter le système nerveux central. Des scientifiques de l’Institut Pasteur, d’Université Paris Cité, de l’Inserm et de l’AP-HP ont décrit un mécanisme qui permet aux cellules infectées par Listeria monocytogenes de survivre à l’action du système immunitaire. Les cellules infectées circulant dans le sang ont ainsi une probabilité accrue d’adhérer aux cellules de la paroi des vaisseaux cérébraux et de les infecter à leur tour. Ceci permet aux bactéries de traverser la barrière hématoencéphalique et d’atteindre le cerveau. Cette étude sera publiée dans Nature, le 16 mars 2022.

Le système nerveux central est séparé du sang par une barrière physiologique appelée barrière hématoencéphalique, qu’il est difficile de traverser. Pourtant, certains pathogènes y parviennent et infectent ainsi le système nerveux central, par des mécanismes encore mal connus.

Listeria monocytogenes est la bactérie responsable de la listériose humaine, une infection grave d’origine alimentaire, qui peut se traduire par une atteinte du système nerveux central appelée neurolistériose. Cette infection du système nerveux central est particulièrement grave et conduit au décès dans 30% des cas.

Les chercheurs de l’unité de Biologie des infections à l’Institut Pasteur (Université Paris Cité, Inserm) et du Centre National de Référence et Centre Collaborateur OMS Listeria dirigés par Marc Lecuit (Université Paris Cité et hôpital Necker-Enfants malades AP-HP) ont découvert, dans un modèle animal qui reproduit les différentes étapes de la listériose humaine, le mécanisme qui permet à Listeria monocytogenes d’infecter le système nerveux central. Pour cela, ils ont mis au point un modèle expérimental cliniquement pertinent, impliquant des souches virulentes de Listeria[1] issues de patients atteints de neurolistériose.

Les scientifiques ont tout d’abord observé qu’un type de globules blancs, appelés monocytes inflammatoires, sont infectés par la bactérie. Ces monocytes infectés circulent par voie sanguine et adhèrent aux parois des vaisseaux cérébraux, permettant à Listeria d’infecter le tissu cérébral.

L’équipe de recherche a ensuite montré qu’InlB, une protéine de surface de Listeria monocytogenes, permet à la bactérie d’échapper au système immunitaire et de survivre dans la niche protectrice que constitue le monocyte infecté. En effet, l’interaction entre la protéine InlB et son récepteur cellulaire c-Met entraîne le blocage de la mort cellulaire induite par les lymphocytes T cytotoxiques ciblant spécifiquement les cellules infectées par Listeria. Grâce à InlB, les cellules infectées peuvent donc survivre aux lymphocytes T cytotoxiques.

Ce mécanisme permet de prolonger la durée de vie des cellules infectées, ce qui se traduit par une augmentation du nombre de monocytes infectés dans le sang et favorise la propagation de la bactérie aux tissus de l’hôte, dont le cerveau. Cette propriété favorise également la persistance de Listeria dans le tissu intestinal, son excrétion fécale et sa transmission à l’environnement.

« Nous avons découvert un mécanisme spécifique et inattendu, par lequel un pathogène augmente la durée de vie des cellules qu’il infecte, en bloquant spécifiquement une fonction du système immunitaire essentielle au contrôle de l’infection », explique Marc Lecuit (Université Paris Cité et hôpital Necker-Enfants malades AP-HP), responsable de l’unité de Biologie des infections à l’Institut Pasteur (Université Paris Cité, Inserm).

Il est possible que des mécanismes similaires favorisent l’infection du cerveau par d’autres pathogènes intracellulaires tels que Toxoplasma gondii et Mycobacterium tuberculosis. De plus, l’identification et la compréhension des mécanismes d’échappement immunitaire des cellules infectées pourrait conduire au développement de nouvelles stratégies thérapeutiques anti-infectieuses, ainsi qu’au développement de nouvelles approches immunosuppressives chez les patients recevant une greffe d’organe.

Ces travaux ont été financés par l’Institut Pasteur, l’Inserm et le Conseil européen de la recherche (ERC), et bénéficient d’un financement de la Fondation Le Roch – Les Mousquetaires.

[1] Uncovering Listeria monocytogenes hypervirulence by harnessing its biodiversity, Nature Genetics, 1er février 2016
Communiqué de presse : https://www.pasteur.fr/fr/listeria-souches-hypervirulentes-tropisme-cerebral-placentaire

Malnutrition infantile : succès d’une nouvelle stratégie pour soigner plus d’enfants à moindre coût

Pesée d’un enfant dépisté dans la communauté pour la malnutrition aiguë dans le cadre de l’essai clinique OptiMA-RDC, Province du Kasaï, République Démocratique du Congo.© ALIMA

Des millions d’enfants dans le monde sont touchés par la malnutrition et la crise sanitaire du Covid-19 a encore exacerbé le problème. Dans une nouvelle étude, des chercheurs et chercheuses de l’Inserm et de l’université de Bordeaux au Centre de recherche Bordeaux Population Health en collaboration avec l’IRD et l’ONG ALIMA (The Alliance for International Medical Action) ont développé et testé une nouvelle stratégie visant à simplifier et à optimiser la prise en charge de la malnutrition pour pouvoir soigner un nombre plus important d’enfants. Baptisée OptiMA, cette stratégie a fait ses preuves dans un essai clinique randomisé conduit en République démocratique du Congo (RDC), en permettant de prendre en charge 30 % d’enfants en plus tout en utilisant 20% de produits nutritionnels en moins, en comparaison avec les programmes habituels. Ces résultats sont publiés le 16 mars 2022 dans la revue The Lancet Global Health.

En 2019, la malnutrition touchait 47 millions d’enfants âgés de moins de 5 ans. Si toutes les régions du monde étaient concernées, un quart d’entre eux vivaient sur le continent africain. Après deux années de pandémie de COVID-19, qui se sont accompagnées dans de nombreux pays d’une désorganisation des systèmes de santé et d’une plus grande insécurité alimentaire, la situation est loin de s’améliorer.

A l’heure actuelle, les enfants qui souffrent de malnutrition aiguë sont soignés différemment selon qu’ils souffrent de « malnutrition aiguë sévère » ou de « malnutrition aiguë modérée » (voir encadré). Les prises en charge ne sont pas les mêmes, avec notamment l’utilisation de produits nutritionnels différents.

D’une part, dans le cas de la malnutrition aiguë sévère, on utilise des « aliments thérapeutiques prêts à l’emploi ». Les proportions données sont calculées en fonction du poids de l’enfant, c’est-à-dire que plus l’enfant évolue vers son poids normal, plus il reçoit une dose importante alors qu’il semble plus adapté de diminuer le dosage au fur et à mesure que l’enfant récupère.

D’autre part, les enfants qui souffrent de malnutrition aiguë modérée reçoivent un autre produit de composition proche, les « suppléments nutritionnels prêts à l’emploi ». Ces deux types de produits sont acheminés dans les pays concernés par différents circuits d’approvisionnement qui sont supervisés par des agences des Nations Unies distinctes pour chaque type de produit, ce qui complique la prise en charge des enfants sur le terrain. Par ailleurs, ces produits nutritionnels constituent, avec les ressources humaines, la plus grosse part des coûts liés aux programmes visant à lutter contre la malnutrition aiguë.

Alors que ces programmes font face à un manque de financement important, simplifier et homogénéiser la prise en charge pour tous les types de malnutrition est une priorité, afin de la rendre plus efficace et moins coûteuse, et in fine de soigner un plus grand nombre d’enfants. Aujourd’hui, seuls 25 % des enfants estimés en situation de malnutrition sévère sont pris en charge.

Un travail effectué main dans la main

Des chercheurs et chercheuses de l’Inserm, de l’université de Bordeaux et de l’IRD, et des professionnels de l’humanitaire de l’ONG ALIMA ont mutualisé leurs expertises respectives pour élaborer, proposer une méthodologie d’évaluation et mettre en œuvre un essai clinique destiné à évaluer une nouvelle stratégie appelée « OptiMA », dans laquelle les enfants souffrant de malnutrition aiguë, quel que soit le stade de la maladie, recevaient un unique traitement nutritionnel, les aliments thérapeutiques prêts à l’emploi, selon un dosage progressivement dégressif au fur et à mesure de la récupération nutritionnelle.

En proposant l’utilisation d’un seul type de produit pour toutes les formes de malnutrition aiguë, et en optimisant le dosage, les scientifiques espéraient pouvoir soigner les enfants plus simplement et en plus grand nombre, tout en prévenant l’évolution vers les formes les plus sévères de la malnutrition.

Leur étude, menée en République démocratique du Congo a porté sur près d’un millier d’enfants atteints de malnutrition et âgés de 6 mois à 5 ans, recrutés dans quatre aires de santé dans la province de Kasaï, regroupant une soixantaine de villages et quatre centres de santé. La méthodologie prévoyait de suivre chaque enfant pendant six mois afin de surveiller son évaluation clinique après la fin du traitement et d’évaluer le risque de rechutes.

Ce travail impliquait une visite à domicile bimensuelle de centaines d’enfants. Il a été rendu possible grâce au savoir-faire de l’ONG ALIMA, tant d’un point de vue logistique et opérationnel que pour le travail d’acceptation de ce projet de recherche et de cette nouvelle stratégie par la communauté concernée. Les expertises communes des chercheurs et des humanitaires ont permis de ne perdre de vue presque aucun enfant et donc de proposer une évaluation scientifique la moins biaisée possible de la stratégie OptiMA.

Une stratégie supérieure et moins coûteuse

Les chercheurs ont ainsi pu montrer non seulement que l’efficacité de la stratégie OptiMA n’était pas inférieure à celles des programmes classiques, mais qu’elle était même supérieure. Une prise en charge de la malnutrition aiguë basée sur un programme unique et utilisant un seul produit thérapeutique à doses progressivement réduites a conduit à un meilleur état nutritionnel des enfants et à moins de rechutes sur une période de 6 mois. Elle aboutissait en particulier chez les enfants les plus modérément atteints à une amélioration plus rapide de leur état de santé. Ils étaient également moins susceptibles de faire des rechutes pendant le suivi ou d’évoluer vers des stades plus graves de malnutrition.

Par ailleurs, le fait de n’utiliser qu’un seul produit nutritionnel à des doses optimisées a permis de réduire les coûts par enfant. Ainsi, les scientifiques démontrent que la stratégie OptiMA permettait de prendre en charge 30 % d’enfants en plus tout en utilisant 20% de produits nutritionnels en moins, en comparaison avec les programmes habituellement mis en œuvre.

« Notre stratégie permet de traiter la malnutrition de manière plus précoce, en décloisonnant la prise en charge entre malnutrition modérée et malnutrition sévère. Dans le contexte actuel, après deux années de pandémie à Covid-19, nous sommes face à un nombre croissant d’enfants malnutris et à des situations complexes dans les centres de santé en Afrique. Proposer une simplification et une optimisation des prises en charge de la malnutrition infantile est adapté au contexte mouvant dans lequel nous vivons », souligne Renaud Becquet, chercheur Inserm, co-directeur de l’équipe « Global Health in the Global South » au sein du Centre de recherche Bordeaux Population Health (Inserm/Université de Bordeaux).

La stratégie est désormais testée au Niger dans un autre essai clinique par les mêmes équipes, où elle est comparée au protocole national et à une autre stratégie simplifiée, afin de voir si ses effets bénéfiques peuvent être répliqués dans d’autres contextes et auprès d’autres populations.

Qu’est-ce que la malnutrition aiguë chez les enfants âgés de moins de 5 ans ?

La malnutrition est caractérisée par un déséquilibre entre les apports en éléments nutritifs et les besoins de l’organisme. Quand ces apports sont insuffisants, l’organisme s’affaiblit et la personne touchée perd du poids.

La malnutrition aiguë touche principalement les enfants âgés de moins de 5 ans. Elle se traduit par une perte de poids brutale et importante du fait d’apports caloriques et nutritifs insuffisants, faisant suite à une maladie infectieuse de type diarrhée, infections respiratoire, paludisme et/ou du fait d’un manque d’accès à une alimentation diversifiée et en quantité suffisante.

La malnutrition aiguë est diagnostiquée en utilisant plusieurs critères : le calcul de l’indice rapport poids/taille, la mesure du périmètre brachial (circonférence du bras mesurée entre l’épaule et le coude) ou encore la présence d’œdèmes nutritionnels. On parle ainsi par exemple de malnutrition aiguë modérée lorsqu’un enfant présente un périmètre brachial qui est compris entre 115 et 125 mm, et de malnutrition aigüe sévère lorsque ce périmètre brachial est inférieur à 115mm.

La nouvelle stratégie OptiMA propose de n’utiliser que le périmètre brachial pour dépister la malnutrition aiguë car il est simple à mesurer. Avec peu de ressources, les mères peuvent être rapidement formées à son utilisation et ainsi dépister précocement elles-mêmes la malnutrition de leurs enfants.

Le gène MICA est un nouveau gène de réponse immune permettant de prédire l’échec d’une greffe de rein

Image histologique d’un rejet de greffe rénale médié par des anticorps. Sophie Caillard/Jérome Olagne (Inserm U1109)

La greffe de rein est l’unique traitement curatif pour les personnes souffrant d’insuffisance rénale terminale, mais cette intervention n’est pas toujours un succès car le greffon peut être rejeté par l’organisme du patient. Afin de diminuer le risque de rejet, les médecins peuvent aujourd’hui s’intéresser à un certain nombre de paramètres génétiques et immunologiques pour évaluer l’histocompatibilité entre donneur et receveur, c’est-à-dire le degré de compatibilité de leurs organes et de leurs tissus. Toutefois, les rejets sont toujours fréquents et beaucoup demeurent inexpliqués. Dans une nouvelle étude, des chercheurs et chercheuses de l’Inserm, de l’Université de Strasbourg et des Hôpitaux Universitaires de Strasbourg au sein de l’unité U1109 « Immunologie et Rhumatologie Moléculaire », et leurs partenaires du Laboratoire d’Excellence (LabEx) Transplantex, rapportent que le gène MICA est un nouveau gène d’histocompatibilité, c’est à dire qu’il permet de mieux expliquer et prédire le succès ou l’échec d’une greffe de rein. Les résultats sont publiés dans la revue Nature Medicine.

La greffe de rein est aujourd’hui le meilleur traitement disponible pour les patients atteints d’insuffisance rénale terminale. En France, près de 4000 greffes rénales sont effectuées en moyenne chaque année (près de 20000 aux Etats-Unis). Ces greffes sont principalement réalisées à partir de donneurs décédés, même si le nombre de greffes à partir de donneurs vivants augmente progressivement chaque année depuis vingt ans.

La possibilité de rejet du greffon considéré comme « étranger » par l’organisme du receveur demeure aujourd’hui la limite principale de cette procédure. La prise de médicaments immunosuppresseurs[1] permet de réduire le risque mais ne l’élimine pas et le rejet dit « chronique » (à distance de l’acte chirurgical de la greffe) reste une problématique majeure.

La découverte du système HLA par le chercheur français Jean Dausset et ses collègues au milieu du XXe siècle a permis des avancées importantes. Il s’agit d’un ensemble de protéines codées par les gènes HLA, qui sont présentes à la surface de nos cellules notamment des globules blancs.

Très diversifié et spécifique à chaque individu, ce système permet d’évaluer l’histocompatibilité entre donneur et receveur, c’est-à-dire le degré de compatibilité de leurs organes et de leurs tissus. Plus les gènes HLA entre donneurs et receveurs sont proches, plus le risque de rejet est diminué.

Cependant, il arrive que même lorsque les gènes HLA du donneur et du receveur sont compatibles, des rejets de greffes inexpliqués surviennent. Ce phénomène suggère que d’autres gènes d’histocompatibilité non encore identifiés peuvent être impliqués dans les rejets.

Un rôle pour le gène MICA

Des chercheurs et chercheuses de l’Inserm, de l’université de Strasbourg et des Hôpitaux Universitaires de Strasbourg et leurs partenaires du LabEx Transplantex se sont donc intéressés à un gène découvert il y a déjà presque trente ans par Seiamak Bahram[2] qui a coordonné ces nouveaux travaux.

Ce gène, appelé MICA, code pour une protéine exprimée sur plusieurs types de cellules. De précédentes études avaient déjà suggéré que ce gène était important pour prédire le devenir d’une greffe, mais elles portaient sur un nombre trop restreint de patients (entre autres limites méthodologiques) pour pouvoir affirmer qu’il s’agissait d’un gène d’histocompatibilité. Par ailleurs ces études ne s’intéressaient pas au système MICA dans son ensemble, c’est-à-dire à la fois à la génétique (histocompatibilité) et aux aspects sérologiques (présence d’anticorps anti-MICA dans le sang du receveur).

L’équipe a ici étudié le gène MICA chez plus de 1500 patients ayant reçu une greffe de rein ainsi que chez leurs donneurs. Les analyses de séquences du gène MICA révèlent que lorsque receveur et donneur présentent une version différente du gène, la survie du greffon est diminuée.

Par ailleurs, les chercheurs et chercheuses montrent que ces incompatibilités du gène MICA sont à l’origine chez les patients de la synthèse d’anticorps dirigés contre les protéines MICA du donneur, qui interviennent dans le rejet de greffe. Ces anticorps sont produits lorsque les protéines MICA du donneur sont trop différentes de celles du receveur.

Ces résultats suggèrent que le gène MICA serait un gène d’histocompatibilité pertinent à prendre en compte au moment d’une greffe, et que la recherche d’anticorps anti-MICA peut également être intéressante pour prédire le succès ou l’échec de la greffe. Ils doivent maintenant être validés dans le cadre de larges études prospectives dans laquelle MICA sera considéré au même titre que les gènes HLA classiques.

« Suite à ce travail, on pourrait d’ores et déjà envisager de généraliser en clinique le séquençage du gène MICA et l’identification d’anticorps anti-MICA chez les patients avant la greffe pour évaluer l’histocompatibilité avec le donneur et après la greffe pour mieux prévenir les épisodes de rejets. Enfin, nous envisageons aussi d’étudier le rôle du gène MICA dans la greffe d’autres organes solides, notamment le cœur, le poumon ou encore le foie », souligne Seiamak Bahram.

 

[1] Traitements qui limitent l’action du système immunitaire utilisés pour les maladies auto-immunes ou en cas de greffe.

[2] Professeur des Université-Praticien Hospitalier et directeur de l’Unité 1109 de l’Inserm et du LabEx Transplantex et chef de service d’immunologie biologique aux HUS.

Être exposé à la pollution atmosphérique augmenterait le risque d’avoir de moins bonnes performances cognitives

La pollution de l’air est associée en France à des milliers de décès tous les ans. © Unsplash

40 % des cas de démences pourraient être évités ou retardés en agissant sur des facteurs modifiables, facteurs au sein desquels figure la pollution de l’air[1]. Pour aller plus loin et obtenir des données précises sur ce facteur de risque, des chercheurs et chercheuses de l’Inserm, de l’université de Rennes 1 et de l’École des hautes études en santé publique (EHESP) à l’Irset ont voulu identifier l’impact sur les performances cognitives de trois polluants liés au trafic routier (particules fines de diamètre inférieur à 2,5 microns, dioxyde d’azote et carbone suie). Ils ont ainsi comparé les résultats de tests cognitifs d’un large échantillon de personnes selon leur niveau d’exposition à ces différents polluants. Les résultats de l’étude suggèrent un lien entre une exposition à de plus fortes concentrations de polluants et un niveau plus faible des performances cognitives, lien qui diffère selon les polluants. Ils font l’objet d’une publication dans The Lancet Planetary Health.

Les effets nocifs des polluants atmosphériques sur la santé, même à de faibles niveaux d’exposition sont bien documentés. De récentes recherches ont notamment suggéré qu’en plus d’accroître le risque de développer des maladies cardiovasculaires et pulmonaires, la pollution de l’air pourrait accélérer le déclin cognitif, un des symptômes annonciateurs d’une pathologie neurodégénérative comme la maladie d’Alzheimer[2] et d’autres démences.

Depuis quelques années, la pollution de l’air est ainsi reconnue comme un facteur de risque « modifiable » de la démence, c’est-à-dire sur lequel il est possible d’agir via des changements dans la réglementation qui encadre les niveaux de pollution tolérés. Cependant, aucune étude ne s’est jusqu’alors intéressée simultanément à plusieurs types de polluants et à leurs potentiels effets respectifs sur les différents domaines de la cognition.

Des chercheurs de l’Inserm, de l’université de Rennes 1 et de l’École des hautes études en santé publique (EHESP) à l’Irset ont étudié comment le niveau d’exposition aux polluants atmosphériques impacte les performances cognitives. Une étude ayant révélé qu’une baisse des performances cognitives pouvait survenir dès l’âge de 45 ans[3], l’équipe de recherche s’est appuyée sur les données de plus de 61 000 participants de la cohorte épidémiologique Constances, âgés de 45 ans et plus.

Tous ont participé à une série de tests mesurant leurs performances cognitives dans trois grands domaines de la cognition : la mémoire, la fluidité d’expression orale (ou fluence verbale) et la capacité à prendre des décisions (ou fonctions exécutives[4]). Les chercheurs ont établi un score des performances cognitives pour chacun des tests, en tenant compte du sexe, de l’âge et du niveau d’étude de chaque participant.

Pour mesurer l’exposition de chaque participant à la pollution, l’équipe de recherche a utilisé des cartes dites « d’exposition » qui estiment la concentration de polluants à l’adresse du domicile. Ces cartes prennent en compte plusieurs variables comme la densité du trafic routier ou encore la proximité du domicile aux routes. Trois polluants liés au trafic routier ont été considérés dans le cadre de l’étude : les particules fines de diamètre inférieur à 2,5 microns (PM2,5), le dioxyde d’azote (NO2) et le carbone suie.

En croisant les résultats des tests cognitifs avec le niveau d’exposition aux trois polluants atmosphériques, l’étude indique que l’exposition à de plus grandes concentrations de ces polluants serait associée significativement à un plus bas niveau de performances dans les trois domaines cognitifs étudiés.

Pour les participants les plus exposés, les chercheurs ont constaté une différence allant de 1 à près de 5 % du score des performances cognitives par rapport aux participants moins exposés.

« Les capacités les plus impactées sont la fluence verbale et les fonctions exécutives, précise Bénédicte Jacquemin, la chercheuse Inserm qui a dirigé ces travaux. Le dioxyde d’azote et les particules PM2,5 impactent d’avantage la fluence verbale, tandis que le carbone suie a un plus grand impact sur les fonctions exécutives. »

Elle conclut : « La prochaine étape de nos recherches consiste à observer l’évolution dans le temps des fonctions cognitives de ces adultes, afin de voir si l’exposition à la pollution est aussi associée à une baisse du fonctionnement cognitif avec le temps, baisse qui peut refléter les premiers signes de démences, tant de la maladie d’Alzheimer que d’autres formes de démences du sujet âgé. »

[1] Livingston G, Huntley J, Sommerlad A, et al. Dementia prevention, intervention, and care:

2020 report of the Lancet Commission. The Lancet 2020; 396: 413–46.

[2] Livingston G, Huntley J, Sommerlad A, et al. Dementia prevention, intervention, and care: 2020 report of the Lancet Commission. The Lancet 2020

[3] Singh-Manoux A, Kivimaki M, Glymour M M, Elbaz A, Berr C, Ebmeier K P et al. Timing of onset of cognitive decline: results from Whitehall II prospective cohort study, BMJ 2012

[4] Ensemble de processus cognitifs (raisonnement, planification, résolution de problèmes…) qui nous permettent de nous adapter au contexte, aux situations nouvelles.

Augmentation significative de la mortalité infantile en France

En France, pour la première fois en temps de paix, le taux de mortalité infantile remonte significativement depuis une dizaine d’années. ©Adobe Stock

Le taux de mortalité infantile est un indicateur clé de la santé d’une population. En l’absence de données actualisées sur les tendances statistiques de cet indicateur en France, des chercheurs et chercheuses de l’Inserm, d’Université de Paris, de l’AP-HP et du CHU de Nantes, en collaboration avec des équipes de l’Université de Californie, ont analysé les données d’état civil de l’Institut national de la statistique et des études économiques (INSEE) entre 2001 et 2019. Ils ont pu identifier une augmentation significative du taux de mortalité infantile depuis l’année 2012, la France s’éloignant ainsi de la situation d’autres pays avec des économies développées. Les résultats sont publiés dans le journal The Lancet Regional Health Europe et témoignent de l’importance d’approfondir la recherche des causes précises de ces 1200 décès par excès observés chaque année en France avant l’âge d’un an.

Les Nations Unies ont fixé comme l’un de leurs objectifs prioritaires l’élimination des décès évitables d’enfants d’ici à 2030. La grande majorité des décès pédiatriques survenant au cours de la première année de vie, on utilise le taux de mortalité infantile[1] pour suivre la progression vers cet objectif. Ce taux est un indicateur clé de la santé de la population, étant donné sa forte relation avec le développement socio-économique et la qualité des soins préventifs et curatifs existants dans le pays. Dans certains pays avec des économies avancées comme la Finlande et la Suède, la réduction du taux de mortalité infantile est continue depuis la Seconde Guerre mondiale. Dans d’autres pays comme la France, cette baisse semble ralentir.

Des scientifiques de l’Inserm, d’Université de Paris, de l’Assistance Publique-Hôpitaux de Paris, du CHU de Nantes et de l’Université de Californie ont voulu aller plus loin dans les analyses statistiques de l’évolution du taux de mortalité infantile en France et se sont plus spécifiquement intéressés à la période de 2001 à 2019.

Au cours de cette période d’étude, 53 077 décès de nourrissons ont été enregistrés parmi les 14 622 096 naissances vivantes, soit un taux de mortalité infantile moyen de 3,63/1 000 (4,00 chez les garçons, 3,25 chez les filles). Près d’un quart des décès (24,4%) sont survenus au cours du premier jour de vie et la moitié (47,8%) au cours de la période néonatale précoce, soit au cours de la première semaine suivant la naissance.

Une analyse statistique poussée a identifié deux points d’inflexion en 2005 et 2012 (figure ci-dessus). Le taux de mortalité infantile a fortement diminué de 2001 à 2005, puis de façon plus lente de 2005 à 2012. À partir de 2012, une augmentation significative du taux de mortalité infantile a été observée. Cette augmentation de 7% a fait passer la mortalité infantile de 3.32 en 2012 à 3.56 décès pour 1000 naissances vivantes en 2019. Des analyses de sensibilité[2] ont montré que cette tendance n’était pas liée à la modification des pratiques d’état-civil, ni à la modification des pratiques médicales pour la prise en charge des nouveau-nés atteints d’affections graves. Des analyses en sous-groupes indiquent que cette hausse est principalement due à une augmentation du taux de mortalité infantile dans la période néonatale précoce.

« Grâce à des analyses statistiques poussées, nous avons identifié une aggravation significative du taux de mortalité infantile en France depuis 2012. En comparant les données par rapport à d’autres pays européens à économie similaire tels que la Suède et la Finlande, on observe chaque année en France un excès d’environ 1200 décès d’enfants âgés de moins d’un an », explique le Pr Martin Chalumeau, dernier auteur de l’étude. « Il est primordial de pouvoir explorer en détail les causes de cette augmentation en disposant par exemple d’informations systématiques sur les circonstances médicales et sociales précises de ces décès et en faisant de cette population, qui est la plus vulnérable, une réelle priorité de recherche et de santé publique, ce qui n’est pas le cas actuellement », conclut le chercheur.

 

[1] Le taux de mortalité infantile (TMI) a été défini comme le nombre de décès d’enfants de moins d’un an (J0-J364) pour 1 000 naissances vivantes en une période donnée

[2] Analyses complémentaires qui permettent d’étayer la robustesse des analyses principales

Immunothérapie et cancer : la production d’anticorps au sein des tumeurs rénales permet de prédire la réponse au traitement

Coupe transversale d’un rein humain. © AdobeStock

Dans une récente étude, des chercheurs d’Université de Paris, de l’Inserm et de Sorbonne Université au Centre de Recherche des Cordeliers ont pu établir, grâce à la technique de transcriptomique spatiale[1], une carte de la localisation des cellules immunitaires dans des tumeurs rénales, selon qu’elles contenaient ou non des structures lymphoïdes tertiaires (SLT). Ils ont également montré qu’en présence de SLT dans les tumeurs, le traitement « réactivateur » des lymphocytes T est associé à une meilleure réponse à l’immunothérapie. Ces résultats ont été publiés dans la revue Immunity le 28 février 2022.

L’immunothérapie consiste, dans les cas de cancers, à stimuler la réaction immunitaire d’un patient vis-à-vis de ses cellules cancéreuses. Cette approche a révolutionné la prise en charge de nombreux cancers, dont le cancer du rein. Néanmoins, la plupart des patients sont résistants à l’immunothérapie et il est important, pour améliorer leur traitement, de mieux comprendre les mécanismes d’action de l’immunothérapie.

Le docteur Marie-Caroline Dieu-Nosjean avec les professeurs Catherine Sautès-Fridman et Wolf-Hervé Fridman, membres de l’équipe de recherche Inflammation, Complément et Cancer au Centre de Recherche des Cordeliers (Inserm/Université de Paris/Sorbonne Université), avaient montré il y a plusieurs années l’existence, au sein de certaines tumeurs, d’amas cellulaires appelés structures lymphoïdes tertiaires (SLT) riches en cellules immunitaires, dont des lymphocytes B et T, et comparables à des micro-ganglions au sein des tumeurs.

 Alors que les lymphocytes B sont les cellules à la base de la production des anticorps, les lymphocytes T sont les cellules tueuses du système immunitaire. Ces dernières sont généralement non-fonctionnelles dans les tumeurs, car bloquées dans leur fonction par des molécules produites par les cellules tumorales.

S’il a été récemment montré que la présence de structures lymphoïdes tertiaires (SLT) dans une tumeur est associée à une bonne réponse à l’immunothérapie, il restait à comprendre et décrire le rôle précis de ces structures SLT vis-à-vis de l’immunothérapie. À cette fin, le doctorant Maxime Meylan, premier auteur de cette publication, et les chercheurs de l’équipe Inflammation, Complément et Cancer, dirigée par la professeure Isabelle Cremer au Centre de Recherche des Cordeliers, ont analysé les tumeurs de cohortes de patients atteints de tumeurs du rein.

Pour cela, ils ont utilisé une nouvelle technique de transcriptomique spatiale qui permet, simultanément, de mesurer l’expression de l’ensemble des gènes contenus dans les tissus d’un organe complexe, ici une tumeur, et de localiser avec précision ces expressions et donc la position des cellules contenant ces gènes.

Grâce à cette technique, ils ont pu établir une carte de la localisation des cellules immunitaires dans ces tumeurs rénales, selon qu’elles contenaient ou non des SLT. Ils ont ainsi observé la présence, dans les SLT des tumeurs, de lymphocytes B à toutes les étapes de maturation, y compris à l’étape plasmocyte qui produit les anticorps spécifiques des antigènes à neutraliser. Ils ont également montré que ces plasmocytes migrent au sein de la tumeur pour délivrer les anticorps de façon ciblée. Ainsi, la présence de plasmocytes est corrélée à la présence d’anticorps qui se fixent sur certaines cellules tumorales et les détruisent.

Parallèlement, ils ont observé, lorsque les cellules cancéreuses sont recouvertes d’anticorps, que le traitement par un « réactivateur » des lymphocytes T est associé à une meilleure réponse à l’immunothérapie et à une plus longue survie des patients, sans progression de la maladie,

Ces observations suggèrent que la présence d’anticorps sécrétés par les plasmocytes au sein des tumeurs pourrait potentialiser l’effet du traitement « réactivateur » des lymphocytes T, en particulier via la libération d’antigènes par les cellules tumorales détruites.

Ces résultats permettent à la fois d’envisager d’identifier les patients susceptibles de répondre à l’immunothérapie grâce à l’analyse de leur tumeur, et d’étudier de nouvelles pistes thérapeutiques via la coopération des lymphocytes B et T au sein des tumeurs.

 

[1] La technique de transcriptomique spatiale permet, simultanément, de mesurer l’expression de l’ensemble des gènes contenus dans les tissus d’un organe complexe, ici une tumeur, et de localiser avec précision ces expressions et donc la position des cellules contenant ces gènes.

Découverte d’une fonction mémoire de l’immunité innée intestinale

ILC3 intestinales

Les ILC3 (vert) dans l’intestin (noyau en bleu et actine en rouge) en microscopie à fluorescence. © Nicolas Serafini – Institut Pasteur / Inserm

Le système immunitaire des muqueuses intestinales, et particulièrement l’immunité innée, joue un rôle essentiel dans la régulation des interactions hôte-microbe et notamment dans la protection contre les pathogènes. Des chercheurs de l’Institut Pasteur et de l’Inserm ont montré, grâce à un modèle animal d’infection intestinale, que certaines cellules de l’immunité innée, les cellules lymphoïdes innées de type 3, n’agissaient pas uniquement en phase précoce de l’infection, mais qu’elles pouvaient être entraînées et pourvues d’une forme de mémoire lors d’une réinfection. Cette caractéristique était jusqu’à présent connue pour appartenir principalement aux cellules B et T de l’immunité adaptative. Cette étude est publiée dans Science, le 25 février 2022.

La lutte contre les infections à Escherichia coli responsables de pathologies ou d’hémorragies intestinales représente un enjeu mondial de santé publique. Présentes dans l’eau de boisson ou l’alimentation, ces bactéries peuvent entrainer des diarrhées persistantes, associées à une inflammation intestinale aiguë. On estime qu’elles représentent près de 9% des causes mondiales de décès chez l’enfant.

La muqueuse intestinale est pourvue d’un système défensif complexe lui permettant de lutter contre ce type d’infection, tout en maintenant une tolérance envers le microbiote, indispensable au bon fonctionnement de l’organisme. Cette surveillance constante est assurée par le système immunitaire « inné », qui organise une défense précoce dès les premières heures suivant l’infection. Puis, le système immunitaire adaptatif développe une mémoire envers les pathogènes qu’il rencontre, grâce à l’activation de récepteurs spécifiques exprimés à la surface des lymphocytes B et T, permettant ainsi la production d’anticorps protecteurs et de cytokines inflammatoires.

Contrairement au rôle clairement établi du système adaptatif dans la tolérance et la protection, celui du système inné dans le maintien de cet équilibre demeure encore peu compris.

C’est en 2008[1] que l’équipe du chercheur Inserm James Di Santo (unité d’Immunité innée, Institut Pasteur / Inserm) décrit les cellules lymphoïdes innées de type 3 (« group 3 innate lymphoid cells », ILC3) comme une nouvelle famille de lymphocytes, distincte des lymphocytes T et B. Elles jouent un rôle essentiel dans la mise en place de la réponse immunitaire rapide, notamment dans les muqueuses intestinales, grâce à leur production de cytokines pro-inflammatoires, telles que l’interleukine (IL)-22.

La production de cytokines permet alors d’activer la production par les cellules épithéliales de peptides antimicrobiens, réduisant la charge bactérienne afin de maintenir l’intégrité de la barrière intestinale.

Dans cette étude, les chercheurs de l’unité d’Immunité innée (Institut Pasteur / Inserm) ont montré qu’en utilisant la bactérie intestinale murine, Citrobacter rodentium (un modèle d’infection à E. coli chez l’homme), les ILC3 persistent plusieurs mois après leur activation lors d’une infection. Ils ont appliqué un protocole innovant permettant d’exposer le système immunitaire à des quantités réduites de bactérie C. rodentium. Les scientifiques ont constaté que cette exposition limitée induit des modifications durables de la fonction des ILC3.

Ainsi, lors d’une seconde infection, les ILC3 « expérimentées » permettent un contrôle rapide de l’infection grâce à une prolifération accrue et une production massive d’IL-22.

« Nos travaux montrent que les ILC3 intestinales acquièrent une mémoire pour renforcer dans le temps les défenses de la muqueuse intestinale contre les infections répétées, » explique Nicolas Serafini, premier auteur de l’étude et chercheur Inserm au sein de l’unité d’Immunité innée (Institut Pasteur / Inserm).

« La capacité à « entraîner » le système immunitaire inné au niveau des muqueuses ouvre la voie à l’amélioration de la défense de l’organisme contre une variété d’agents pathogènes qui causent des maladies humaines, » commente James Di Santo, auteur principal de l’étude et responsable de l’unité d’Immunité innée (Institut Pasteur / Inserm).

Cette découverte met en évidence un nouveau mécanisme de défense immunitaire antibactérienne et elle pourrait, à terme, ouvrir de nouvelles approches thérapeutiques contre les pathologies intestinales (MICI ou cancer).

 

[1] Satoh-Takayama N. et al. Immunity 2008

fermer