Menu

Vers des traitements plus adaptés pour les patients immunodéprimés

Streptococcus pneumoniae © Adobe Stock

Après une greffe de moelle osseuse, les patients atteints d’un déficit immunitaire sévère retrouvent leurs défenses immunitaires et peuvent reprendre une vie normale. Cependant, en regardant ce qui se passe au niveau de la sphère nasopharyngée, là où se met en place la première ligne de défense immunitaire, des chercheurs de l’Institut Pasteur, d’Université Paris Cité, de l’Inserm, de l’AP-HP et en collaboration avec l’Institut Imagine, ont mis en évidence une défaillance des mécanismes immunitaires chez certains de ces patients. Les résultats de cette étude, publiés dans le journal Blood le 14 février 2022, pourraient aider à leur proposer un traitement plus adapté.

Chez les patients atteints de déficit immunitaire combiné sévère1, le système immunitaire est défaillant et ne peut aider à lutter contre les multiples attaques microbiennes provenant de notre environnement. Alain Fischer, membre fondateur de l’institut Imagine situé à l’hôpital Necker-Enfants malades AP-HP, connaît bien ces patients, qu’il suit depuis plus de 30 ans. « Pour soigner ces personnes, il faut réaliser une allogreffe2 de moelle osseuse avec parfois une chimiothérapie pré-greffe pour éviter le rejet du greffon, résume le médecin et immunologiste. Ce procédé permet de guérir les patients, de restaurer leur système immunitaire, mais nous n’avions jamais étudié en détail ce qui se passait au niveau des muqueuses nasales. » En effet, la machinerie de la réponse immunitaire est d’une très grande complexité et fait intervenir un grand nombre d’acteurs : les acteurs de la réponse immunitaire innée, qui agissent au niveau des muqueuses de l’intestin, des poumons et du nez notamment, et ceux de la réponse adaptative, circulant dans le sang et la lymphe.

Afin de mieux comprendre la façon dont le système immunitaire inné était régulé, James Di Santo, responsable de l’unité Immunité innée (Institut Pasteur/Inserm), a proposé de comparer le système immunitaire des patients immunodéprimés après greffe avec ceux des patients sains de la cohorte Milieu Intérieur3. « Nous avions déjà récupéré, grâce à un simple écouvillon nasal, des échantillons nasopharyngés chez quelques 1 000 sujets et pu étudier la réponse immune grâce à eux, explique le chercheur. L’idée était de réaliser le même type de prélèvements chez les patients immunodéficients, couplé à une prise de sang, pour observer les différences ».

Très rapidement, les chercheurs ont pu observer des différences notables chez certains patients. Tandis que chez les sujets sains et la majorité des patients immunodéprimés, toute la sphère nasopharyngée se met habituellement en ordre de bataille face aux agressions avec formation de mucus protecteur, production en grande quantité d’anticorps (surtout d’IgA), de cellules immunitaires et maintien du microbiote, la muqueuse nasale est perturbée chez un certain nombre de patients après greffe. En effet, chez les patients dont la déficience immunitaire est partielle, et pour lesquels la chimiothérapie pré-greffe a été limitée, la sphère nasopharyngée présente une moins grande quantité de mucus, moins d’anticorps IgA et de cytokines4 et une prédominance des bactéries pathogènes.

En d’autres termes, ces personnes ont un système immunitaire mucosal moins actif face aux attaques quotidiennes des pathogènes. Par ailleurs, leur prise de sang révèle une déficience sélective de certaines cellules immunitaires circulantes.

« On sait que les cellules immunitaires du sang produisent des cytokines qui vont stimuler la production des anticorps, qui eux-mêmes sont chargés de neutraliser les bactéries pathogènes. Lorsque les cellules immunitaires du sang sont absentes, c’est une véritable réaction en chaîne qui s’opère et entraîne, au final, un déséquilibre du microbiote que l’on appelle une dysbiose », relate James Di Santo. Pour la première fois, les chercheurs ont donc pu observer, chez l’Homme, les mécanismes de l’immunité innée en action au niveau de la muqueuse nasale. Cette découverte pourrait par ailleurs conduire les médecins à ajuster leur protocole de greffe. « Les patients dont la capacité à produire des anticorps IgA n’est pas restaurée sont potentiellement plus vulnérables face aux infections respiratoires, explique Alain Fischer. On peut compenser cela par un traitement substitutif en anticorps, mais les résultats de cette nouvelle étude incitent également à recourir plus systématiquement à une chimiothérapie pré-greffe pour permettre une reconstitution complète de leur immunité. »

 

(1) Tous les déficits immunitaires combiné sévère ou DICS n’ont pas n’a pas la même origine génétique, ni le même profil immunologique. Les DICS sont des maladies très rares : la forme la plus fréquente ne concerne qu’une naissance sur 200 000 environ chaque année.

(2) Greffe provenant de quelqu’un d’autre.

(3) Milieu Intérieur (LabeX) Lluis Quintana-Murci – Darragh Duffy – Milieu Intérieur [LabEx] – Research – Institut Pasteur

(4) Messagers solubles qui assurent les communications entre les cellules du système immunitaire.

La consommation d’édulcorants serait associée à un risque accru de cancer

édulcorant artificiel

L’aspartame, un édulcorant artificiel bien connu, est par exemple présent dans plusieurs milliers de produits alimentaires à travers le monde. © Mathilde Touvier/Inserm

Les édulcorants permettent de réduire la teneur en sucre ajouté, ainsi que les calories qui y sont associées, tout en maintenant le goût sucré des produits. De nombreux aliments et boissons (sodas light, yaourts, sucrettes…) contenant des édulcorants sont consommés quotidiennement par des millions de personnes. Cependant, l’innocuité de ces additifs alimentaires fait l’objet de débats. Afin d’évaluer le risque de cancer lié aux édulcorants, des chercheurs et chercheuses de l’Inserm, de INRAE, de l’Université Sorbonne Paris Nord et du Cnam, au sein de l’Équipe de Recherche en Épidémiologie Nutritionnelle (EREN), ont analysé les données de santé et de consommation d’édulcorants de 102 865 adultes Français et Françaises participants à l’étude de cohorte NutriNet-Santé. Les résultats de ces analyses statistiques suggèrent une association entre la consommation d’édulcorants et un risque accru de cancer. Ils font l’objet d’une publication dans la revue PLOS Medicine.

Compte tenu des effets délétères de la consommation excessive de sucre sur la santé (par exemple, prise de poids, troubles cardiométaboliques, caries dentaires), l’Organisation mondiale de la santé recommande de limiter la consommation de sucres libres[1] à moins de 10 % de l’apport énergétique quotidien[2]. Alors, pour conserver dans les aliments le « goût sucré » tant recherché par les consommateurs du monde entier, l’industrie alimentaire a recours de plus en plus aux édulcorants artificiels. Il s’agit d’additifs alimentaires qui réduisent la teneur en sucre ajouté et les calories correspondantes tout en conservant le goût sucré. En outre, afin d’augmenter la saveur de certains aliments, les fabricants incluent ces édulcorants artificiels dans certains produits alimentaires qui ne contiennent traditionnellement pas de sucre ajouté (par exemple, les chips aromatisées).

L’aspartame, un édulcorant artificiel bien connu, est par exemple présent dans plusieurs milliers de produits alimentaires à travers le monde. Sa valeur énergétique est similaire à celle du sucre (4 kcal/g) mais son pouvoir sucrant est 200 fois plus élevé, ce qui signifie qu’une quantité beaucoup plus faible d’aspartame est nécessaire pour obtenir un goût comparable. D’autres édulcorants artificiels ne contiennent même pas de calories, par exemple l’acésulfame-K et le sucralose, qui sont respectivement 200 et 600 fois plus sucrants que le saccharose.

Alors que la cancérogénicité de certains additifs alimentaires a été suggérée par plusieurs études expérimentales, des données épidémiologiques solides associant la consommation quotidienne d’édulcorants à l’étiologie de diverses maladies font défaut. Dans une nouvelle étude, des chercheurs ont voulu examiner les associations entre la consommation d’édulcorants artificiels (totale et les plus souvent consommés) et le risque de cancer (global et par types de cancer les plus fréquents) dans une vaste étude en population. Ils se sont appuyés sur les données communiquées par 102 865 adultes participants à l’étude NutriNet-Santé (voir encadré ci-dessous), une cohorte en ligne initiée en 2009 par l’Équipe de Recherche en Épidémiologie Nutritionnelle (EREN) (Inserm/Université Paris Nord/CNAM/INRAE), qui a également coordonné ce travail.

Les volontaires ont eux-mêmes déclaré leurs antécédents médicaux, données sociodémographiques, activité physique, ainsi que des indications sur leur mode de vie et leur état de santé. Ils ont également renseigné en détail leurs consommations alimentaires en transmettant aux scientifiques des enregistrements complets sur plusieurs périodes de 24 heures, incluant les noms et marques des produits. Cela a permis d’évaluer précisément les expositions aux additifs des participants, et notamment les apports en édulcorants.

Après avoir recueilli les informations sur le diagnostic de cancer au fil du suivi (2009-2021), les chercheurs et chercheuses ont effectué des analyses statistiques afin d’étudier les associations entre la consommation d’édulcorants et le risque de cancer. Ils ont également tenu compte de nombreux facteurs potentiellement confondants tels que l’âge, le sexe, le niveau d’éducation, l’activité physique, le tabagisme, l’indice de masse corporelle, la taille, la prise de poids au cours du suivi, le diabète, les antécédents familiaux de cancer, ainsi que les apports en énergie, alcool, sodium, acides gras saturés, fibres, sucre, aliments complets et produits laitiers.

Les scientifiques ont constaté que, comparés aux non consommateurs, les personnes qui consommaient le plus d’édulcorants, en particulier d’aspartame et d’acésulfame-K avaient un risque plus élevé de développer un cancer, tous types de cancers confondus.

Des risques plus élevés ont été observés pour le cancer du sein et les cancers liés à l’obésité.

« Cette étude prospective à grande échelle suggère, en accord avec plusieurs études expérimentales in vivo et in vitro, que les édulcorants artificiels, utilisés dans de nombreux aliments et boissons en France et dans le monde, pourraient représenter un facteur de risque accru de cancer », explique Charlotte Debras, doctorante et première auteure de l’étude. Des recherches supplémentaires dans d’autres cohortes à grande échelle seront nécessaires pour venir reproduire et confirmer ces résultats.

« Ces résultats ne soutiennent pas l’utilisation d’édulcorants en tant qu’alternatives sûres au sucre et fournissent de nouvelles informations pour répondre aux controverses sur leurs potentiels effets néfastes sur la santé. Ils fournissent par ailleurs des données importantes pour leur réévaluation en cours par l’Autorité européenne de sécurité des aliments (EFSA) et d’autres agences de santé publique dans le monde », conclut la Dr Mathilde Touvier, directrice de Recherche à l’Inserm et coordinatrice de l’étude.

L’étude NutriNet-Santé est une étude de santé publique coordonnée par l’Équipe de Recherche en Épidémiologie Nutritionnelle (EREN, Inserm / INRAE / Cnam / Université Sorbonne Paris Nord), qui, grâce à l’engagement et à la fidélité de plus de 170 000 « Nutrinautes » fait avancer la recherche sur les liens entre la nutrition (alimentation, activité physique, état nutritionnel) et la santé. Lancée en 2009, l’étude a déjà donné lieu à plus de 200 publications scientifiques internationales.

Un appel au recrutement de nouveaux Nutrinautes est encore lancé afin de continuer à faire avancer la recherche sur les relations entre la nutrition et la santé.

En consacrant quelques minutes par mois pour répondre, via Internet, sur la plateforme sécurisée www.etude-nutrinet-sante.fr aux différents questionnaires relatifs à l’alimentation, l’activité physique et la santé, les participants contribuent à faire progresser les connaissances sur les relations entre l’alimentation et la santé. Par ce geste citoyen, chacun peut facilement devenir un acteur de la recherche et, en quelques clics, jouer un rôle important dans l’amélioration de la santé de tous et du bien-être des générations futures.

 

[1] Sucres ajoutés et naturellement présents dans les jus de fruits, sirops, miel.

[2] Organisation Mondiale de la Santé, 2015

Efficacité d’un nouveau traitement des patients atteints d’une maladie de Kaposi

© Anastasia Nelen on Unsplash

L’équipe du centre d’oncodermatologie de l’hôpital Saint-Louis AP-HP, de l’Inserm et d’Université Paris Cité, a testé l’efficacité d’un traitement par anti-PD1 chez des patients atteints d’une maladie de Kaposi dans une forme classique ou endémique. Les résultats de cette étude KAPKEY à promotion AP-HP/DRCI, coordonnée par le Dr Julie Delyon et le Pr Celeste Lebbé, ont fait l’objet d’une publication le 10 mars 2022 au sein de la revue The Lancet Oncology.

La maladie de Kaposi est une maladie proliférative chronique rare liée à une infection par l’herpès virus humain 8 (HHV8), apparentée aux sarcomes. La maladie de Kaposi classique survient chez les patients souvent âgés originaires de certaines régions (ex : bassin méditerranéen), alors que la forme endémique se développe essentiellement chez des sujets jeunes originaires d’Afrique subsaharienne.

Les patients atteints d’une maladie de Kaposi classique ou endémique nécessitant un traitement systémique étaient le plus souvent traités par interféron ou chimiothérapie1. Des études ont montré que l’immunothérapie par inhibiteurs de checkpoint était efficace dans le traitement d’autres cancers liés à des virus comme le carcinome à cellules de Merkel, l’expression d’antigènes viraux contribuant à rendre les cellules tumorales très immunogènes2. Quelques cas publiés de patients atteints d’un sarcome de Kaposi et traités par anti-PD-1 avaient suggéré l’intérêt de ce traitement, au prix d’effets secondaires parfois sévères3.

L’équipe a évalué l’efficacité et la tolérance du pembrolizumab (anti-PD-1) chez des patients atteints de maladie de Kaposi dans une forme classique ou endémique.

Cet essai multicentrique a été mené dans trois centres, à l’hôpital Lyon-Sud et dans deux hôpitaux de l’AP-HP : Saint-Louis et Avicenne.

17 patients atteints de la maladie de Kaposi dans une forme classique ou endémique, avec une atteinte au moins cutanée, en progression, évolutive et nécessitant un traitement systémique ont été inclus.

Les patients ont été traités par pembrolizumab à la dose de 200 mg toutes les trois semaines pendant six mois ou jusqu’à la survenue d’un effet secondaire sévère.

L’objectif de l’étude était d’analyser le taux de meilleure réponse objective clinique dans les 6 mois suivant les critères de l’AIDS Clinical Trial Group (ACTG).

Les résultats démontrent l’efficacité du pembrolizumab avec un taux de meilleure réponse objective de 71% (2 patients (12%) en réponse complète et 10 patients (59%) en réponse partielle). La tolérance du traitement a été conforme à celle attendue pour le pembrolizumab.

Ces travaux ont impliqué de nombreuses équipes de l’hôpital Saint-Louis AP-HP : les services de dermatologie, de biostatistique et information médicale, de pathologie, de génomique des tumeurs solides et pharmacologie, mais aussi les laboratoires d’immunologie et d’histocompatibilité et de virologie, le service d’immunologie de l’hôpital Robert Debré AP-HP ; ainsi que les équipes de la Direction de la Recherche Clinique et de l’Innovation (DRCI) de l’AP-HP.

Cette étude KAPKEY constitue le premier essai clinique publié démontrant l’efficacité d’un traitement par anti-PD1 chez des patients atteints d’une maladie de Kaposi classique ou endémique.

Une phase d’extension va débuter prochainement pour confirmer ces résultats et tenter de mieux évaluer la durée optimale de traitement. Si ces résultats sont confirmés dans d’autres essais, le traitement par anti-PD1 pourra être proposé aux patients atteints d’une maladie de Kaposi classique ou endémique, dans des situations qui requièrent un traitement systémique.

 

[1] Lebbe C, Garbe C, Stratigos AJ, et al. Diagnosis and treatment of Kaposi’s sarcoma: European consensus-based interdisciplinary guideline (EDF/EADO/EORTC). Eur J Cancer 2019; 114: 117–27.

[2] Nghiem PT, Bhatia S, Lipson EJ, et al. PD-1 blockade with pembrolizumab in advanced Merkel-cell carcinoma. N Engl J Med 2016; 374: 2542–52.

[3] Beldi-Ferchiou A, Lambert M, Dogniaux S, et al. PD-1 mediates functional exhaustion of activated NK cells in patients with Kaposi sarcoma. Oncotarget 2016; 7: 72961–77.

La tenue d’un colloque à l’IHU intitulé « Premier bilan des connaissances et des controverses scientifiques… » interpelle, les membres fondateurs se mobilisent

 

 

L’ensemble des membres fondateurs[1] s’interroge sur la tenue d’un tel évènement au sein d’un Institut hospitalouniversitaire. L’intitulé et la nature des participants et des associations partenaires ne laissent aucun doute sur les objectifs. Par conséquent, les membres fondateurs demandent la délocalisation de cette conférence.

Les membres fondateurs sont attachés à la liberté d’expression et nul manquement à l’exigence de rigueur et d’excellence que nos institutions respectives poursuivent ne saurait être toléré.

Les membres fondateurs ne permettront pas non plus que la réputation de leurs établissements et équipes respectives soit mise en cause.

Les membres fondateurs n’ont pas été concertés et ne sont en rien associés à cette réunion. Ils demandent donc à la direction de l’IHU qu’elle renonce à la tenue de cette rencontre au sein de son établissement.

[1] l’Inserm n’est pas membre fondateur mais s’associe pleinement compte-tenu du programme et des intervenants indiqués

Augmentation du risque d’AVC ischémique associée à certains médicaments destinés à soulager les nausées et vomissements

Chaque année en France, 140 000 personnes sont victimes d’un accident vasculaire cérébral. © Adobe Stock

Chaque année en France, 140 000 personnes sont victimes d’un accident vasculaire cérébral (AVC)[1]. Environ 80 % d’entre eux sont des infarctus cérébraux ou AVC ischémiques, liés à l’occlusion d’une artère cérébrale par un caillot sanguin. Des études ont montré que le risque d’AVC ischémique était augmenté par la prise d’antipsychotiques, médicaments aux propriétés antidopaminergiques[2] communément prescrits en psychiatrie. Des chercheurs et chercheuses de l’Inserm et de l’université de Bordeaux (Centre de recherche Bordeaux Population Health), et du CHU de Bordeaux, ont évalué le risque d’AVC ischémique associé à l’exposition à d’autres médicaments antidopaminergiques : les antiémétiques, des médicaments utilisés de façon très courante dans le traitement symptomatique des nausées et vomissements. Les résultats de cette étude, obtenus grâce à l’analyse des données nationales de remboursement de soins de l’Assurance Maladie, mettent en évidence une association entre la prise de ces médicaments et le risque de présenter un AVC ischémique. Ils sont publiés dans le British Medical Journal.

Depuis le début des années 2000, la prise des médicaments antipsychotiques indiqués en psychiatrie a été associée à un risque augmenté d’AVC ischémique. Ce risque a été démontré pour l’ensemble de ces médicaments à propriétés antidopaminergiques ; il augmente avec l’âge et l’existence d’une démence. Les mécanismes sous-jacents ne sont pas élucidés, l’action antidopaminergique est une hypothèse possible. Les antiémétiques -dompéridone, métoclopramide et métopimazine- utilisés dans le traitement symptomatique des nausées et vomissements d’origines diverses (gastro-entérite aigüe, migraine, contexte post-opératoire ou dans le cadre d’une chimio- ou radiothérapie) sont d’autres médicaments présentant cette propriété.

A ce jour, aucune étude n’avait été publiée évaluant le risque d’AVC ischémique associé à une exposition aux antiémétiques antidopaminergiques. Ces médicaments sont pourtant utilisés de façon très courante : en 2017 en France, plus de 4 millions de personnes avaient eu au moins un remboursement de métopimazine, le plus utilisé d’entre eux.

Des chercheurs et chercheuses de l’Inserm, de l’université de Bordeaux et du CHU de Bordeaux se sont intéressés à ce risque. Ils ont réalisé une étude[3] dite « cas propre-témoin » en utilisant les données de remboursement de l’Assurance Maladie et celles des admissions à l’hôpital. Dans ce type d’étude, l’utilisation potentielle du médicament dans la période précédant immédiatement l’accident (ici 14 jours) est comparée à la même utilisation au cours d’une période plus ancienne (ici plus d’un mois) où elle ne peut avoir provoqué l’événement. Une utilisation plus forte dans la période précédant immédiatement l’accident est en faveur d’un rôle joué par le médicament dans l’attaque.

Cette méthode permet de prendre en compte automatiquement les facteurs de risque personnels d’AVC ischémique, tels que le tabagisme, l’indice de masse corporelle, l’activité physique, ou les habitudes alimentaires. D’autres facteurs susceptibles de varier dans le temps court du suivi chez un même individu ont été considérés parmi lesquels l’utilisation de médicaments facteurs de risque d’AVC (tels que les vasoconstricteurs) ou au contraire prémunissant contre ce risque (anticoagulants, antiagrégants plaquettaires).

L’étude a ainsi dans un premier temps analysé les données pour 2 612 adultes hospitalisés pour un premier AVC ischémique et ayant débuté un traitement par antiémétiques dans les 70 jours précédant l’AVC ischémique. Chez ces sujets, les analyses ont retrouvé une plus forte consommation d’antiémétiques dans les jours précédant l’AVC marquée par un pic de d’initiation de traitement sur cette période. Ce résultat suggère qu’il y aurait une augmentation du risque d’AVC ischémique en début d’utilisation de ces médicaments (Figure ci-dessous).

antiémétiques

Distribution de l’initiation des antiémétiques au cours des 70 jours ayant précédé la survenue de l’AVC ischémique (N=2 612 sujets avec AVC ischémique).

Pour éliminer un biais dans les résultats qui pourrait survenir si l’utilisation du médicament variait fortement au cours du temps dans la population générale (par exemple, lors d’épidémies de gastro-entérite aiguë), l’étude a dans un second temps considéré, sur la même période, un groupe aléatoirement constitué de 21 859 personnes n’ayant pas présenté d’AVC. Chez ces personnes, aucun pic ou excès d’utilisation d’antiémétiques comparable à celui mis en évidence chez les patients ayant présenté un AVC n’a été retrouvé (Figure ci-dessous).

Distribution de l’initiation des antiémétiques au cours des 70 jours précédant la date de référence (N= 21 859 sujets n’ayant pas présenté d’AVC ischémique).

Les résultats de cette étude suggèrent une augmentation du risque d’AVC ischémique dans les premiers jours d’utilisation des médicaments antiémétiques antidopaminergiques. Cette augmentation de risque était retrouvée pour les trois antiémétiques étudiés -dompéridone, métoclopramide et métopimazine-, et le risque apparaissait plus élevé dans les premiers jours d’utilisation.

« Cette première étude apporte un signal fort, portant sur des médicaments largement utilisés dans la population générale. Dans l’immédiat, il parait très important que ces résultats puissent être répliqués dans d’autres études, études qui pourraient en outre apporter des indications sur la fréquence de cet effet indésirable, que nous ne pouvions pas mesurer ici compte tenu de l’approche méthodologique retenue. Disposer d’informations précises sur les sous-types d’AVC ischémiques et leur localisation permettrait également d’explorer les mécanismes en cause », explique Anne Bénard-Laribière, l’une des auteurs de l’étude.

 

[1]  Accident vasculaire cérébral (AVC), La première cause de handicap acquis de l’adulte, Inserm, 2019

[2] Les antidopaminergiques bloquent l’action de la dopamine, un neurotransmetteur impliqué, entre autres, dans la régulation du comportement, mais aussi du tonus musculaire et la coordination des mouvements.

[3] Cette étude a été réalisée dans le cadre du programme de travail du Centre DRUGS-SAFER, financé par l’ANSM et partenaire du GIS EPI-PHARE.

Restaurer la conscience grâce à une stimulation profonde du cerveau : une piste pour la recherche sur le coma

©Adobe stock

Une équipe de de recherche associant des chercheurs en neurosciences et des cliniciens du CEA, de l’Hôpital Foch, de l’Université de Versailles Saint-Quentin-en-Yvelines, de l’Inserm et du Collège de France apporte la preuve que la stimulation cérébrale profonde (deep brain stimulation, DBS) peut rétablir la conscience lorsque celle-ci est altérée. Ce résultat, fruit de plus de 5 ans de travail mené chez l’animal, ouvrirait la voie à des essais cliniques chez les patients qui ne recouvrent pas la conscience et a fait l’objet d’une publication dans la revue Science Advances.

La conscience est un processus dynamique et complexe qui coordonne l’activité de différentes régions du cerveau, particulièrement le tronc cérébral, le thalamus et le cortex.

Il existe deux niveaux hiérarchiques de conscience. Le premier est celui de l’éveil, ou vigilance, caractérisé par l’ouverture sur le monde. Il correspond à l’activation de structures très profondes du cerveau nichées dans le tronc cérébral. Le deuxième est « l’accès conscient », caractérisé par la perception consciente de telle ou telle information. À chaque fois que nous prenons conscience d’une information, par exemple une note de musique, ce contenu de conscience est codé par l’activation simultanée de groupes de neurones distribués dans différentes aires du cortex (l’« écorce » plissée, composée de six couches de neurones, qui tapisse les deux hémisphères). Un lien a été établi entre la perte de conscience et une forte perturbation des communications entre les différentes aires du cortex cérébral, et entre le cortex et le thalamus, une région du cerveau à mi-chemin entre le tronc cérébral et le cortex.

Les études d’imagerie cérébrale suggèrent que le rétablissement de ces communications entre cortex et thalamus pourrait être la clé de la récupération des troubles chroniques de la conscience. Plusieurs équipes à travers le monde ont eu l’idée de les rétablir par des stimulations électriques.

Si de premiers résultats avaient déjà montré qu’une telle stimulation pouvait permettre de rétablir le premier niveau de conscience (l’état d’éveil), aucune n’avait pu démontrer si une telle stimulation pouvait aussi rétablir le deuxième niveau de conscience, « l’accès conscient ».

Et si le centre du thalamus était la bonne cible à stimuler pour rétablir les deux niveaux hiérarchiques d’une conscience altérée ? C’est l’hypothèse testée par l’équipe de recherche française à l’origine de ce travail publié dans Science Advances et associant le CEA, l’Hôpital Foch, l’Université de Versailles Saint-Quentin-en-Yvelines, l’Inserm et le Collège de France.

La stimulation électrique du thalamus permet de restaurer une conscience perdue

Pour tester leur hypothèse, les chercheurs ont appliqué une anesthésie générale à un primate non-humain, et ce afin de supprimer les deux composantes de la conscience, à savoir l’éveil et l’accès conscient. Une électrode de stimulation cérébrale profonde, un dispositif équivalent à celui utilisé chez des patients atteints de la maladie de Parkinson avait préalablement été implanté chez ces animaux. Résultat : pendant l’anesthésie générale, la stimulation électrique de la partie centrale du thalamus a permis de réveiller les primates anesthésiés.

La stimulation électrique a induit immédiatement l’observation clinique de l’ouverture des yeux, la reprise d’une respiration spontanée, et des mouvements des membres. L’arrêt de la stimulation par la coupure du courant électrique a fait immédiatement replonger le primate dans un état de sédation profonde, celui de l’anesthésie générale. Cette expérience a ainsi pu démontrer dans un premier temps que la stimulation cérébrale profonde peut restaurer le premier niveau de la conscience.

Grâce à la technologie de l’imagerie cérébrale par IRM fonctionnelle et également d’un examen par électroencéphalographie, les chercheurs sont parvenus pour la première fois à mesurer finement, durant la stimulation du thalamus, les deux niveaux de la conscience (éveil et accès conscient). Ils ont observé de près les activations cérébrales de l’animal, pendant l’anesthésie et pendant les périodes de « réveil » induit par la stimulation. De plus, un casque permettait de faire écouter au primate une série de sons différents réalisant une composition complexe. Alors qu’il avait perdu sa capacité à intégrer la complexité de la composition sonore sous l’effet de l’anesthésie profonde, le cerveau a retrouvé cette capacité dès la mise en route de la stimulation cérébrale. Une analyse algorithmique appliquée au signal IRM fonctionnelle de repos (en dehors des périodes d’application des compositions sonores) a pu démontrer que la stimulation cérébrale ramenait au cerveau une richesse d’activité perdue sous anesthésie générale. Ainsi, la stimulation cérébrale du thalamus a pu restaurer les deux dimensions fondamentales et hiérarchiques de la conscience. Ce travail scientifique apporte une pièce maîtresse pour envisager de futurs essais cliniques chez les patients souffrant de troubles chroniques de la conscience.

Après un traumatisme crânien grave ou un accident vasculaire cérébral sévère, il arrive que des patients ne recouvrent jamais un état de conscience normal. Du coma initial soigné en réanimation, le patient passe à un état chronique de conscience altérée pour lequel il n’existe aucun traitement validé. L’espoir pourrait venir des neurosciences qui, depuis une vingtaine d’années, ont considérablement fait progresser la compréhension du phénomène neurobiologique de la conscience.

 

Ce travail a bénéficié du soutien de la Fondation Bettencourt Schueller, de la Fondation pour la Recherche Médicale, de la Fondation de France, du Human Brain Project et du Collège de France.

Covid-19 : La vaccination « réactive », un outil efficace en cas de circulation virale élevée ?

vaccin covid

Les scientifiques réfléchissent à de nouvelles stratégies pour continuer à promouvoir la vaccination auprès des populations qui demeurent hésitantes © Mat Napo sur Unsplash

Bien que la majorité de la population française soit entièrement vaccinée, la circulation du virus est toujours active dans le pays. Dans un contexte de levée des restrictions sanitaires, la crainte d’une reprise épidémique et de l’émergence de nouveaux variants plus contagieux conduit les scientifiques à réfléchir à de nouvelles stratégies pour continuer à promouvoir la vaccination auprès des populations qui demeurent hésitantes. Une nouvelle étude de modélisation réalisée par des chercheurs et chercheuses de l’Inserm et de Sorbonne Université à l’Institut Pierre Louis d’Epidémiologie et de Santé Publique  montre qu’une stratégie de vaccination dite « réactive », dans laquelle la vaccination est proposée à tout l’entourage d’une personne infectée, pourrait avoir des effets bénéfiques, réduisant le nombre de cas de Covid-19 dans certaines situations épidémiques. Les résultats de ces travaux sont publiés dans le journal Nature Communications.  Les chercheurs ont été soutenus par l’ANRS | Maladies infectieuses émergentes via le projet Emergen.

 

Les campagnes de vaccination massive contre la Covid-19 dans de nombreux pays ont permis d’atténuer considérablement la pandémie. Toutefois, le taux de personnes vaccinées stagne désormais en Europe et aux Etats-Unis, à cause de contraintes logistiques et de l’hésitation d’une partie de la population à se faire vacciner. 

En mars 2022, 79 % des Français étaient complètement vaccinés avec un schéma vaccinal à deux doses et 53 % avait reçu la troisième dose de rappel. Même si ces nombres sont élevés, les efforts pour contrer l’épidémie doivent être maintenus car dans un contexte de circulation virale toujours élevée et de levée des restrictions sanitaires, la reprise épidémique n’est pas encore exclue, et, avec elle, l’apparition de variants plus contagieux.

Dans ce contexte, de nombreux scientifiques estiment donc qu’il faut tester d’autres stratégies vaccinales favorisant accessibilité et acceptabilité pour une meilleure efficacité.

Les chercheuses et chercheurs de l’Inserm et de Sorbonne Université se sont ainsi intéressés à une stratégie de vaccination dite « réactive », qui implique de vacciner l’ensemble de l’entourage des cas dans le foyer et le lieu de travail ou de scolarité. Cette approche est déjà utilisé dans d’autres contextes épidémiques, par exemple face à des vagues de méningites. Dans le contexte de la Covid-19, elle a ponctuellement été utilisée sur le terrain en France, par exemple à Strasbourg au sein de la Haute Ecole des Arts du Rhin (HEAR), à la suite de la découverte d’un cluster du variant delta.

Qu’est-ce que la « vaccination en anneau » (ring vaccination) ?

Dans d’autres contextes épidémiques, par exemple lors de certaines épidémies d’Ebola, d’autres stratégies innovantes ont été déployées pour toucher le plus de monde possible. La plus connue est la stratégie de vaccination en anneau qui consiste à vacciner autour d’un cas avéré les cas contacts directs et les cas contacts de ces derniers.

L’équipe de recherche a voulu évaluer les effets de cette approche réactive sur la circulation virale et le nombre de cas de Covid-19, dans différents scénarios épidémiques. Pour construire leur modèle, les scientifiques se sont appuyés sur des données de l’Insee afin de modéliser une population type, possédant les caractéristiques sociodémographiques, les contacts sociaux et les situations professionnelles d’une population d’une ville française de taille moyenne.

Plusieurs paramètres ont par ailleurs été intégrés au modèle, notamment les caractéristiques de la maladie, la couverture vaccinale, l’efficacité des vaccins, les restrictions des contacts dans les lieux de travail ou dans la communié, leurs déplacements, ou encore la mise en place de stratégies de traçage des cas-contacts.

Les scientifiques ont alors pu étudier l’impact d’une stratégie de vaccination réactive dans le cadre de plusieurs scénarios de dynamique épidémique. Ils montrent ainsi que dans la plupart des scénarios, avec un même nombre de doses de vaccins, une stratégie réactive est plus efficace que d’autres stratégies de vaccination pour réduire le nombre de cas de Covid-19.

Par exemple, dans un contexte où la couverture vaccinale est d’environ 45 % et où la circulation virale est élevée, la réduction du nombre de cas sur une période de deux mois passe de 10 à 16 %, si on compare un programme de vaccination de masse avec un programme où la vaccination réactive est mise en place en parallèle à la vaccination de masse.

Les résultats suggèrent que cette stratégie est surtout efficace lorsque la couverture vaccinale est faible et lorsqu’elle est couplée à des mesures robustes de traçage des cas-contacts.

Lorsque la couverture vaccinale est élevée, une stratégie réactive est moins intéressante, puisque majorité de l’entourage de la personne infectée est déjà vaccinée. Néanmoins, une telle approche aurait quand même le bénéfice d’atteindre les personnes qui ne seraient pas encore vaccinées et de les convaincre plus facilement de l’utilité du vaccin. En effet, le fait d’avoir été exposé au virus augmente la perception des risques et tend à rendre la vaccination plus acceptable.

« Le modèle que nous avons construit permet d’envisager la vaccination réactive comme une stratégie efficace pour augmenter la couverture vaccinale et pour réduire le nombre de cas dans certains scénarios épidémiques, surtout lorsqu’elle est couplée à d’autres mesures comme un traçage efficace des cas contacts. Il s’agit d’un outil qui pourra aussi être réutilisé et adapté en France dans le cas où un autre variant émergerait et où il faudrait tester l’efficacité d’une stratégie réactive pour administrer d’éventuelles doses de rappel. Cette modélisation peut aussi intéresser d’autres pays aux caractéristiques sociodémographiques similaires à la France, dans lesquels la couverture vaccinale est plus faible », explique Chiara Poletto, chercheuse Inserm et dernière auteure de l’étude.

La suggestion hypnotique éclairée par les neurosciences

Hypnose

© Photo Brent De RanterUnsplash


Dans les murs de l’hôpital Pitié-Salpêtrière AP-HP où Charcot a exploré l’hypnose à la fin du XIXe siècle, une équipe de recherche associant des chercheurs et chercheuses de Sorbonne Université, de l’AP-HP, du CNRS et de l’Inserm1, et dirigée par le professeur Lionel Naccache, vient de rapporter une observation originale qui éclaire les mécanismes cérébraux et psychologiques de la suggestion hypnotique. Ce travail de recherche vient d’être publié dans la revue Frontiers in Neuroscience.

La suggestion hypnotique permet d’induire volontairement chez un individu des états mentaux conscients très variés, et elle peut être utilisée à la fois dans le cadre de la recherche sur la biologie de la conscience, et dans un cadre thérapeutique où elle peut, par exemple, diminuer l’expérience douloureuse associée à une intervention chirurgicale chez un sujet éveillé conscient.

Dans ce travail dont le premier auteur est l’étudiant en thèse de neurosciences et chercheur à l’Inserm Esteban Munoz-Musat, les auteurs ont induit une surdité transitoire chez une femme en bonne santé, tout en disséquant les étapes cérébrales de sa perception auditive à l’aide de la technique de l’électroencéphalographie (EEG) à haute densité qui permet de suivre la dynamique du fonctionnement cérébral à l’échelle fine du millième de seconde.

Les chercheurs ont enregistré l’activité cérébrale de la volontaire en situation normale et en situation de surdité hypnotique.

Ils avaient formulé les trois prédictions suivantes qui dérivent des mécanismes cérébraux connus de la perception auditive (voir encadré) et de la théorie de l’espace de travail neuronal global conscient élaborée depuis 2001 par Stanislas Dehaene, Jean-Pierre Changeux et Lionel Naccache:

1 – Les premières étapes corticales de la perception d’un stimulus auditif devraient être préservées durant la surdité hypnotique ;

2 – La surdité hypnotique devrait être associée à une disparition totale de la P300 qui signe l’entrée de l’information auditive dans l’espace neuronal global conscient ;

3 – Ce blocage devrait être associé à un mécanisme inhibiteur déclenché volontairement par l’individu qui accepte de suivre la consigne d’induction hypnotique.

De manière remarquable, les analyses détaillées et approfondies de l’activité cérébrale de cette volontaire ont permis de confirmer ces trois prédictions, et ont également mis en lumière l’implication probable d’une région du lobe frontal connue pour son rôle inhibiteur : le cortex cingulaire antérieur.

L’équipe de recherche a ensuite pu proposer un scénario cérébral précis du phénomène d’induction hypnotique qui affecte spécifiquement les étapes de la prise de conscience tout en préservant les premières étapes inconscientes de la perception.

Ce travail original apporte une preuve de concept importante et va être prolongé sur un groupe plus important d’individus.

Outre leur importance pour les théories biologiques de la conscience et de la subjectivité, ces résultats ouvrent également des perspectives thérapeutiques non seulement dans le champ de l’hypnose médicale, mais également dans le champ voisin des troubles neurologiques fonctionnels qui sont très fréquents (près de 20 % des urgences neurologiques), et dans lesquels les patients souffrent de symptômes invalidants.

Ces symptômes sont souvent sensibles à l’induction hypnotique, et semblent partager avec l’hypnose plusieurs facteurs clés.

Résumé de la physiologie de la perception auditive

La signification et la portée de ces résultats nécessite le rappel suivant : la perception auditive d’un stimulus extérieur débute dans l’oreille interne où les variations de pression de l’air induites par ce son sont converties en impulsions électriques, puis se poursuit dans les différents relais neuronaux des voies auditives avant de gagner le cortex auditif vers 15 millièmes de seconde. A partir de cette entrée en scène du cortex, la perception auditive enchaîne trois étapes sérielles principales que l’on peut identifier à l’aide des outils de neuro-imagerie fonctionnelle tel que l’EEG.

Premièrement, les régions auditives dites primaires construisent activement une carte mentale des caractéristiques acoustiques du son perçu. Cette première étape est identifiable notamment par une onde cérébrale (l’onde P1 qui survient moins de 100 millièmes de seconde après le son). Puis des régions auditives primaires et secondaires qui calculent en temps réel les régularités statistiques de la scène auditive à l’échelle de la seconde écoulée, – et qui anticipent donc quels devraient être les sons suivants -, détectent à quel point ce stimulus transgresse leurs prédictions.

Cette deuxième étape est identifiable par une onde cérébrale découverte vers la fin des années 1970 : la MMN (MisMatch Negativity) ou négativité de discordance (vers 120 et 200 millièmes de seconde). Enfin, vers 250-300 millièmes de secondes après le son, la représentation neuronale du stimulus auditif gagne un vaste réseau cérébral qui s’étend entre les régions antérieures (préfrontales) et postérieures (pariétales) du cerveau.

Cette troisième étape est identifiable par l’onde P300. Fait crucial, alors que les deux premières étapes corticales de la perception auditives opèrent de manière inconsciente, la P300 est la signature de la prise de conscience subjective de ce son qui devient alors rapportable à soi-même : « J’entends le son X ».

Découverte d’un mécanisme d’échappement immunitaire permettant à Listeria d’infecter le système nerveux central

 vaisseau cérébral

Section d’un vaisseau cérébral de modèle animal infecté, contenant des monocytes infectés adhérant aux cellules endothéliales. Listeria est marquée en rouge, l’actine en blanc (y compris les comètes d’actine propulsant Listeria), les noyaux en bleu et les macrophages en vert. © Unité Biologie des infections – Institut Pasteur

Certaines souches « hypervirulentes » de Listeria monocytogenes ont une capacité accrue à infecter le système nerveux central. Des scientifiques de l’Institut Pasteur, d’Université Paris Cité, de l’Inserm et de l’AP-HP ont décrit un mécanisme qui permet aux cellules infectées par Listeria monocytogenes de survivre à l’action du système immunitaire. Les cellules infectées circulant dans le sang ont ainsi une probabilité accrue d’adhérer aux cellules de la paroi des vaisseaux cérébraux et de les infecter à leur tour. Ceci permet aux bactéries de traverser la barrière hématoencéphalique et d’atteindre le cerveau. Cette étude sera publiée dans Nature, le 16 mars 2022.

Le système nerveux central est séparé du sang par une barrière physiologique appelée barrière hématoencéphalique, qu’il est difficile de traverser. Pourtant, certains pathogènes y parviennent et infectent ainsi le système nerveux central, par des mécanismes encore mal connus.

Listeria monocytogenes est la bactérie responsable de la listériose humaine, une infection grave d’origine alimentaire, qui peut se traduire par une atteinte du système nerveux central appelée neurolistériose. Cette infection du système nerveux central est particulièrement grave et conduit au décès dans 30% des cas.

Les chercheurs de l’unité de Biologie des infections à l’Institut Pasteur (Université Paris Cité, Inserm) et du Centre National de Référence et Centre Collaborateur OMS Listeria dirigés par Marc Lecuit (Université Paris Cité et hôpital Necker-Enfants malades AP-HP) ont découvert, dans un modèle animal qui reproduit les différentes étapes de la listériose humaine, le mécanisme qui permet à Listeria monocytogenes d’infecter le système nerveux central. Pour cela, ils ont mis au point un modèle expérimental cliniquement pertinent, impliquant des souches virulentes de Listeria[1] issues de patients atteints de neurolistériose.

Les scientifiques ont tout d’abord observé qu’un type de globules blancs, appelés monocytes inflammatoires, sont infectés par la bactérie. Ces monocytes infectés circulent par voie sanguine et adhèrent aux parois des vaisseaux cérébraux, permettant à Listeria d’infecter le tissu cérébral.

L’équipe de recherche a ensuite montré qu’InlB, une protéine de surface de Listeria monocytogenes, permet à la bactérie d’échapper au système immunitaire et de survivre dans la niche protectrice que constitue le monocyte infecté. En effet, l’interaction entre la protéine InlB et son récepteur cellulaire c-Met entraîne le blocage de la mort cellulaire induite par les lymphocytes T cytotoxiques ciblant spécifiquement les cellules infectées par Listeria. Grâce à InlB, les cellules infectées peuvent donc survivre aux lymphocytes T cytotoxiques.

Ce mécanisme permet de prolonger la durée de vie des cellules infectées, ce qui se traduit par une augmentation du nombre de monocytes infectés dans le sang et favorise la propagation de la bactérie aux tissus de l’hôte, dont le cerveau. Cette propriété favorise également la persistance de Listeria dans le tissu intestinal, son excrétion fécale et sa transmission à l’environnement.

« Nous avons découvert un mécanisme spécifique et inattendu, par lequel un pathogène augmente la durée de vie des cellules qu’il infecte, en bloquant spécifiquement une fonction du système immunitaire essentielle au contrôle de l’infection », explique Marc Lecuit (Université Paris Cité et hôpital Necker-Enfants malades AP-HP), responsable de l’unité de Biologie des infections à l’Institut Pasteur (Université Paris Cité, Inserm).

Il est possible que des mécanismes similaires favorisent l’infection du cerveau par d’autres pathogènes intracellulaires tels que Toxoplasma gondii et Mycobacterium tuberculosis. De plus, l’identification et la compréhension des mécanismes d’échappement immunitaire des cellules infectées pourrait conduire au développement de nouvelles stratégies thérapeutiques anti-infectieuses, ainsi qu’au développement de nouvelles approches immunosuppressives chez les patients recevant une greffe d’organe.

Ces travaux ont été financés par l’Institut Pasteur, l’Inserm et le Conseil européen de la recherche (ERC), et bénéficient d’un financement de la Fondation Le Roch – Les Mousquetaires.

[1] Uncovering Listeria monocytogenes hypervirulence by harnessing its biodiversity, Nature Genetics, 1er février 2016
Communiqué de presse : https://www.pasteur.fr/fr/listeria-souches-hypervirulentes-tropisme-cerebral-placentaire

Malnutrition infantile : succès d’une nouvelle stratégie pour soigner plus d’enfants à moindre coût

Pesée d’un enfant dépisté dans la communauté pour la malnutrition aiguë dans le cadre de l’essai clinique OptiMA-RDC, Province du Kasaï, République Démocratique du Congo.© ALIMA

Des millions d’enfants dans le monde sont touchés par la malnutrition et la crise sanitaire du Covid-19 a encore exacerbé le problème. Dans une nouvelle étude, des chercheurs et chercheuses de l’Inserm et de l’université de Bordeaux au Centre de recherche Bordeaux Population Health en collaboration avec l’IRD et l’ONG ALIMA (The Alliance for International Medical Action) ont développé et testé une nouvelle stratégie visant à simplifier et à optimiser la prise en charge de la malnutrition pour pouvoir soigner un nombre plus important d’enfants. Baptisée OptiMA, cette stratégie a fait ses preuves dans un essai clinique randomisé conduit en République démocratique du Congo (RDC), en permettant de prendre en charge 30 % d’enfants en plus tout en utilisant 20% de produits nutritionnels en moins, en comparaison avec les programmes habituels. Ces résultats sont publiés le 16 mars 2022 dans la revue The Lancet Global Health.

En 2019, la malnutrition touchait 47 millions d’enfants âgés de moins de 5 ans. Si toutes les régions du monde étaient concernées, un quart d’entre eux vivaient sur le continent africain. Après deux années de pandémie de COVID-19, qui se sont accompagnées dans de nombreux pays d’une désorganisation des systèmes de santé et d’une plus grande insécurité alimentaire, la situation est loin de s’améliorer.

A l’heure actuelle, les enfants qui souffrent de malnutrition aiguë sont soignés différemment selon qu’ils souffrent de « malnutrition aiguë sévère » ou de « malnutrition aiguë modérée » (voir encadré). Les prises en charge ne sont pas les mêmes, avec notamment l’utilisation de produits nutritionnels différents.

D’une part, dans le cas de la malnutrition aiguë sévère, on utilise des « aliments thérapeutiques prêts à l’emploi ». Les proportions données sont calculées en fonction du poids de l’enfant, c’est-à-dire que plus l’enfant évolue vers son poids normal, plus il reçoit une dose importante alors qu’il semble plus adapté de diminuer le dosage au fur et à mesure que l’enfant récupère.

D’autre part, les enfants qui souffrent de malnutrition aiguë modérée reçoivent un autre produit de composition proche, les « suppléments nutritionnels prêts à l’emploi ». Ces deux types de produits sont acheminés dans les pays concernés par différents circuits d’approvisionnement qui sont supervisés par des agences des Nations Unies distinctes pour chaque type de produit, ce qui complique la prise en charge des enfants sur le terrain. Par ailleurs, ces produits nutritionnels constituent, avec les ressources humaines, la plus grosse part des coûts liés aux programmes visant à lutter contre la malnutrition aiguë.

Alors que ces programmes font face à un manque de financement important, simplifier et homogénéiser la prise en charge pour tous les types de malnutrition est une priorité, afin de la rendre plus efficace et moins coûteuse, et in fine de soigner un plus grand nombre d’enfants. Aujourd’hui, seuls 25 % des enfants estimés en situation de malnutrition sévère sont pris en charge.

Un travail effectué main dans la main

Des chercheurs et chercheuses de l’Inserm, de l’université de Bordeaux et de l’IRD, et des professionnels de l’humanitaire de l’ONG ALIMA ont mutualisé leurs expertises respectives pour élaborer, proposer une méthodologie d’évaluation et mettre en œuvre un essai clinique destiné à évaluer une nouvelle stratégie appelée « OptiMA », dans laquelle les enfants souffrant de malnutrition aiguë, quel que soit le stade de la maladie, recevaient un unique traitement nutritionnel, les aliments thérapeutiques prêts à l’emploi, selon un dosage progressivement dégressif au fur et à mesure de la récupération nutritionnelle.

En proposant l’utilisation d’un seul type de produit pour toutes les formes de malnutrition aiguë, et en optimisant le dosage, les scientifiques espéraient pouvoir soigner les enfants plus simplement et en plus grand nombre, tout en prévenant l’évolution vers les formes les plus sévères de la malnutrition.

Leur étude, menée en République démocratique du Congo a porté sur près d’un millier d’enfants atteints de malnutrition et âgés de 6 mois à 5 ans, recrutés dans quatre aires de santé dans la province de Kasaï, regroupant une soixantaine de villages et quatre centres de santé. La méthodologie prévoyait de suivre chaque enfant pendant six mois afin de surveiller son évaluation clinique après la fin du traitement et d’évaluer le risque de rechutes.

Ce travail impliquait une visite à domicile bimensuelle de centaines d’enfants. Il a été rendu possible grâce au savoir-faire de l’ONG ALIMA, tant d’un point de vue logistique et opérationnel que pour le travail d’acceptation de ce projet de recherche et de cette nouvelle stratégie par la communauté concernée. Les expertises communes des chercheurs et des humanitaires ont permis de ne perdre de vue presque aucun enfant et donc de proposer une évaluation scientifique la moins biaisée possible de la stratégie OptiMA.

Une stratégie supérieure et moins coûteuse

Les chercheurs ont ainsi pu montrer non seulement que l’efficacité de la stratégie OptiMA n’était pas inférieure à celles des programmes classiques, mais qu’elle était même supérieure. Une prise en charge de la malnutrition aiguë basée sur un programme unique et utilisant un seul produit thérapeutique à doses progressivement réduites a conduit à un meilleur état nutritionnel des enfants et à moins de rechutes sur une période de 6 mois. Elle aboutissait en particulier chez les enfants les plus modérément atteints à une amélioration plus rapide de leur état de santé. Ils étaient également moins susceptibles de faire des rechutes pendant le suivi ou d’évoluer vers des stades plus graves de malnutrition.

Par ailleurs, le fait de n’utiliser qu’un seul produit nutritionnel à des doses optimisées a permis de réduire les coûts par enfant. Ainsi, les scientifiques démontrent que la stratégie OptiMA permettait de prendre en charge 30 % d’enfants en plus tout en utilisant 20% de produits nutritionnels en moins, en comparaison avec les programmes habituellement mis en œuvre.

« Notre stratégie permet de traiter la malnutrition de manière plus précoce, en décloisonnant la prise en charge entre malnutrition modérée et malnutrition sévère. Dans le contexte actuel, après deux années de pandémie à Covid-19, nous sommes face à un nombre croissant d’enfants malnutris et à des situations complexes dans les centres de santé en Afrique. Proposer une simplification et une optimisation des prises en charge de la malnutrition infantile est adapté au contexte mouvant dans lequel nous vivons », souligne Renaud Becquet, chercheur Inserm, co-directeur de l’équipe « Global Health in the Global South » au sein du Centre de recherche Bordeaux Population Health (Inserm/Université de Bordeaux).

La stratégie est désormais testée au Niger dans un autre essai clinique par les mêmes équipes, où elle est comparée au protocole national et à une autre stratégie simplifiée, afin de voir si ses effets bénéfiques peuvent être répliqués dans d’autres contextes et auprès d’autres populations.

Qu’est-ce que la malnutrition aiguë chez les enfants âgés de moins de 5 ans ?

La malnutrition est caractérisée par un déséquilibre entre les apports en éléments nutritifs et les besoins de l’organisme. Quand ces apports sont insuffisants, l’organisme s’affaiblit et la personne touchée perd du poids.

La malnutrition aiguë touche principalement les enfants âgés de moins de 5 ans. Elle se traduit par une perte de poids brutale et importante du fait d’apports caloriques et nutritifs insuffisants, faisant suite à une maladie infectieuse de type diarrhée, infections respiratoire, paludisme et/ou du fait d’un manque d’accès à une alimentation diversifiée et en quantité suffisante.

La malnutrition aiguë est diagnostiquée en utilisant plusieurs critères : le calcul de l’indice rapport poids/taille, la mesure du périmètre brachial (circonférence du bras mesurée entre l’épaule et le coude) ou encore la présence d’œdèmes nutritionnels. On parle ainsi par exemple de malnutrition aiguë modérée lorsqu’un enfant présente un périmètre brachial qui est compris entre 115 et 125 mm, et de malnutrition aigüe sévère lorsque ce périmètre brachial est inférieur à 115mm.

La nouvelle stratégie OptiMA propose de n’utiliser que le périmètre brachial pour dépister la malnutrition aiguë car il est simple à mesurer. Avec peu de ressources, les mères peuvent être rapidement formées à son utilisation et ainsi dépister précocement elles-mêmes la malnutrition de leurs enfants.

fermer