Menu

Émergence de parasites du paludisme résistants aux antipaludiques en Afrique

Globules rouges infectés par Plasmodium falciparum, le parasite responsable du paludisme chez l’homme. Crédits : Rick Fairhurst and Jordan Zuspann, National Institute of Allergy and Infectious Diseases, National Institutes of Health

Dans une nouvelle étude, publiée le 18 octobre dans la revue The Lancet Microbe, une équipe toulousaine rassemblant des scientifiques du CHU de Toulouse et de l’université Toulouse III – Paul Sabatier ainsi que de l’Inserm et du CNRS, alerte sur le risque d’une augmentation de la morbidité et de la mortalité dues au paludisme, en particulier chez les femmes enceintes et les enfants.

Le paludisme reste un problème majeur de santé publique en Afrique subsaharienne avec environ 600 000 décès en 2021 (OMS), quasi exclusivement liés à l’espèce de parasites Plasmodium falciparum (Pf).

Les enfants de moins de 5 ans et les femmes enceintes sont les populations les plus concernées par les formes graves de la maladie. Dans ces groupes à risque, la prévention du paludisme peut être assurée par l’utilisation de moustiquaires imprégnées d’insecticides et par une prophylaxie médicamenteuse qui repose sur l’association de la sulfadoxine et de la pyriméthamine (SP). Cette combinaison médicamenteuse agit en bloquant l’action de deux enzymes parasitaires clés qui ne peuvent alors plus produire des éléments essentiels (les folates) à la survie des parasites.

Cependant, au fil des années, le niveau de résistance à la SP des parasites augmente et menace l’efficacité de cette prophylaxie.

La population parasitaire s’adapte à la pression médicamenteuse exercée par la SP en sélectionnant des parasites porteurs de mutations dans les gènes qui codent pour ces deux enzymes clés. En s’accumulant progressivement, ces mutations diminuent la capacité du médicament à bloquer les enzymes et donc à empêcher la croissance des parasites. Ainsi la prophylaxie contre le paludisme perd de son efficacité.

Le paludisme est une maladie fébrile causée par le parasite Plasmodium, sévissant principalement en Afrique subsaharienne ; il se transmet par les piqûres de moustiques anophèles femelles infectées. Pour aller plus loin, consultez le dossier paludisme sur le site inserm.fr

 

Vers une efficacité réduite du traitement antipaludique préventif

Jusqu’à présent, les parasites les plus résistants à la SP étaient principalement retrouvés en Afrique Australe et de l’Est, et possédaient 5 à 6 mutations spécifiques.

Dans son étude, l’équipe toulousaine a collecté des échantillons dans 18 zones géographiques en Afrique subsaharienne. Leur analyse moléculaire couplée à celle d’une base de données ont permis de mettre en relief l’émergence de nouveaux parasites présentant 8 mutations et très vraisemblablement associés à une forte résistance à la SP.

Ils ont été très fréquemment observés au Nigeria, au Tchad et au Cameroun (ils représentent près de 50 % de la population de Pf dans le nord du Cameroun). L’étude de leur génome permet également d’affirmer que ces parasites sont apparus récemment, avec une émergence unique suivie d’une diffusion de proche en proche.

 

 

« Cette émergence pourrait rapidement rendre caduque l’effet protecteur de la SP dans une vaste zone d’Afrique subsaharienne et être responsable d’une augmentation de la morbidité et de la mortalité dues au paludisme, en particulier chez les femme enceintes et les enfants. Devant cette situation alarmante, il reste essentiel de mieux connaitre l’impact réel de ces nouveaux parasites sur les populations exposées au paludisme, de surveiller la diffusion de ces parasites et d’identifier des solutions alternatives à la SP afin de continuer à protéger les populations les plus vulnérables», explique Antoine Berry, Professeur des Universités, Praticien Hospitalier (PU-PH) et Chef du service de Parasitologie – Mycologie du CHU de Toulouse et membre de l’équipe « Pathogènes Eucaryotes: Inflammation, Immunité lymphocytaire T et Chimiorésistance » de l’Institut toulousain des maladies infectieuses et inflammatoires (INFINITY) (Inserm/CNRS/Université Toulouse III – Paul Sabatier).

Pour aller plus loin, retrouvez notre Canal Détox : « Des applications smartphone pour se protéger des moustiques, vraiment ? »

Une étude de l’Inserm s’intéresse au lien entre le risque de leucémie pédiatrique et le fait d’habiter à proximité de vignes

Ce travail a été réalisé sur l’ensemble du territoire de France métropolitaine, dans le cadre du programme GEOCAP. Crédits : Unsplash

Comprendre les conséquences d’une exposition environnementale aux pesticides, et notamment l’impact sur la santé, est actuellement un enjeu de santé publique. Si de nombreuses études épidémiologiques pointent du doigt le risque d’une exposition domestique et professionnelle[1] sur la santé des enfants, les données demeurent limitées concernant les risques pour les riverains de parcelles agricoles traitées aux pesticides. Une nouvelle étude de l’Inserm, menée par des scientifiques au sein du laboratoire CRESS (Inserm/Université Paris Cité) en collaboration avec Santé publique France, et avec le soutien financier de l’Anses et de l’INCa, apporte un nouvel éclairage, en se penchant sur le risque de leucémies pour les enfants résidant près de parcelles viticoles. L’équipe de recherche montre que le risque de leucémie n’augmente pas avec la simple présence de vignes à moins de 1000 m de l’adresse de résidence. Cependant, elle met en évidence une légère augmentation de ce risque en fonction de la surface totale des vignes présentes dans ce périmètre. L’ensemble des résultats est décrit dans le journal Environmental Health Perspectives.

 L’exposition aux pesticides est suspectée d’être un facteur de risque de cancers pédiatriques, et plus particulièrement de leucémies. La plupart des études réalisées en France et à l’international se sont intéressées au lien entre le risque pour les enfants de développer cette maladie et l’usage de pesticides par la mère au domicile, pendant et après la grossesse.

Le risque d’une exposition environnementale aux pesticides, du fait d’une proximité géographique avec des parcelles agricoles, a en revanche moins été documenté. Les travaux disponibles jusqu’ici ont donné lieu à des résultats hétérogènes du fait notamment de la difficulté à obtenir des données fiables sur la localisation exacte de la résidence des enfants, l’étendue et la localisation des parcelles agricoles, le type de culture cultivée sur ces parcelles, l’utilisation de pesticides sur ces parcelles et le cas échéant la quantité et le type de pesticides utilisés.

Afin de faire progresser les connaissances sur le sujet, des scientifiques de l’Inserm ont mené une étude portant sur l’association entre la proximité du lieu de résidence aux vignes et le risque de leucémie chez les enfants de moins de 15 ans. Ce travail a été réalisé sur l’ensemble du territoire de France métropolitaine, dans le cadre du programme GEOCAP de l’équipe EPICEA[2] de l’Inserm, en collaboration avec Santé publique France et avec le soutien financier de l’Anses et de l’INCa.

 

Pour faire le point sur l’état actuel des connaissances, consultez l’expertise collective de l’Inserm « Pesticides et Santé, nouvelles données »

Une association entre cancer et surfaces des vignes 

Pour mener cette étude, les chercheurs de l’Inserm se sont appuyés sur les données du Registre national des cancers de l’enfant (RNCE)[3] sur la période 2006-2013. Ils ont estimé la présence et la surface de viticulture autour de l’adresse de résidence des 3 711 enfants de moins de 15 ans atteints de leucémie en France métropolitaine sur cette période (cas).  Cette estimation a également été réalisée pour 40 196 enfants non malades du même âge (témoins), sélectionnés pendant la même période à partir de bases de données fiscales (FIDELI) pour être représentatifs de la population métropolitaine de moins de 15 ans.

Pour les cas, l’adresse considérée était celle au moment du diagnostic. Pour les témoins, il s’agissait de l’adresse au moment de leur sélection comme témoins. Les adresses des cas et des témoins ont été transmises sans autre indication à une société privée[4], qui a déterminé les coordonnées (latitude, longitude) correspondantes en utilisant la base d’adresses de référence de l’IGN complétée, si besoin, par des données cadastrales et des photos aériennes.

Enfin, la présence et la surface en vignes autour de ces coordonnées ont été évaluées en utilisant des cartes permettant de repérer les cultures agricoles, construites pour cette étude par Santé publique France. 

L’analyse de ces données met en lumière deux résultats principaux. En premier lieu, la présence de vignes à moins de 1000 mètres de l’adresse de résidence n’était pas plus fréquente chez les cas (9,3%) que chez les témoins (10%). En d’autres termes, d’après ces résultats, la simple présence de vignes à moins de 1000 m de l’adresse de résidence ne semble pas en soi être un facteur de risque de leucémie.

En revanche, les scientifiques ont observé une association entre le risque de développer une leucémie de type « lymphoblastique » et l’étendue de la surface couverte par les vignes, dans ce périmètre de 1000 mètres autour de l’adresse des enfants. Ce risque augmente de façon modérée en fonction de la surface couverte par les vignes : en moyenne pour chaque augmentation de 10 % de la part couverte par les vignes dans le périmètre de 1000 mètres, le risque de leucémie lymphoblastique augmente de près de 10%.

Le découpage par région montrait des résultats hétérogènes, avec des associations plus nettes en Pays de la Loire, Grand-Est, Occitanie, et Provence-Alpes-Côte d’Azur-Corse.

Ces résultats demeuraient identiques en prenant en compte dans l’analyse d’autres facteurs, susceptibles d’influencer le risque de leucémie, comme par exemple le degré d’urbanisation et le niveau moyen journalier d’UV dans la commune ou encore la longueur de routes majeures à moins de 150 mètres de l’adresse.

« Nous mettons en évidence une augmentation modérée du risque de leucémie, qui nous incite à poursuivre nos travaux. Nous avons ici commencé par la viticulture qui est une culture pérenne plus clairement identifiable que des cultures soumises à des rotations, par exemple, et qui fait l’objet de nombreux traitements phytosanitaires. Les analyses concernant les autres cultures sont en cours de même que les analyses d’autres types de cancers. En parallèle, nous travaillons sur l’évaluation des expositions aux différents pesticides utilisés sur ces cultures. C’est un travail long, complexe qui repose sur plusieurs collaborations », conclut Stéphanie Goujon, chercheuse Inserm et dernière autrice de l’étude.

 

Un point sur les leucémies

La leucémie est une maladie rare chez l’enfant, son incidence est de l’ordre de 45 cas pour 1 million d’enfants par an. Autrement dit, en France, environ 500 leucémies sont diagnostiquées chaque année chez des enfants. Elles représentent environ 30 % de tous les cancers pédiatriques. Parmi elles, 80 % sont des leucémies lymphoblastiques et 20 % des leucémies myéloïdes. Dans cette étude, aucune augmentation du risque n’a été retrouvée pour les leucémies myéloïdes, les résultats présentés ici concernent uniquement les leucémies lymphoblastiques.

 

[1] Il s’agit principalement ici d’une exposition professionnelle de la mère pendant la grossesse.

[2] Équipe Inserm d’Epidémiologie des cancers de l’enfant et de l’adolescent (Centre de Recherche en Epidémiologie et StatistiqueS, CRESS, UMR 1153)

[3] https://www.rnce.inserm.fr

[4] Cette société RetailSonar, est experte en géolocalisation et partenaire de l’équipe EPICEA de l’Inserm depuis le début du programme GEOCAP.

 

VIH et hépatite C chez les personnes qui consomment des substances par injection : les salles de consommation limitent les pratiques à risques

Photo d'illustration montrant la main d'une personne qui tient une seringue étiquetée "Fentanyl"© AdobeStock

 La politique française de réduction des risques de transmission des virus du VIH et de l’hépatite C chez les personnes qui consomment des substances par injection inclue notamment l’accès aux seringues stériles et à des salles de consommation à moindre risque (SCMR). L’évaluation de l’efficacité des premières SCMR déployées en France en 2016 a été confiée à l’Inserm par la Mission interministérielle de lutte contre les conduites addictives. Dans ce cadre, une équipe de chercheuses et de chercheurs de l’Inserm, du CNRS, de l’EHESS, de l’Université de Strasbourg, d’Aix-Marseille Université et de l’Université de Bordeaux, grâce à des entretiens avec les usagers de drogues participant à la cohorte Cosinus, a évalué l’efficacité des SCMR sur la réduction des pratiques à risques – et en particulier du partage de matériel d’injection. Leurs résultats montrent une diminution de 90 % du risque de partage de matériel entre les personnes ayant accès aux salles de consommation et celles ayant accès à d’autres types de structures de réduction des risques. Ces travaux parus dans Addiction confirment l’intérêt des SCMR dans la lutte contre les transmissions infectieuses et invitent à renforcer le dispositif existant.

Chez les personnes qui consomment des substances par injection, le partage de matériel comme les aiguilles ou les seringues est un des principaux facteurs de risque de transmission des virus du VIH et de l’hépatite C. En France, la mise en place de programmes de réduction des risques liés à la consommation de substances (associée à l’accès aux antirétroviraux des personnes séropositives) a grandement contribué à la réduction de la prévalence du VIH chez les usagers de substances (de 40 % en 1998 à 11 % en 2011). En revanche, l’épidémie d’hépatite C, elle, reste incontrôlée avec 64 % des usagers séropositifs en 2011.

Les salles de consommation à moindre risque (SCMR) – aujourd’hui dénommées « haltes soins addictions » – permettent aux usagers de pouvoir consommer dans de bonnes conditions d’hygiène et de sécurité, avec un accès facilité à du matériel d’injection stérile à usage unique, sous la supervision d’un personnel formé. En plus d’orienter les usagers vers les services sociaux et médicaux adaptés, elles permettent l’accès aux traitements dits « par agoniste opioïde » (TAO)[1] et offrent la possibilité de se faire dépister sur place pour l’hépatite C. De précédentes études ont montré dans plusieurs pays que ces SCMR se présentaient comme un moyen efficace de réduire les pratiques à risque des consommateurs de substances injectables, de diminuer les injections réalisées dans l’espace public, de casser les chaînes de transmissions infectieuses et de prévenir les overdoses.

Dans le cadre de la lutte contre l’épidémie d’hépatite C, le gouvernement a mis en place en 2016 pour une durée test de 6 ans, deux SCMR ouvertes aux plus de 18 ans, à Paris et Strasbourg. La Mission interministérielle de lutte contre les conduites addictives a confié à l’Inserm l’évaluation de leur efficacité en matière de santé et tranquillité publiques.

Une équipe de recherche impliquant des chercheuses et des chercheurs de l’Inserm, du CNRS, de l’EHESS, de l’Université de Strasbourg, d’Aix-Marseille Université et de l’Université de Bordeaux, a travaillé à évaluer l’impact des salles de consommation en France sur le partage de matériel d’injection et sur l’accès aux tests de dépistage de l’hépatite C et aux traitements par agonistes opioïdes grâce à la cohorte française Cosinus incluant 662 usagers de substances par injection (illégales ou médicamenteuses) (voir encadré). Grâce à des questionnaires, les chercheurs ont pu comparer les données déclaratives obtenues entre les participants ayant accès à une SCMR (36 % des participants) et ceux ne bénéficiant pas de ce type d’infrastructures mais ayant accès à d’autres types de structures ou programmes de réduction des risques (64 %).

Alors que plus de 25 % des participants déclaraient être infectés par l’hépatite C, les résultats de cette étude montrent que 1 % des participants ayant accès aux salles de consommation déclaraient être susceptibles de partager leur équipement d’injection contre 11 % de ceux n’ayant pas accès à ces lieux. « Cela représente une diminution de 90 % du risque de partage de matériel par les SCMR, déclare Marie Jauffret-Roustide, chercheuse Inserm et co-autrice de ces travaux, ce qui montre que, dans le contexte de soin français, ces lieux auraient un impact positif sur les pratiques à risque infectieux de VIH et d’hépatite C. »

En revanche, aucune différence significative entre les deux groupes n’était visible sur le dépistage de l’hépatite C ni sur le suivi d’un traitement par agoniste opioïde.

« Cela peut s’expliquer par le fait que le modèle de soin français permet de proposer désormais systématiquement un dépistage de l’hépatite C dans les lieux de réduction des risques, précise Perrine Roux, chercheuse Inserm qui co-signe la publication. De plus, s’il existe un large accès aux TAO dans notre pays, selon notre étude, les personnes qui accèdent aux salles de consommation à Paris sont très nombreuses à utiliser des sulfates de morphine sans prescription, ce qui n’est pas encore considéré officiellement comme un TAO : cela pourrait donner un résultat sous-évalué pour les salles de consommation », ajoutent Marc Auriacombe et Laurence Lalanne, médecins et co-auteurs de ces travaux.

L’étude, en cohérence avec des travaux antérieurs, montre que la précarité, l’utilisation de stimulants (en particulier le crack) et les injections quotidiennes sont des facteurs associés aux pratiques à risque d’infection au VIH et à l’hépatite C. Déclarer être atteint par l’hépatite C était également associé avec le fait de partager le matériel d’injection ; une association qui n’est pas retrouvée ici chez les personnes séropositives au VIH, mais qui pointe l’intérêt de la mise place des programmes de limitation du partage de matériel pour contrôler l’épidémie d’hépatite C.

« Nos résultats plaident pour l’importance de mettre en place des actions complémentaires à celles déjà existantes, pour mieux lutter contre les transmissions virales au sein de la communauté des personnes qui consomment des substances. En particulier, développer les haltes soins addictions mais également faciliter l’accès à des traitements par agonistes opioïdes plus diversifiés et proposer des prises en charge globales », conclue Marie Jauffret-Roustide.

Elle invite également à continuer le suivi de ces personnes afin de confirmer l’impact positif des salles de consommation sur les pratiques à risques[2].

En savoir plus sur la cohorte Cosinus

La cohorte française longitudinale Cosinus (Cohort to identify structural and individual factors associated with drug use) a suivi 665 personnes de plus de 18 ans qui consomment des substances par injection à Bordeaux, Marseille, Paris et Strasbourg, entre novembre 2016 et mai 2018. Les participants ont été recrutés au sein de programmes de réduction des risques à Bordeaux et Marseille et de salles de consommation à Strasbourg et Paris. Les objectifs de cette cohorte étaient d’évaluer l’impact des salles de consommation à la fois sur les risques de transmission des virus du VIH et de l’hépatite C via le partage du matériel d’injection, sur l’accès au dépistage de l’hépatite C et sur l’accès aux TAO.

Suite aux premiers travaux parus sur le sujet, le gouvernement a décidé en 2021 de créer les haltes soins addictions qui devraient combiner des lieux de réduction des risques des pratiques d’injection avec un accès aux soins (dont psychiatriques) amélioré pour une approche globale de prévention des risques pour les usagers de drogues injectables. À ce jour, aucune halte soins addictions n’a été implantée mais les résultats de la cohorte Cosinus plaident en faveur de leur mise en place.

[1]Le traitement par agoniste opioïde permet de traiter l’addiction ou trouble de l’usage aux opioïdes (héroïne, oxyodone, fentanyl…) en administrant au patient de la méthadone ou de la buprénorphine, deux opioïdes « à effet prolongé ». Là où les premiers ont un mode d’action rapide générant un « pic de plaisir » immédiat, qui contribue à l’effet addictif, les seconds agissent lentement et sans pic de plaisir. En revanche, ils protègent des effets du sevrage pendant 24 à 36 heures sans provoquer le pic de plaisir et permettent à la personne avec addiction de stabiliser son état en réduisant le craving (l’envie irrépressible de consommer) à l’origine des rechutes involontaires.

[2] C’est dans ce contexte que la cohorte Bebop, financée par l’Institut de recherche en santé publique,  va être mise en place à Paris, Strasbourg et Lyon à la fin de l’année 2023.

Une étude internationale révèle des conséquences de l’obésité infantile due à des mutations génétiques

© AdobeStock

Des chercheurs de l’Université de Lille, du CHU de Lille, de l’Inserm, de l’Institut Pasteur de Lille et du CNRS, réunis au sein de l’Institut de recherche EGID, dévoilent des résultats alarmants sur les conséquences médicales de la carence en Leptine chez les enfants obèses.

L’Institut EGID (European Genomic Institute for Diabetes) basé à Lille, en collaboration avec des chercheurs de renommée internationale de l’Imperial College London et de l’Université de Cambridge, ainsi que des experts médicaux du Pakistan, a mené une étude novatrice dirigée par le Professeur Philippe Froguel. Ces travaux, publiés dans la revue Cell Reports Medicine, marquent une avancée majeure dans la compréhension des conséquences médicales de l’obésité infantile causée par des mutations dans trois gènes cruciaux pour la régulation de l’appétit dans le cerveau : la Leptine (LEP), le récepteur de la leptine (LEPR) et le récepteur de la mélanocortine 4 (MC4R).

Cette étude, la première en son genre, a été menée sur la plus grande cohorte d’enfants atteints d’obésité sévère due à ces mutations génétiques, issus de familles consanguines au Pakistan.

Les résultats mettent en lumière les conséquences dramatiques à court terme sur la santé et l’éducation de ces enfants. Les principales conclusions de cette étude sont les suivantes :

• Un taux de mortalité élevé à court terme chez les enfants atteints de carence en LEP (au moins 26%) et en LEPR (9%), principalement en raison d’infections pulmonaires et gastro-intestinales graves.
• 40% des enfants survivants atteints de carence en LEP ou en LEPR ont connu des épisodes de pneumonies ou d’infections gastro-intestinales mettant leur vie en danger, qui sont leur principale cause de décès.
• Aucun de ces enfants n’était diabétique.

Les chercheurs et médecins de cette équipe internationale lancent un appel pressant à la communauté médicale et aux organismes concernés afin d’accélérer la fourniture des médicaments disponibles pour traiter les carences en LEP et LEPR chez ces enfants.

Ces résultats soulignent l’importance de diagnostiquer et de traiter efficacement ces enfants, en particulier au Pakistan où ces traitements ne sont pas encore largement administrés en raison de contraintes budgétaires.

De plus, cette recherche confirme le caractère potentiellement mortel de certaines formes génétiques d’obésité infantile lorsqu’elles ne sont pas prises en charge. Elle incite à une action immédiate pour améliorer les soins de santé et la qualité de vie de ces jeunes patients.

Cette étude s’inscrit dans le prolongement des travaux récents du même groupe de recherche, qui avait identifié une nouvelle forme d’obésité syndromique associée à un taux de mortalité élevé et à des handicaps cérébraux. Cette série de découvertes souligne l’urgence de la recherche et de l’intervention pour lutter contre l’obésité infantile d’origine génétique.

Écrans et développement cognitif de l’enfant : le temps d’exposition n’est pas le seul facteur à prendre en compte

Enfant déjeunant en regardant l'écran d'un ordinateur portableDans quelle mesure l’exposition précoce ou excessive aux écrans influence-t-elle le développement cognitif de l’enfant ? © AdobeStock

Dans quelle mesure l’exposition précoce ou excessive aux écrans influence-t-elle le développement cognitif de l’enfant ? À l’heure actuelle, cette question divise les scientifiques. Une équipe de recherche dirigée par le chercheur Inserm Jonathan Bernard au sein du Centre de recherche en épidémiologie et statistiques (Inserm/INRAE/Université Paris Cité/Université Sorbonne Paris Nord) a travaillé sur les données de près de 14 000 enfants de la cohorte française Elfe[1] de leurs 2 ans à leurs 5 ans et demi. Si comme d’autres avant elle, cette nouvelle étude montre une relation négative entre le temps d’exposition et le développement, elle met aussi en évidence que cette relation n’est pas vraie pour tous les domaines de la cognition et qu’elle est beaucoup plus faible lorsque le cadre de vie familial est correctement pris en compte. Ses résultats confirment[2] également une relation négative non négligeable entre l’exposition à la télévision pendant les repas familiaux et le développement précoce du langage. Ces travaux, publiés dans The Journal of Child Psychology and Psychiatry, suggèrent que, si le temps d’écran a son importance, le contexte d’exposition compte également.

Face aux évolutions rapides des usages et à une place toujours plus importante des écrans dans le quotidien, une question continue de diviser les scientifiques : dans quelle mesure l’exposition trop précoce et/ou excessive aux écrans influence-t-elle le développement infantile ? Si le développement du langage a été au cœur d’une majorité d’études, d’autres domaines cognitifs ont été moins étudiés. Il en est de même pour l’influence que pourraient avoir le cadre familial ainsi que les activités quotidiennes de l’enfant.

L’équipe de recherche dirigée par le chercheur Inserm Jonathan Bernard au sein du Centre de recherche en épidémiologie et statistiques (Inserm/INRAE/Université Paris Cité/Université Sorbonne Paris Nord) a cherché à évaluer les associations entre utilisation d’écran et développement cognitif dans la petite enfance, en prenant en compte les facteurs liés au contexte social, périnatal, familial et aux habitudes de vie. Pour cela, elle s’est intéressée aux données de près de 14 000 enfants de la cohorte française Elfe, collectées de leurs 2 ans à leurs 5 ans et demi, entre 2013 et 2017.

Les parents ont rapporté le temps d’écran quotidien chez leur enfant à 2, 3,5 et 5,5 ans. Il leur a également été demandé de rapporter s’ils allumaient la télévision durant les repas en famille lors de la 2e année de l’enfant. De nombreux facteurs liés aux habitudes de vie et aux activités quotidiennes de l’enfant devaient également être précisés. Enfin, différents domaines cognitifs ont été évalués : développement du langage à 2 ans, raisonnement non verbal à 3,5 ans et développement cognitif global à 3,5 et 5,5 ans.

L’équipe de recherche a ainsi observé qu’aux âges de 3,5 et 5,5 ans, le temps d’exposition aux écrans était associé à de moins bons scores de développement cognitif global, en particulier dans les domaines de la motricité fine, du langage et de l’autonomie. Cependant, lorsque les facteurs relatifs au mode de vie et susceptibles d’influencer le développement cognitif étaient pris en compte dans les modèles statistiques, la relation négative se réduisait et devenait de faible magnitude.

Les résultats de l’étude montrent aussi que, indépendamment du temps d’exposition, avoir la télévision allumée pendant les repas en famille à l’âge de 2 ans (ce qui concernait 41 % des enfants) était associé à de moins bons scores de développement du langage au même âge. Ces enfants présentaient également un moins bon développement cognitif global à 3 ans et demi.

« Cela pourrait s’expliquer par le fait que la télévision, en captant l’attention des membres de la famille, interfère avec la qualité et la quantité des interactions entre les parents et l’enfant. Or, celle-ci est cruciale à cet âge pour l’acquisition du langage », explique Shuai Yang, doctorant et premier auteur de l’étude. Il poursuit : « De plus, la télévision ajoute un fond sonore qui, lorsqu’il se superpose aux discussions familiales, va rendre difficile le déchiffrage des sons pour l’enfant et limiter la compréhension et l’expression verbales. »

Ces résultats suggèrent ainsi que le temps d’écran n’est pas le seul facteur à prendre en compte : le contexte dans lequel a lieu l’utilisation de l’écran pourrait également représenter un facteur important. En outre, tous les domaines de cognition ne seraient pas touchés de façon similaire.

« Les premières années de vie sont décisives pour le développement cognitif, mais aussi dans la mise en place des habitudes de vie, ajoute Jonathan Bernard. Lorsqu’un enfant utilise un écran excessivement, il le fait au détriment d’autres activités ou interactions sociales essentielles pour son développement. »

La robustesse de cette étude tient à la fois au grand nombre de participants, mais également à la prise en compte de facteurs liés au profil social des familles et aux activités des enfants.

« Si nos résultats suggèrent que les effets délétères de l’utilisation des écrans dans la petite enfance présentent un faible impact sur le développement cognitif au niveau individuel et peuvent être compensés dans les années suivantes, ils justifient cependant de rester vigilants à l’échelle de la population. En santé publique, les petits ruisseaux font les grandes rivières », précise Jonathan Bernard.

Il ajoute que davantage d’études de long terme sont nécessaires pour évaluer l’impact cumulatif de ces effets de la petite enfance à l’adolescence. Les travaux de son équipe se poursuivent grâce au suivi des enfants de la cohorte Elfe pour chercher à répondre à ces questions.

 

[1]Elfe est la première étude longitudinale française d’envergure nationale consacrée au suivi des enfants de la naissance à l’âge adulte. Plus de 18 000 enfants nés en France métropolitaine en 2011 ont été inclus dans l’étude (soit 1 enfant sur 50 parmi les naissances de 2011). Depuis le premier contact avec les familles à la maternité, les parents participant sont régulièrement interrogés pour mieux comprendre comment l’environnement, l’entourage familial et les conditions de vie influencent le développement, la santé et la socialisation des enfants. L’étude Elfe mobilise environ 150 chercheurs appartenant à diverses disciplines scientifiques.

[2]Voir à ce sujet le communiqué du 8 juin 2021 : La télévision allumée pendant les repas associée à un plus faible développement du langage chez les jeunes enfants

Association entre la consommation d’additifs alimentaires émulsifiants et le risque de maladies cardiovasculaires

cœurLes scientifiques se sont ici appuyés sur les données communiquées par 95 442 adultes français participant à l’étude NutriNet-Santé. © Inserm/Équipe de recherche en épidémiologie nutritionnelle Eren, Mathilde Touvier

Les émulsifiants figurent parmi les additifs les plus largement utilisés par l’industrie agroalimentaire. Ils permettent d’améliorer la texture des aliments et de prolonger leur durée de conservation. Des chercheurs et chercheuses de l’Inserm, d’INRAE, de l’Université Sorbonne Paris Nord, d’Université Paris Cité et du Cnam, au sein de l’Équipe de recherche en épidémiologie nutritionnelle (Eren-Cress), se sont intéressés aux conséquences sur la santé cardiovasculaire de la consommation d’émulsifiants alimentaires. Ils ont analysé les données de santé de 95 442 adultes participant à l’étude de cohorte française NutriNet-Santé au regard de leur consommation globale de ce type d’additifs alimentaires. Les résultats suggèrent une association entre les apports alimentaires d’additifs émulsifiants et un risque accru de maladies cardiovasculaires. Ils font l’objet d’une publication dans le British Medical Journal.

En Europe et en Amérique du Nord, 30 à 60 % de l’apport énergétique alimentaire des adultes provient d’aliments ultra-transformés. De récentes études épidémiologiques ont établi un lien entre une consommation élevée d’aliments ultra-transformés et un risque accru d’obésité, de mortalité et de maladies chroniques (maladies cardiovasculaires, diabète de type 2, cancers…).

Les émulsifiants figurent parmi les additifs les plus couramment utilisés dans les aliments industriels. Ils sont souvent ajoutés aux aliments transformés et emballés tels que certaines pâtisseries, gâteaux et desserts industriels, glaces, barres chocolatées, pains industriels, margarines et plats préparés, afin d’améliorer leur apparence, leur goût, leur texture et leur durée de conservation. Ils comprennent les celluloses, les mono- et diglycérides d’acides gras, les amidons modifiés, les lécithines, les carraghénanes, les phosphates, les gommes et les pectines.

Comme pour tous les additifs alimentaires, la sécurité des émulsifiants est régulièrement évaluée sur la base des preuves scientifiques disponibles à un moment donné. Pourtant, certaines recherches récentes suggèrent que les émulsifiants peuvent perturber le microbiote intestinal et augmenter le risque d’inflammation, entraînant une susceptibilité potentiellement accrue aux problèmes cardiovasculaires.

Pour approfondir cette question, des chercheuses et chercheurs français ont entrepris d’évaluer les liens entre l’exposition aux émulsifiants et le risque de maladies cardiovasculaires, incluant les maladies coronariennes et les maladies cérébrovasculaires, c’est-à-dire les pathologies affectant la circulation sanguine et les vaisseaux sanguins dans le cœur et le cerveau.

Leurs conclusions sont fondées sur l’analyse des données de 95 442 adultes français (âge moyen 43 ans ; 79% de femmes) sans antécédents de maladie cardiovasculaire qui ont participé volontairement à l’étude de cohorte NutriNet-Santé (voir encadré ci-dessous) entre 2009 et 2021.

Au cours des deux premières années de suivi, les participants ont rempli en ligne au moins trois (et jusqu’à 21) jours d’enregistrements alimentaires. Chaque aliment ou boisson consommé a ensuite été croisé avec des bases de données afin d’identifier la présence et la dose des additifs alimentaires, dont les émulsifiants. Des dosages en laboratoire ont également été effectués pour fournir des données quantitatives.

Les participants ont été invités à signaler tout événement cardiovasculaire majeur, tel qu’une crise cardiaque ou un accident vasculaire cérébral, qui ont été validés par un comité d’experts après examen de leurs dossiers médicaux. Les décès liés aux maladies cardiovasculaires ont également été enregistrés à l’aide du registre national français des décès.

Plusieurs facteurs de risque bien connus pour les maladies cardiaques, notamment l’âge, le sexe, le poids (IMC), le niveau d’éducation, les antécédents familiaux, le tabagisme et les niveaux d’activité physique, ainsi que la qualité globale de l’alimentation (par exemple, les apports en sucre, en sel, en énergie et en alcool) ont été pris en compte.

Après un suivi moyen de 7 ans, les scientifiques ont constaté que des apports plus élevés en celluloses totales (additifs alimentaires correspondant aux codes E460[1] à E468) étaient associés à des risques plus élevés de maladies cardiovasculaires. En particulier, cette association était spécifiquement observée pour les apports en E460 (cellulose microcristalline, cellulose en poudre) et E466 (carboxyméthylcellulose).

D’autre part, des apports plus élevés en monoglycérides et diglycérides d’acides gras (E471 et E472) ont été associés à des risques plus élevés pour toutes les pathologies étudiées. Parmi ces émulsifiants, l’ester lactique des monoglycérides et diglycérides d’acides gras (E472b) était associé à des risques plus élevés de maladies cardiovasculaires et de maladies cérébrovasculaires, et l’ester citrique des monoglycérides et diglycérides d’acides gras (E472c) était associé à des risques plus élevés de maladies cardiovasculaires et de maladies coronariennes.

Une consommation élevée de phosphate trisodique (E339) était également associée à un risque accru de maladies coronariennes.

Aucune association n’a été détectée dans cette étude entre les autres émulsifiants et la survenue de maladies cardiovasculaires.

Il s’agit d’une unique étude observationnelle, qui ne peut donc pas établir de causalité à elle seule, et les scientifiques reconnaissent certaines limites à cette étude. Par exemple, la proportion élevée de femmes, le niveau d’éducation plus élevé et les comportements globalement plus soucieux de la santé parmi les participants à l’étude NutriNet-Santé par rapport à la population française en général peuvent limiter la généralisation des résultats.

Néanmoins, l’échantillon de l’étude était important et les auteurs ont pu tenir compte d’un large éventail de facteurs potentiellement confondants, tout en utilisant des données détaillées et uniques sur les additifs alimentaires, allant jusqu’à la marque des produits consommés. De plus, les résultats sont restés inchangés après de multiples analyses de sensibilité, renforçant ainsi leur robustesse.

« Si ces résultats doivent être reproduits dans d’autres études à travers le monde, ils apportent de nouvelles connaissances clés au débat sur la réévaluation de la réglementation relative à l’utilisation des additifs dans l’industrie alimentaire, afin de mieux protéger les consommateurs », expliquent Mathilde Touvier, directrice de recherche à l’Inserm, et Bernard Srour, professeur junior à INRAE, principaux auteurs de l’étude.

 

L’étude NutriNet-Santé est une étude de santé publique coordonnée par l’Équipe de recherche en épidémiologie nutritionnelle (EREN-CRESS, Inserm/INRAE/Cnam/Université Sorbonne Paris Nord/Université Paris Cité), qui, grâce à l’engagement et à la fidélité de plus de 170 000 nutrinautes, fait avancer la recherche sur les liens entre la nutrition (alimentation, activité physique, état nutritionnel) et la santé. Lancée en 2009, l’étude a déjà donné lieu à plus de 270 publications scientifiques internationales. Un appel au recrutement de nouveaux nutrinautes est toujours lancé afin de continuer à faire avancer la recherche sur les relations entre la nutrition et la santé.

En consacrant quelques minutes par mois à répondre, via Internet, sur la plateforme sécurisée etude-nutrinet-sante.fr aux différents questionnaires relatifs à l’alimentation, à l’activité physique et à la santé, les participants contribuent à faire progresser les connaissances sur les relations entre l’alimentation et la santé

[1] Les additifs alimentaires sont identifiés dans la liste des ingrédients par un code fixé au niveau européen qui se compose de la lettre « E », suivie d’un numéro permettant d’identifier facilement la catégorie. Par exemple, E100 pour les colorants, E200 pour les conservateurs, E400 pour les émulsifiants et agents de texture.

La pollution atmosphérique accélère le vieillissement oculaire

© Freepik© Freepik

De nombreuses études font désormais état des effets néfastes de la pollution atmosphérique sur le système nerveux central (maladies neurodégénératives chez l’adulte, troubles neurodéveloppementaux chez l’enfant). Le glaucome, deuxième cause de cécité dans le monde, est une maladie neurodégénérative du nerf optique, dont la principale caractéristique est un amincissement de la couche des fibres nerveuses de la rétine. Dans une étude portant sur une cohorte composée de 683 personnes âgées bordelaises, dont le suivi a duré dix ans, des chercheurs et chercheuses de l’Inserm et de l’université de Bordeaux, au centre de recherche Bordeaux Population Health, ont mis en évidence un amincissement accéléré de la couche des fibres nerveuses de la rétine chez les personnes plus exposées à la pollution atmosphérique, notamment celles qui avaient une plus grande exposition aux particules fines (particules d’un diamètre inférieur à 2,5 microns = PM2,5). Cette étude suggère donc une possible augmentation du risque de glaucome pour les habitants des zones polluées aux particules fines, et ce même à des niveaux inférieurs aux seuils réglementaires actuels de l’Union européenne (25 microgrammes/mètre cube). Les résultats sont publiés dans la revue Environmental Research.

La pollution atmosphérique constitue un enjeu de santé publique mondial. Les effets nocifs des polluants atmosphériques sur les fonctions respiratoires et cardiovasculaires ont été largement documentés dans la littérature scientifique. Il est aussi de plus en plus évident que l’exposition chronique à la pollution atmosphérique a des effets néfastes sur le système nerveux central avec notamment une augmentation du risque de maladies neurodégénératives chez l’adulte et de troubles neurodéveloppementaux chez l’enfant.

La couche des fibres nerveuses de la rétine (RNFL) fait partie du système nerveux central, et son amincissement représente la principale caractéristique du glaucome[1], une maladie de l’œil associée à la destruction progressive du nerf optique, le plus souvent causée par une pression trop importante à l’intérieur de l’œil. Cette pathologie constitue la seconde cause de cécité dans les pays développés.

Des chercheurs et chercheuses de l’Inserm et de l’université de Bordeaux ont étudié l’effet d’une exposition a des concentrations plus élevées de polluants de l’air (particules fines[1] et dioxyde d’azote) sur les processus neurodégénératifs au niveau oculaire. Ils ont pour cela suivi pendant dix ans une population bordelaise de 683 personnes âgées de plus de 75 ans au moment de leur inclusion dans la cohorte Aliénor[2]. Il s’agit de la première étude prospective réalisée sur ce sujet.

Dans le cadre de cette étude, les personnes ont bénéficié d’examens oculaires tous les deux ans entre 2009 et 2020, afin de mesurer l’évolution de l’épaisseur de la couche des fibres nerveuses de leur rétine.

Par ailleurs, leur exposition à la pollution atmosphérique au cours des 10 années précédentes a été déterminée à partir de l’adresse de leur domicile, à l’aide de cartographies d’exposition annuelle pour chaque polluant. Ces cartographies détaillées, ayant une résolution de 100 mètres, ont été réalisées à partir des mesures de stations de contrôle de qualité de l’air et de caractéristiques météorologiques et géographiques (proximité d’une route, densité de population, distance de la mer, altitude…)[4].

Selon les résultats de cette étude, les personnes ayant été exposées à des concentrations plus élevées de particules fines avaient au cours du temps un affinement plus rapide de la couche nerveuse rétinienne.

Ces résultats sont représentés sur la figure ci-dessus sur laquelle on peut voir que les participants exposés à une concentration de 25µg/m3 aux particules fines PM2,5 avaient une diminution plus rapide de l’épaisseur de cette couche en comparaison a ceux exposés à 20 µg/m3.

Ces résultats suggèrent que l’exposition à une forte concentration de polluants au cours du temps pourrait augmenter le risque de glaucome.

En ce qui concerne les particules fines PM2,5, les estimations de l’exposition moyenne sur 10 ans étaient inférieures au seuil annuel réglementaire de l’Union européenne (établi à un maximum de 25 μg/m3) pour tous les participants, mais supérieures aux valeurs limites recommandées par l’OMS en 2005 (10 μg/m3) encore abaissées en 2021 (5 μg/m3).

« Les résultats de cette étude confirment les observations précédentes sur les effets de la pollution atmosphérique sur les processus neurodégénératifs, ici au niveau oculaire. Ils constituent un argument supplémentaire en faveur de la baisse des seuils réglementaires européens[5], comme recommandé par l’OMS, ainsi que de la diminution de l’exposition effective de la population française, qui continue de dépasser par endroit les seuils réglementaires actuels », explique Laure Gayraud, doctorante en épidémiologie et première autrice de l’étude.

« De façon plus générale, notre étude documente les effets des polluants atmosphériques sur le vieillissement neurologique. En prenant l’exemple du vieillissement oculaire, elle suggère qu’une exposition à des concentrations élevées de polluants au cours du temps pourrait mener à une accélération du vieillissement neurologique, comme cela a été observé dans des études sur le vieillissement cérébral », explique Cécile Delcourt, directrice de recherche à l’Inserm, dernière autrice de ces travaux.

L’objectif est désormais pour les scientifiques d’élargir le terrain d’étude à l’échelle nationale, grâce à des données issues d’autres cohortes françaises, afin d’approfondir les connaissances sur les effets des polluants sur le vieillissement oculaire.

Schéma de l’œil et de la rétine

© Adobe stock

 

[1]Pour aller plus loin, consultez le dossier sur le glaucome.

[2]Les particules fines correspondent aux PM2,5 dont le diamètre est inférieur à 2,5 microns.

[3]L’étude Alienor est une étude épidémiologique en population générale âgée qui explore les relations entre les maladies oculaires liées à l’âge et autres déterminants majeurs de ces maladies (facteurs génétiques, nutritionnels, environnementaux ou vasculaires).

[4]Ces cartographies ont été précédemment réalisées par l’équipe de Kees de Hoogh et Danielle Vienneau du Swiss Tropical and Public Health Institute (co-auteurs de la publication).

[5]Les députés de la commission de l’environnement au sein du Parlement européen ont récemment voté en faveur de l’abaissement des seuils de plusieurs polluants à l’horizon 2030, dont les particules fines.

Vision mondiale des déterminants des résistances aux antibiotiques

Proportion de résistance aux céphalosporines de 3ème génération chez Klebsiella pneumoniae, pour les infections dans le sang, 2019 (données ATLAS, Pfizer) © Institut Pasteur, Eve Rahbé

 

Pour comprendre les principaux déterminants de la dynamique mondiale de la résistance aux antibiotiques, des scientifiques de l’Institut Pasteur, de l’Inserm et des universités de Versailles Saint-Quentin-en-Yvelines et de Paris-Saclay ont développé un modèle statistique grâce à une analyse spatio-temporelle de grande ampleur. En utilisant la base de données de suivi de l’antibiorésistance ATLAS, ce modèle a mis en évidence des différences importantes de tendances et de facteurs associés en fonction des espèces de bactéries et des résistances à certains antibiotiques. Par exemple, la bonne qualité du système de santé d’un pays est associée à de faibles niveaux d’antibiorésistance chez toutes les bactéries à Gram négatif1 étudiées ; des températures élevées sont à l’inverse associées à des forts niveaux d’antibiorésistance chez les Entérobactéries. De façon inattendue, la consommation d’antibiotique nationale n’est pas corrélée à la résistance chez la majorité des bactéries testées. Ces résultats suggèrent que les mesures de contrôle de l’antibiorésistance doivent s’adapter au contexte local et aux combinaisons bactéries-antibiotiques ciblées. Les résultats de cette étude seront publiés dans la revue The Lancet Planetary Health le 10 juillet 2023.

La résistance aux antibiotiques ou l’antibiorésistance constitue aujourd’hui l’une des plus graves menaces pesant sur la santé mondiale. Ce phénomène est naturel mais le mauvais usage des antibiotiques y contribue en sélectionnant les résistances et complexifie la lutte contre les infections bactériennes.

Une surveillance mondiale de l’antibiorésistance est en place, notamment sous l’égide de l’OMS, et de nombreuses bases de données ont été créées pour répertorier chaque apparition d’antibiorésistance dans le monde, et pouvoir à terme bien comprendre ce phénomène pour mieux lutter contre.

Il n’existe pas une résistance aux antibiotiques mais plusieurs, très dépendantes des espèces bactériennes. Une étude récente2 a estimé qu’en 2019, 1,27 millions de décès dans le monde résultaient de la résistance aux antibiotiques et 4,95 millions y étaient associés.

Pour définir les principaux facteurs associés à la dynamique de l’antibiorésistance au niveau mondial, une équipe de recherche pluridisciplinaire à l’Institut Pasteur a développé un modèle statistique et analysé les données d’antibiorésistance de la base ATLAS, données collectées  depuis 2004 dans plus de 60 pays sur les cinq continents. Les scientifiques ont analysé les données en testant un grand nombre de déterminants afin de faire émerger les principaux facteurs de l’antibiorésistance et de comprendre leur association avec les dynamiques observées au niveau mondial.

« Des équipes de recherche étudient comment l’antibiorésistance émerge au sein d’une bactérie dans une boite de Pétri ou encore chez un individu… mais il manque aujourd’hui cette vue d’ensemble au niveau populationnel et mondial afin de pouvoir étudier les liens, en fonction des espèces de bactéries pathogènes, entre la résistance et certains facteurs comme la qualité d’un système de santé national. Pour comprendre la dynamique de l’antibiorésistance, il est nécessaire d’étudier toutes les échelles. C’est ce que cette étude propose », explique Eve Rahbe, chercheuse doctorante au sein de l’unité Épidémiologie et modélisation de la résistance aux antimicrobiens à l’Institut Pasteur et première auteure de l’étude.

L’étude a consisté dans un premier temps à sélectionner des facteurs pertinents pouvant influer sur les dynamiques d’antibiorésistance.

« Si certains facteurs biologiques sont connus, il était important pour nous d’évaluer également des hypothèses associées à des facteurs socio-économiques et climatiques », continue la chercheuse.

Au total, 11 facteurs ont été retenus, notamment la qualité du système de soins (indice GHS3), la consommation d’antibiotiques et la richesse du pays (indice PIB), ainsi que des données sur les voyages et des variables climatiques. Puis, des modèles statistiques ont été élaborés pour étudier les associations potentielles entre les données ATLAS et les facteurs retenus.

L’analyse des données au niveau mondial sur la période 2006-2019 a d’abord mis en évidence une augmentation de la résistance aux carbapénèmes chez plusieurs espèces, alors que les tendances restent stables mondialement pour les autres résistances. De plus, cette étude a démontré que les dynamiques et les facteurs associés à l’antibiorésistance sont dépendants des combinaisons bactéries-antibiotiques.

Cependant, de façon surprenante, la consommation nationale d’antibiotiques n’est pas associée significativement à la résistance chez la majorité des bactéries testées (sauf pour la consommation de quinolones pour les Escherichia coli et Pseudomonas aeruginosa résistantes aux quinolones ou encore la consommation de carbapénèmes chez les Acinetobacter baumannii résistantes aux carbapénèmes).

A contrario la bonne qualité du système de santé d’un pays est associée à de faibles niveaux d’antibiorésistance chez toutes les bactéries à Gram négatif1 testées. Les températures élevées sont, elles, associées à des forts niveaux d’antibiorésistance mais chez les Entérobactéries uniquement (Escherichia coli et Klebsiella pneumoniae).

« Cette étude met en évidence la diversité des déterminants conduisant à l’antibiorésistance de différentes bactéries pathogènes au niveau mondial, et la nécessité d’adapter les approches de contrôle de la résistance au contexte local (pays, contexte de transmission) et à la combinaison bactérie-antibiotique en question », conclut Philippe Glaser, responsable de l’unité Écologie et évolution de la résistance aux antibiotiques à l’Institut Pasteur et co-principal auteur de l’étude.

« Notre modèle statistique pourra être appliqué à d’autres bases de données, comme celle de l’OMS notamment. Une meilleure connaissance des déterminants de résistance, différents entre les pays, et probablement entre des régions d’un même pays, est essentielle et permettra d’adapter les actions de santé publique », conclut Lulla Opatowski, Professeur à l’université de Versailles Saint-Quentin-en-Yvelines et chercheuse au sein de l’unité d’Epidémiologie et modélisation de la résistance aux antimicrobiens, co-principale auteure de l’étude.

Ces travaux sont financés par les organismes de recherche cités précédemment, le Labex IBEID et par un « Independent research Pfizer Global Medical Grant ». 

Lire la fiche d’information sur l’antiobiorésistance sur pasteur.fr.

1 Les bactéries à Gram négatif sont des bactéries à deux membranes qui posent plus de problème de résistance aux antibiotiques, du fait de la perméabilité réduite de la membrane externe.

2 Lancet, https ://doi.org/10.1016/S0140-6736(21)02724-0

3 GHS : Global Health Security Index

La chaleur record de l’été 2022 a fait plus de 61 000 morts en Europe dont près de 5000 en France

L’Europe est le continent qui connaît le plus grand réchauffement, jusqu’à 1°C de plus que la moyenne mondiale. © Adobe Stock

L’été 2022 a été le plus chaud jamais enregistré en Europe, caractérisé par une intense série de vagues de chaleur qui ont battu des records de température, de sécheresse et d’incendies de forêt. Bien qu’Eurostat avait déjà fait état d’une surmortalité inhabituellement élevée pour ces dates, la fraction de la mortalité attribuable à la chaleur n’avait pas été jusqu’à présent quantifiée. C’est précisément ce qu’a fait une étude menée par des scientifiques de l’Inserm et de l’Institut de Barcelone pour la Santé Globale (ISGlobal). Leur analyse estime qu’entre le 30 mai et le 4 septembre 2022, il y aurait eu 61 672 décès attribuables à la chaleur en Europe. Ces résultats suggèrent que les stratégies d’adaptation à la canicule dont nous disposons aujourd’hui pourraient encore être insuffisantes. L’étude complète est publiée dans la revue NatureMedicine.

En 2003, l’Europe a connu l’une des plus grandes canicules de son histoire, qui a causé plus de 70 00 décès. Depuis, des stratégies d’adaptation ont été développées pour tenter de réagir rapidement en cas de forte chaleur et pour protéger les populations les plus vulnérables. Alors que les épisodes de canicules ne cessent de se multiplier ces dernières années, et qu’il est estimé que leur nombre pourrait doubler d’ici 2050, il est crucial de mieux caractériser la mortalité associée et d’évaluer l’efficacité des stratégies mises en place.

Alors que l’été 2022 a été le plus chaud jamais enregistré en Europe, des scientifiques de l’Inserm au sein de l’UMS France Cohortes[1] et de l’Institut de Barcelone pour la Santé Globale se sont donc intéressés au nombre de décès liés à la chaleur sur cette période.

L’équipe de recherche a obtenu des données de température et de mortalité pour la période 2015-2022 dans 823 régions de 35 pays européens, regroupant une population totale de plus de 543 millions de personnes. Ces données ont été utilisées pour estimer des modèles épidémiologiques permettant de prédire la mortalité attribuable aux températures pour chaque région et semaine de la période estivale.

Les registres révèlent d’abord que les températures étaient supérieures à la moyenne durant toutes les semaines de la période estivale. La plus grande anomalie thermique a été enregistrée entre le 11 juillet et le 14 août, période durant laquelle, selon les chercheurs, la mortalité due à la chaleur a causé 38 881 décès.

Dans cette période, il y a eu une vague de chaleur paneuropéenne plus particulièrement intense, située entre le 18 et le 24 juillet, à laquelle un total de 11 637 décès sont attribués à l’excès de chaleur. Au total, l’analyse révèle qu’entre le 30 mai et le 4 septembre 2022, il y aurait eu 61 672 décès attribuables à la chaleur en Europe.

La France est le pays qui a enregistré la plus forte augmentation de température par rapport aux moyennes de saison, avec +2,43ºC au-dessus des valeurs moyennes de la période 1991-2020, suivie de la Suisse (+2,30ºC), Italie (+2,28 ºC), Hongrie (+2,13 ºC) et l’Espagne (+2,11 ºC).

 

Des analyses par pays, âge et sexe

A partir des modèles épidémiologiques qu’ils ont construits, intégrant les données sur la température et sur le nombre de décès[2], les scientifiques ont également pu proposer une analyse par pays. Ils ont ainsi montré qu’en termes absolus, le pays avec le plus grand nombre de décès attribuables à la chaleur tout au long de l’été 2022 a été l’Italie, avec un total de 18 010 décès, suivi de l’Espagne (11 324) et de l’Allemagne (8 173). La France arrive en 4e position, avec 4807 décès liés à la chaleur[3].

Au-delà de l’estimation du nombre de décès imputables à la chaleur, l’étude a également inclus une analyse en fonction de l’âge et du sexe. A l’échelle de l’Europe, les résultats mettent en lumière une augmentation très marquée de la mortalité dans les tranches d’âge supérieures. La grande majorité des décès se concentre dans la tranche d’âge des 80 ans et plus.

Concernant l’analyse par sexe, les données indiquent que la mortalité prématurée attribuable à la chaleur était 63% plus élevée chez les femmes que chez les hommes. Cette plus grande vulnérabilité des femmes à la chaleur s’observe dans l’ensemble de la population et, surtout, chez les plus de 80 ans, où le taux de mortalité est supérieur de 27 % à celui des hommes. En revanche, le taux de mortalité masculine est 41 % plus élevé chez les moins de 65 ans et 13 % plus élevé entre 65 et 79 ans.

Pour l’équipe de recherche, ces résultats devraient nous inciter à agir pour mettre en place des mesures de prévention et de protection plus robustes.

En effet, le fait que de nombreux pays disposaient déjà de plans de prévention actifs, contrairement à 2003, suggère que les stratégies d’adaptation dont nous disposons aujourd’hui pourraient encore être insuffisantes

« L’accélération du réchauffement observée au cours des dix dernières années souligne l’urgence de réévaluer et de renforcer en profondeur les plans de prévention, en accordant une attention particulière aux différences entre les pays et les régions d’Europe, ainsi qu’aux écarts d’âge et de sexe, qui marquent actuellement les différences de vulnérabilité à la chaleur », précise Hicham Achebak, chercheur à l’Inserm et dernier auteur de l’étude.

L’Europe est le continent qui connaît le plus grand réchauffement, jusqu’à 1°C de plus que la moyenne mondiale. Dans ce contexte, les estimations faites par l’équipe suggèrent aussi qu’en l’absence d’une réponse adaptative efficace, le continent fera face à une moyenne de plus de 68 000 décès en excès chaque été d’ici 2030 et de plus de 94 000 d’ici 2040.

 

[1] L’Unité mixte de service (UMSFrance Cohortes associe plusieurs tutelles académiques dont l’Inserm, l’Ined, l’université Paris-Saclay, Université Paris Cité et Sorbonne Université. Son objectif à terme est d’offrir une offre de services pour les cohortes épidémiologiques.

[2] Les données de mortalité ont été obtenues via Eurostat et les données de températures via ERA5-land reanalysis.

[3] Cette étude se concentre sur la mortalité attribuable à la chaleur pendant l’été de 2022 en utilisant des données hebdomadaires et estime près de 5 000 décès en France. D’un autre côté, Santé Publique France a récemment utilise des données journalières pour la même période et estimé près de 7 000 décès. Cette différence dans le nombre décès est dû au fait que les données hebdomadaires sous-estiment généralement l’impact de la chaleur sur la mortalité.

Variole du singe : caractérisation de la réponse immunitaire après une infection

Variole du singe

En 2022-2023, une épidémie sans précédent de 87 000 cas de variole du singe est apparue dans des zones non endémiques. © Adobe Stock

En 2022-2023 une flambée de variole du singe due au virus monkeypox, appelé maintenant virus mpox (MPXV) a été responsable de 87 000 cas humains dans 170 pays[1]. La majorité des cas a été déclarée en dehors des zones habituelles de circulation du virus. Ce virus fait depuis l’objet d’une surveillance renforcée en Europe, près de 5 000 cas ont été recensés en France[2]. Des scientifiques et cliniciens de l’Institut Pasteur, du CNRS, de l’Inserm, du VRI et de l’AP-HP, ont étudié 470 sérums provenant d’individus vaccinés ou infectés par le virus MPXV afin de comprendre les mécanismes impliqués et de définir des corrélats de protection contre l’infection ou la gravité de la maladie[3]. Ils ont ainsi déterminé la sensibilité de ce virus aux anticorps neutralisants et analysé la réponse immunitaire de ces individus, infectés par MPXV ou vaccinés. Cette étude a permis de mettre en évidence le rôle du complément4, composant du système immunitaire inné, dans cette réponse. Les résultats ont été publiés dans la revue Cell Host & Microbe, le 4 mai 2023.

En 2022-2023, une épidémie sans précédent de 87 000 cas de variole du singe est apparue dans des zones non endémiques ; elle a touché ainsi des personnes sans lien direct avec un voyage en Afrique du Centre ou de l’Ouest où le virus est présent historiquement. Le virus MPXV est transmis essentiellement par des rongeurs à l’homme, puis la transmission interhumaine se fait par des gouttelettes respiratoires ou contact rapproché. Les symptômes sont atténués par rapport à ceux de la variole humaine, et la létalité est plus faible. Selon Santé publique France, environ 5 000 cas d’infection à MPXV ont été recensés en France depuis mai 20222. Le MPXV circule toujours, à très bas bruit dans les zones non endémiques, c’est pourquoi il est important de mieux le caractériser et d’analyser la réponse immunitaire des personnes infectées par le virus ou vaccinées par IMVANEX, le vaccin actuellement disponible, de troisième génération, développé initialement contre la variole humaine.

Les équipes de recherche ont collaboré avec des cliniciens, des vaccinologues et des virologues de trois hôpitaux français (Hôpital Henri Mondor de Créteil, Hôpital de la Pitié-Salpêtrière et Hôpital d’Orléans) pour réaliser ces travaux multidisciplinaires. Le grand nombre de sérums analysés a permis d’obtenir une puissance statistique, et d’affiner l’analyse sur des sous-groupes de patients selon différents critères comme celui de l’âge par exemple.

Dans cette étude, publiée dans la revue Cell Host & Microbe, revue de référence sur les interactions entre microbes et système immunitaire, les scientifiques ont étudié la sensibilité du MPXV aux anticorps neutralisants (NAbs) générés après une infection par le virus et/ou une vaccination par IMVANEX. En effet, le vaccin IMVANEX a été utilisé comme prophylaxie pré et post-exposition dans les populations à haut risque, mais son efficacité reste mal caractérisée. Pour étudier cette sensibilité du virus, l’équipe de scientifiques a développé deux tests cellulaires pour la quantification des anticorps neutralisants en utilisant soit le virus atténué utilisé comme vaccin (MVA), soit une souche MPXV isolée chez un individu récemment infecté.

Cette étude a permis de mettre en évidence le rôle du complément[4], déjà connu pour d’autres poxvirus, et de décrire l’activité neutralisante des anticorps générés par l’infection ou la vaccination. Des niveaux robustes d’anticorps anti-MVA ont été détectés après une infection, une vaccination antivariolique historique, l’administration d’IMVANEX ou d’un autre vaccin candidat à base de MVA. MPXV est peu sensible à la neutralisation en l’absence de complément. L’ajout de complément issu de sérums améliore la détection par les individus qui ont des anticorps et augmente leur taux d’anticorps anti-MPXV. Quatre semaines après l’infection, des NAb anti-MVA et -MPXV ont été observés chez 94 % et 82 % des individus, respectivement. Deux doses d’IMVANEX ont généré des NAb anti-MVA et -MPXV détectables chez 92 % et 56 % des receveurs du vaccin, respectivement.

Le plus haut taux d’anticorps a été retrouvé chez les individus nés avant 1980 (donc vaccinés contre la variole) que ce soit après infection ou après administration d’IMVANEX, soulignant l’impact de la vaccination antivariolique historique sur les réponses immunitaires à l’infection ou à l’administration d’IMVANEX. Cela suggère qu’une sorte d’immunité hybride a été générée chez les individus infectés qui ont été vaccinés dans leur enfance.

Le nombre d’infections au MPXV ne cesse d’augmenter depuis l’arrêt de la vaccination massive contre la variole dans les années 1980.

« Les tests de neutralisation sensibles développés dans le cadre de ces travaux peuvent aider à définir des corrélats de protection contre l’infection ou la gravité de la maladie. Ces tests peuvent également être utilisés pour des enquêtes épidémiologiques, l’évaluation de la durée de protection conférée par une infection antérieure ou par des vaccins autorisés et candidats, et pour l’analyse de toute intervention immunothérapeutique. Ces tests représentent des outils utiles pour comprendre les mécanismes de multiplication de MPXV, ses effets sur la santé publique, et optimiser la prise en charge des patients, » commente Olivier Schwartz, responsable de l’unité Virus et immunité à l’Institut Pasteur, principal auteur de l’étude.

 

[1] Chiffres OMS.

[2] Santé Publique France. Variole du singe (MPXV) : point de situation en France au 27 avril 2023.

[3] Cette étude a été soutenue par l’ANRS | Maladies infectieuses émergentes, qui a fourni des échantillons pour la réalisation de ce travail. 

[4] Le complément est un groupe de protéines présent dans le sérum, qui participe à la défense de l’organisme. Il est impliqué dans les mécanismes d’élimination des pathogènes. Les travaux du pasteurien Jules Bordet sur le rôle du complément et des anticorps sont récompensés par le prix Nobel de physiologie ou médecine en 1919.

fermer