Menu

Oreillers connectés, scotch sur la bouche, mélatonine… Ces astuces « sommeil » des réseaux sociaux sont-elles réellement conseillées ?

La collecte de données peut provoquer une orthosomnie, soit une obsession sur la qualité du sommeil qui génère du stress (image d'illustration).La collecte de données peut provoquer une orthosomnie, soit une obsession sur la qualité du sommeil qui génère du stress (image d’illustration). Crédit : Adobe Stock

En 2017, près de la moitié des adultes de 18 à 75 ans déclaraient avoir connu des troubles du sommeil au cours des huit derniers jours, et environ 13 % souffrir d’insomnie chronique (pendant trois mois ou plus), selon Santé publique France. [1]

Face à ce problème, les réseaux sociaux regorgent d’astuces pour optimiser le sommeil, regroupées sous le hashtag #sleepmaxxing. Oreillers connectés, scotch sur la bouche, compléments alimentaires… Beaucoup de ces pratiques ne reposent pas sur des bases scientifiques solides, et certaines sont même dangereuses. Parmi elles, une méthode chinoise consistant à se balancer suspendu par le cou pour « traiter l’insomnie » a déjà provoqué un décès, comme le rapporte l’Agence France Presse.

La cellule Canal Détox de l’Inserm, qui lutte contre les fausses informations en santé, analyse huit techniques populaires censées aider à mieux dormir.

1. Les applications et les oreillers connectés : plutôt faux

Certaines applications et objets connectés enregistrent l’heure du coucher et des réveils nocturnes. L’objectif ? Nous aider à identifier des facteurs susceptibles d’altérer la qualité de notre sommeil, comme le stress ou les écrans.

Mais ces outils restent peu fiables et ne permettent pas de diagnostic précis, comme le souligne l’European Sleep Research Society, la société savante européenne de recherche sur le sommeil. De plus, la collecte de données peut provoquer une orthosomnie, soit une obsession sur la qualité du sommeil qui génère du stress. [2]

2. Se scotcher la bouche : faux

C’est l’une des astuces sommeil les plus étonnantes des réseaux sociaux : à en croire ses adeptes, se scotcher la bouche aide à mieux respirer par le nez la nuit. De fait, la respiration nasale peut être gênée en cas d’allergies, de rhume ou d’apnée du sommeil.

Mais se scotcher la bouche n’est pas un remède miracle pour retrouver un sommeil apaisé.[3]Une étude pilote suggère un possible effet contre l’apnée du sommeil mais, avec seulement 20 participants, les preuves scientifiques sont loin d’être suffisantes. [4] De plus, certains médecins mettent en gardent contre les risques de gêne respiratoire et d’irritations cutanées. [5]

3. La mélatonine : faux pour les compléments en vente libre, vrai pour les traitements sur ordonnance

Bonbons, pastilles, comprimés… En parapharmacie ou sur Internet, de nombreux produits prétendent améliorer notre sommeil grâce à mélatonine, une hormone naturellement produite par la glande pinéale dans le cerveau et et libérée surtout la nuit pour signaler au corps qu’il est temps de dormir et aider à maintenir le sommeil.[6]

Mais la composition de ces produits varie beaucoup d’une marque à l’autre, ce qui rend leur efficacité très incertaine. De plus, en raison de possibles effets indésirables (vertiges, somnolence, migraines), l’Anses déconseille les compléments à la mélatonine aux personnes dites « à risques » : les femmes enceintes, les enfants et adolescents…[7]

À l’inverse, les traitements à la mélatonine sont utiles lorsqu’ils sont prescrits par un médecin dans certains cas précis: lors d’un décalage horaire ; aux ados dont le rythme est décalé à force de se coucher tard ; aux plus de 55 ans qui souffrent d’insomnie sans cause médicale ou psychiatrique identifiée ; aux enfants atteints de troubles du spectre autistique ou de TDAH… [8]

4. La lumière rouge : faux, contrairement à la lumière blanche

Contrairement à la luminothérapie, qui utilise une lumière artificielle blanche pour « remettre l’horloge interne à l’heure », la lumière rouge n’a pas d’effet solidement prouvé sur la qualité de notre sommeil.

Elle n’influence que peu la production de mélatonine, et les rares études suggérant de légers effets sur l’horloge biologique ont des effectifs très faibles et des résultats variables. [9],[10] Elle peut être perçue comme relaxante, mais n’est pas un traitement reconnu contre les troubles du sommeil.

5. Le sport : vrai, mais pas juste avant de se coucher 

Pompes, exercices cardio… Sur YouTube ou Instagram, certains coachs promettent de perdre du poids et mieux dormir en s’entraînant la nuit, mais c’est loin d’être conseillé !

Certes, le sport aide à réguler la température corporelle, l’horloge biologique et l’humeur… autant de facteurs qui aident à mieux dormir. [11],[12]

En revanche, les activités sportives sont déconseillées dans les quatre heures précédant le coucher, au risque d’altérer la qualité du sommeil, selon une récente étude menée auprès de près de 15 000 participants. [13]

6. Les plantes dites « médicinales » : en tisane, ça ne fait pas de mal

Certaines études suggèrent que la valériane[14], le safran[15] et la violette odorante[16], pourraient améliorer le sommeil. Mais les recherches sont souvent de faible qualité, avec peu de participants. C’est pourquoi aucune plante dite « médicinale » ne peut être considérée comme un vrai remède contre l’insomnie. En revanche, boire une tisane peut faire partie d’une routine apaisante qui aide à déconnecter.[17]

7. Écouter des musiques relaxantes : oui, mais pas trop fort

Ecouter une musique douce aide à s’endormir plus facilement, selon certaines recherches, mais elles restent encore expérimentales… Et attention à ne pas mettre le son trop fort pour ne pas sursolliciter le cerveau ! [18],[19]

8. La méditation de pleine conscience : prometteuse, mais son efficacité reste à confirmer

Observer ses émotions avec attention et bienveillance, mettre à distance ses pensées négatives…. La méditation de pleine conscience pourrait avoir des effets positifs sur le sommeil, selon deux méta-analyses regroupant les résultats de plusieurs études. Mais davantage de recherches seront nécessaires pour recommander officiellement cette pratique. [20],[21]

Qu’est-ce qui est vraiment important pour mieux dormir ?

Adopter une bonne hygiène de sommeil est essentiel, comme le rappelle l’Institut national du sommeil et de la vigilance (INSV) : se coucher et se lever à heures fixes dans une chambre calme, sombre, avec une température agréable, éviter les plats trop gras le soir, le thé, le café et les écrans avant de se coucher, pratiquer une activité physique régulière, se coucher dès les premiers signes de sommeil ou encore sortir du lit quand on ne dort pas. [22]

Que faire en cas de troubles du sommeil persistants ?

En cas de troubles du sommeil entraînant stress, irritabilité ou somnolence, il est recommandé de consulter un médecin pour obtenir un diagnostic et un traitement adapté.

Parmi les principales options, la thérapie cognitivo-comportementale aide à adopter de bonnes habitudes de sommeil et à se relaxer. En complément, des médicaments sur ordonnance peuvent être utilisés temporairement : les somnifères (à arrêter dès que possible), ou encore les traitements à base de mélatonine (les compléments alimentaires en vente libre sont à proscrire).

Enfin, la luminothérapie doit sérieusement être considérée lorsque notre horloge interne est perturbée, par exemple, lorsqu’on travaille de nuit[23] ou en cas de troubles du sommeil liés à la dépression.[24],[25],[26]

Cet article a été écrit avec le soutien d’Armelle Rancillac, chercheuse en neurosciences à l’Inserm et au Collège de France, spécialiste du sommeil et coordinatrice nationale de la Semaine du Cerveau, et Claude Gronfier, directeur de recherche neurobiologiste à l’Inserm au sein du Centre de recherche en neurosciences de Lyon (CRNL) et président de la Société francophone de chronobiologie.

Sources

[1] Santé Publique France. Le temps de sommeil, la dette de sommeil, la restriction de sommeil et l’insomnie chronique des 18-75 ans : résultats du Baromètre de Santé publique France 2017

[2] World Sleep Society. World Sleep Society recommendations for the use of wearable consumer health trackers that monitor sleep

[3] Fangmeyer, S. K., Badger, C. D., & Thakkar, P. G. (2025). Nocturnal mouth-taping and social media: A scoping review of the evidence. American Journal of Otolaryngology, 46(1), Article 104545. https://doi.org/10.1016/j.amjoto.2024.104545

[4] Lee YC, Lu CT, Cheng WN, Li HY. The Impact of Mouth-Taping in Mouth-Breathers with Mild Obstructive Sleep Apnea: A Preliminary Study. Healthcare (Basel). 2022 Sep 13;10(9):1755. doi: 10.3390/healthcare10091755. PMID: 36141367; PMCID: PMC9498537.

[5] Harvard Health Publishing. Can mouth taping help my snoring ?

[6] Inserm. Des compléments alimentaires à base de mélatonine contre les troubles du sommeil, vraiment ?

[7] Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, L’Anses recommande à certaines populations d’éviter la consommation de compléments alimentaires contenant de la mélatonine

[8] Société française de recherche et médecine du sommeil. Mélatonine

[9] Ho Mien I, Chua EC et al. Effects of exposure to intermittent versus continuous red light on human circadian rhythms, melatonin suppression, and pupillary constriction. PLoS One, 2014 May 5;9(5):e96532. doi: 10.1371/journal.pone.0096532. PMID: 24797245; PMCID: PMC4010506.

[10] Sanchez-Cano A, Luesma-Bartolomé MJ et al. Comparative Effects of Red and Blue LED Light on Melatonin Levels During Three-Hour Exposure in Healthy Adults. Life (Basel). 2025 Apr 28;15(5):715.
doi: 10.3390/life15050715. PMID: 40430143; PMCID: PMC12113466.

[11] Amiri, S., Hasani, J., & Satkin, M. (2021). Effect of exercise training on improving sleep disturbances: A systematic review and meta-analysis of randomized controlled trials. Sleep Medicine, 84, 205–218. https://doi.org/10.1016/j.sleep.2021.05.013

[12]Banno M, Harada Y, Taniguchi M, Tobita R, Tsujimoto H, Tsujimoto Y, Kataoka Y, Noda A. 2018. Exercise can improve sleep quality: a systematic review and meta-analysis. PeerJ 6:e5172 https://doi.org/10.7717/peerj.5172

[13] Leota, J., Presby, D.M., Le, F. et al. Dose-response relationship between evening exercise and sleepNat Commun 16, 3297 (2025). https://doi.org/10.1038/s41467-025-58271-x

[14] Shinjyo N, Waddell G, Green J. Valerian Root in Treating Sleep Problems and Associated Disorders—A Systematic Review and Meta-Analysis. Journal of Evidence-Based Integrative Medicine. 2020;25. doi:10.1177/2515690X20967323

[15] Riemann, D., Espie, C. A., Altena, E., Arnardottir, E. S., Baglioni, C., Bassetti, C. L. A., Bastien, C., Berzina, N., Bjorvatn, B., Dikeos, D., Dolenc Groselj, L., Ellis, J. G., Garcia-Borreguero, D., Geoffroy, P. A., Gjerstad, M., Gonçalves, M., Hertenstein, E., Hoedlmoser, K., Hion, T., … Spiegelhalder, K. (2023). The European Insomnia Guideline: An update on the diagnosis and treatment of insomnia 2023. Journal of Sleep Research, 32(6), e14035. https://doi.org/10.1111/jsr.14035

[16] Huang, S., Huang, Q., Zhou, Z., Zhang, J., Zhan, Y., & Liang, Z. (2022). The efficacy of V. odorata extract in the treatment of insomnia: A systematic review and meta-analysis. Frontiers in Neurology, 13, Article 730311. https://doi.org/10.3389/fneur.2022.730311

[17] Institut national du sommeil et de la vigilance (INSV). Carnet nutrition et sommeil

[18] Chen C-TTung H-HFang C-J, et al. Effect of music therapy on improving sleep quality in older adults: A systematic review and meta-analysisJ Am Geriatr Soc20216919251932https://doi.org/10.1111/jgs.17149

[19] Feng, F., Zhang, Y., Hou, J., Cai, J., Jiang, Q., Li, X., Zhao, Q., & Li, B.-A. (2018). Can music improve sleep quality in adults with primary insomnia? A systematic review and network meta-analysis. International Journal of Nursing Studies, 77, 189–196. https://doi.org/10.1016/j.ijnurstu.2017.10.011

[20] Chen, T.-L., Chang, S.-C., Hsieh, H.-F., Huang, C.-Y., Chuang, J.-H., & Wang, H.-H. (2020). Effects of mindfulness-based stress reduction on sleep quality and mental health for insomnia patients: A meta-analysis. Journal of Psychosomatic Research, 135, 110144. https://doi.org/10.1016/j.jpsychores.2020.110144

[21] Wang, Y. Y., Wang, F., Zheng, W., Zhang, L., Ng, C. H., Ungvari, G. S., & Xiang, Y. T. (2018). Mindfulness-Based Interventions for Insomnia: A Meta-Analysis of Randomized Controlled Trials. Behavioral Sleep Medicine18(1), 1–9. https://doi.org/10.1080/15402002.2018.1518228

[22] Institut national du sommeil et de la vigilance (INSV). 10 recommandations de nos médecins pour bien dormir

[23] Gooley JJ. Treatment of circadian rhythm sleep disorders with light. Ann Acad Med Singap. 2008 Aug;37(8):669-76. PMID: 18797560.

[24] Menegaz de Almeida A, Aquino de Moraes FC, Cavalcanti Souza ME, et al. Bright Light Therapy for Nonseasonal Depressive Disorders: A Systematic Review and Meta-Analysis. JAMA Psychiatry. 2025;82(1):38–46. doi:10.1001/jamapsychiatry.2024.2871

[25] Geoffroy PA, Schroder CM, Reynaud E, Bourgin P. Efficacy of light therapy versus antidepressant drugs, and of the combination versus monotherapy, in major depressive episodes: A systematic review and meta-analysis. Sleep Med Rev. 2019 Dec;48:101213. doi: 10.1016/j.smrv.2019.101213. Epub 2019 Sep 18. PMID: 31600678.

[26] Geoffroy, P. A., Palagini, L., Henriksen, T. E. G., Bourgin, P., Garbazza, C., Gronfier, C., … Sit, D. K. (2025). Light therapy for bipolar disorders: Clinical recommendations from the international society for bipolar disorders (ISBD) Chronobiology and Chronotherapy Task Force. Dialogues in Clinical Neuroscience27(1), 249–264. https://doi.org/10.1080/19585969.2025.2533806

Des applications smartphones pour se protéger des moustiques, vraiment ?

moustique

© Fotalia

Les maladies à transmission vectorielle, c’est-à-dire des maladies humaines provoquées par des parasites, des virus ou des bactéries transmis par des vecteurs arthropodes, sont responsables de plus de 17% des maladies infectieuses dans le monde, et provoquent plus d’un million de décès chaque année. Les moustiques constituent de loin le principal vecteur de ces maladies, parmi lesquelles on peut citer le paludisme, le chikungunya, le virus Zika ou la fièvre jaune.

Ces maladies sont-elles en augmentation à travers le monde, et notamment en France, comme les gros titres de l’actualité semblent le suggérer ? Comment s’en protéger, quelles stratégies ont fait leur preuve contre les piqûres de moustiques ? Suffit-il simplement de mettre du répulsif anti-moustiques ou bien de télécharger une application sur son smartphone pour repousser ces insectes ? Canal Détox se penche sur ces questions.

 

Un plus grand nombre de cas, plus dispersés

Récemment, c’est plutôt le virus du Nil occidental[1] qui a fait la une de l’actualité, se propageant dans le sud de la France, avec l’apparition d’un cas autochtone[2] pour la première fois dans le territoire de la Nouvelle-Aquitaine. La région s’était déjà illustrée l’an dernier avec un premier cas autochtone du virus Usutu, un virus à ARN considéré comme émergent.

De manière générale, les maladies transmises par les moustiques sont en hausse en Europe et en France depuis plusieurs années, avec une accélération très nette en 2022. En effet, cette année-là, il y a eu 66 cas autochtones de dengue en France métropolitaine, soit le double du nombre de cas cumulés sur les quinze années précédentes. Alors que la dengue est la maladie virale transmise par les moustiques la plus répandue dans le monde, la reprise du trafic aérien et les flux de voyageurs ont aussi favorisé l’augmentation du nombre de cas importés (272 cas au total).

Par ailleurs, les cas de dengue sont aujourd’hui beaucoup plus dispersés géographiquement, ils ne sont plus uniquement circonscrits au pourtour méditerranéen. Notons que la population de moustiques tigres, responsable de la transmission de la dengue mais aussi du virus Zika et du Chikungunya a été identifiée dans 71 départements ce qui représente un plus grand risque de la diffusion de ces maladies sur tout le territoire.

Nous sommes donc dans une situation où le nombre de cas de maladies à transmission vectorielle est de plus en plus important, avec un risque de propagation à des régions où les moustiques n’étaient traditionnellement pas présents. Le réchauffement climatique serait un facteur aggravant à la fois parce qu’un climat chaud est propice au développement des moustiques et parce que des températures élevées favorisent la multiplication des virus au sein des moustiques.

 

Traitements et prévention : quelles stratégies ?

Si des traitements existent pour certaines maladies transmises par les moustiques, l’arsenal thérapeutique demeure encore limité dans la plupart des cas. Ainsi par exemple, le seul vaccin contre le virus du Nil occidental disponible est à destination des chevaux mais pas de l’humain, tandis que pour la dengue, le degré d’efficacité de la vaccination varie d’une personne à l’autre.

La prévention des piqûres est dans ce contexte une stratégie incontournable pour réduire la transmission et l’impact de ces maladies. Elle passe notamment par l’utilisation de protections individuelles, dont l’usage de vêtements amples couvrants et de moustiquaires traitées avec des insecticides dans les zones endémiques, mais aussi de répulsifs anti-moustiques.

Par exemple, depuis 2005, plus de 2 milliards de moustiquaires imprégnées d’insecticide ont été distribuées dans le monde pour prévenir le paludisme. Toutes ces moustiquaires ont été traitées avec une seule classe d’insecticide : les pyréthrinoïdes. En 2015, une modélisation publiée dans Nature a souligné que ces moustiquaires ont été à l’origine de la plupart des reculs des cas de paludisme observés entre 2005 et 2015, en particulier dans les zones de transmission modérée à élevée. Toutefois, depuis 10 ans, cette progression a nettement ralenti. Cela s’explique notamment parce que les moustiques sont désormais résistants aux pyréthrinoïdes dans de nombreuses régions, ce qui implique l’utilisation de moustiquaires traitées avec d’autres ingrédients actifs. Dans le même temps, la liste des insecticides autorisés s’est réduite, des données scientifiques ayant montré l’impact délétère de certains produits sur l’environnement.

Un autre axe très important de la prévention consiste à lutter contre les lieux de ponte des moustiques, en particulier à agir pour limiter le nombre de points d’eau stagnante, qui sont propices au développement et à la diffusion de moustiques dans le périmètre proche (les moustiques n’étant pas capables de voler plus d’une centaine de mètres).

De nombreux répulsifs olfactifs sont également disponibles sur le marché, notamment des produits à appliquer sur la peau (sprays, crèmes…) ou à diffuser dans l’environnement immédiat (bougies, prises électriques…). Si ces produits ont montré leur efficacité pour réduire les piqûres de moustiques, il s’agit tout de même de produits chimiques qu’il convient de ne pas utiliser en trop grande quantité. Par ailleurs, ils n’ont pas le même degré d’efficacité pour tout le monde (voir encadré à la suite de l’article), et la protection qu’ils confèrent est limitée dans le temps.

Face à cela, la recherche sur de nouveaux répulsifs est en plein essor, mais certaines dérives sont observées. L’une des plus notables, actuellement, est la popularité grandissante d’applications smartphones à télécharger, qui diffuseraient des ondes à basse fréquence pour repousser les moustiques. Cette idée de combattre les moustiques par le son et les ondes n’est pas nouvelle, et basée sur un argument simple : ces dispositifs seraient efficaces parce qu’ils imiteraient les ondes sonores produites par les battements d’ailes des moustiques mâles ou des libellules. Or les moustiques femelles qui piquent les humains, seraient repoussées par ce son, dans le premier cas parce qu’elles ne s’accouplent qu’une seule fois dans leur vie, dans le second parce que la libellule est leur prédateur.

Cependant, les données scientifiques ne sont actuellement ni assez nombreuses ni assez solides pour confirmer une quelconque efficacité de ce type de répulsif, d’autant que les ondes qui pourraient éventuellement être entendues par les moustiques femelles sont trop puissantes pour être reproduites par un smartphone.

Déjà en 2010, une revue de littérature sur dix études solides, publiée par l’organisation Cochrane, soulignait une absence de preuves concernant l’utilité de répulsifs anti-moustiques fondés sur les ondes, et allait même jusqu’à juger inutile la poursuite de recherches sur le sujet. Depuis, aucune étude n’est venue contredire ces conclusions avec des données plus robustes, mais ces applications – qui ont rarement été testées et validées en laboratoire -continuent à être téléchargées régulièrement.

Les experts déconseillent donc leur utilisation, au mieux parce qu’elles n’ont pas d’utilité, au pire parce qu’elles peuvent procurer un faux sentiment de protection, qui conduit les utilisateurs à négliger d’autres approches pour se protéger des piqûres.

 

Qu’est-ce qui attire les moustiques ?

Nous ne sommes pas tous égaux face aux piqûres de moustiques ! Parce qu’il existe de nombreuses espèces différentes, que certains climats sont plus propices que d’autres à leur prolifération… Mais aussi et surtout car nous pouvons leur sembler plus ou moins attirants. Sur ce dernier point, de nombreuses études scientifiques renseignent justement sur la susceptibilité individuelle aux piqûres.

Parmi les éléments « attractifs » documentés, on retrouve l’odeur : l’olfaction étant le principal sens par lequel les moustiques localisent leurs hôtes cibles. Les insectes seraient sensibles à divers composés organiques volatils présents sur la peau de l’humain, et dans sa transpiration (ex. ammonium, acide lactique…), ainsi qu’au CO2 qu’il rejette en respirant… Et comme nous sommes tous différents, l’intensité de la libération de ces composés « attractifs » varie selon les individus, ce qui explique que certains ont de plus grandes chances d’être piqués ! Les facteurs génétiques impliqués sont par ailleurs bien documentés par la littérature, d’autant qu’il est établi que la signature olfactive humaine propre à chacun est partiellement déterminée par des facteurs génétiques, notamment les allèles de l’antigène leucocytaire humain (HLA).

En outre, le régime alimentaire peut faire changer l’odeur corporelle : des scientifiques ont ainsi étudié les effets de la consommation de certains aliments sur l’attirance des moustiques. Contrairement à ce qu’on peut lire sur internet, rien ne prouve que l’ail et la vitamine B n’éloignent les moustiques ; alors que la consommation de bananes ou de bière pourrait augmenter cette attraction.

Par ailleurs les femmes enceintes libéreraient plus encore de composés attractifs que les autres individus. Il en serait de même pour les personnes atteintes de paludisme et porteuses du Plasmodium, qui peuvent donc, en se faisant piquer à nouveau, être à l’origine de la transmission de la maladie.

Toutes ces observations indiquent, qu’en plus de varier d’un individu à l’autre, l’attractivité humaine peut être modifiée en fonction des changements physiologiques et métaboliques observés chez un individu particulier…

Au-delà de cette susceptibilité individuelle, sur laquelle on ne peut malheureusement pas toujours agir, les scientifiques ont récemment découvert que certaines couleurs chaudes apparentées à celles de la peau humaine, comme le rouge, le noir et l’orange, sont perçues comme plus attirantes par les insectes. Se vêtir de bleu, de vert ou de violet pourrait donc permettre de passer un peu plus inaperçu.

 

Texte rédigé avec le soutien de Yannick Simonin, chercheur au sein de l’unité Inserm Pathogenèse et contrôle des infections chroniques et émergentes (unité 1058 Inserm/Université de Montpellier/EFS)

[1] Maladie virale transmise par les moustiques du genre Culex qui se contaminent exclusivement au contact d’oiseaux infectés. Les oiseaux sont les réservoirs du virus.

[2] On parle de cas autochtone quand une personne a contracté la maladie sur le territoire national et n’a pas voyagé en zone contaminée dans les 15 jours précédant l’apparition des symptômes.

ChatGPT : l’IA prête à remplacer les chercheurs et les médecins, vraiment ?

chat GPT

© Photo de BoliviaInteligente sur Unsplash

 

Depuis quelques mois, ChatGPT est au cœur de l’actualité. Ce prototype d’agent conversationnel s’appuyant sur l’intelligence artificielle (IA) a été développé par la firme californienne OpenAI à partir des modèles de traitement du langage les plus avancés. Au-delà de ses capacités conversationnelles, ChatGPT est capable de générer des textes de manière autonome pour apporter des réponses aux questions des utilisateurs.

Des performances qui soulèvent déjà leur lot de questionnements et de préoccupations : des universités craignant la fraude aux examens l’ont interdit, des chercheurs l’ont testé pour écrire un article scientifique… En creux, la médiatisation de ChatGPT pose la question plus vaste de la place de l’IA dans nos vies, et de la valeur ajoutée qu’elle pourrait ou non avoir dans certains domaines, notamment dans le champ scientifique. La question éthique a, de ce fait, de plus en plus d’importance : comment s’assurer de la véracité des informations relayées par un tel outil ? Dans le domaine clinique, un diagnostic posé par une IA est-il réellement fiable ? Certaines professions sont-elles amenées à disparaître, remplacées par des systèmes d’IA plus performants ?

Canal Détox se penche sur le sujet, en s’intéressant spécifiquement aux implications de l’IA en pratique clinique et dans la recherche biomédicale.

 

Des promesses déçues en médecine

Dans les sciences biomédicales, l’IA est depuis plusieurs années considérée comme une méthode prometteuse, pouvant potentiellement bénéficier au patient. Parmi les innovations attendues : l’optimisation de la prise en charge du patient, l’amélioration du diagnostic des maladies, la prédiction de l’état de santé futur du patient et la personnalisation de son suivi. En radiologie et en oncologie par exemple, des financements massifs ont déjà été alloués à des équipes de recherche travaillant sur le sujet.

Cependant, la réalité du terrain est plus nuancée. De nombreux systèmes d’IA développés ces dernières années se sont en fait avérés plutôt décevants. Parmi les exemples les plus connus, on peut citer celui de l’IA IBM Watson Health. Ce système a été conçu pour guider la pratique des médecins, afin de les aider à améliorer les soins et de proposer les traitements les plus adaptés aux patients, notamment en oncologie. Toutefois, pour développer et entraîner l’IA, des données jugées de mauvaises qualités ainsi que des populations non représentatives auraient été sélectionnées, et une méthodologie inadéquate aurait été utilisée. Les modèles finaux présentaient des performances faibles susceptibles d’entraîner des erreurs médicales si les professionnels de santé avaient suivi les recommandations de l’IA à la lettre.

D’autres études ont montré que l’intelligence artificielle pouvait être utilisée en clinique pour prédire le risque de maladie cardiovasculaire ou encore le devenir de patients atteints de certains cancers. Cependant, la fiabilité des résultats variait grandement en fonction de la qualité des données utilisées pour alimenter les systèmes d’IA.

Ces cas illustrent un paradoxe que de nombreux chercheurs tentent de mettre en avant depuis plusieurs années. En théorie, l’IA est censée être plus efficace pour développer un modèle diagnostique ou pronostique, par rapport aux méthodes traditionnellement utilisées en médecine, car elle est capable d’intégrer une plus grande quantité de données et de paramètres. Néanmoins, dans les faits, elle ne fait pas toujours mieux (voir encadré).

Par conséquent, on constate aujourd’hui un contraste inquiétant entre les promesses de l’IA, et l’absence d’applications et de démonstrations rigoureuses de sa pertinence clinique. Des travaux ont récemment montré que la majorité des études utilisant l’IA ont de nombreuses limites. Les systèmes d’IA sur lesquelles elles s’appuient sont en effet généralement entraînés à partir de données issues de populations de patients de faible qualité, avec des protocoles inadaptés et des échantillons trop petits et/ou peu représentatifs. Ces systèmes sont par ailleurs rarement validés de façon indépendante, ce qui limite la possibilité de les implémenter et de généraliser leur usage au niveau mondial.

En outre, une prise en charge adaptée et réellement personnalisée repose aussi en partie sur la relation qu’entretient le médecin avec son patient, sur sa capacité à intégrer des éléments de contexte socio-culturels, à décrypter les états émotionnels de la personne en face de lui… Autant d’éléments que l’IA est encore bien loin de pouvoir intégrer.

Ces faiblesses méthodologiques posent des questions quant à la fiabilité de l’IA et à son implémentation concrète dans les systèmes de santé – et sur les risques liés à son utilisation dans la prise en charge des patients.

 

L’exemple de la transplantation rénale pour comparer IA et méthodes traditionnelles

En cas d’insuffisance rénale, la greffe de rein est le meilleur traitement possible en matière d’espérance de vie, de qualité de vie et de coût sociétal. L’échec de greffe après transplantation est donc particulièrement redouté. Néanmoins, prédire en avance le risque d’échec de la greffe, afin d’adapter le suivi et le traitement du patient, est une tâche difficile, car une multitude de paramètres entrent en jeu.

Si l’IA a récemment été mise en avant comme un outil pronostic permettant de prédire le risque d’échec d’une greffe rénale, peu d’études ont été dédiées, avant aujourd’hui, à la comparaison des performances de l’IA à celles de méthodes statistiques traditionnelles.

Dans une étude publiée en janvier 2023, des scientifiques de l’Inserm, de l’AP-HP et d’Université Paris Cité ont cherché à confronter l’IA aux modèles statistiques traditionnels de prédiction. En utilisant des données structurées et validées, émanant de cohortes internationales de patients, les chercheurs ont développé des modèles de prédiction fondés sur l’IA et des modèles s’appuyant sur des méthodes statistiques traditionnelles. Ils ont ensuite comparé leurs performances respectives dans la prédiction du risque d’échec de la greffe rénale.

Les résultats, publiés dans la revue Kidney International sont sans équivoque : quel que soit le type d’algorithme utilisé, l’IA obtient des performances de prédiction du risque d’échec de la greffe rénale comparables aux modèles statistiques traditionnels.

 

Écrire des articles scientifiques grâce à l’IA ?

Si l’on revient au cas de ChatGPT, il est clair que cette IA n’a été pensée ni pour accompagner la pratique des chercheurs ou des médecins, ni pour proposer des diagnostics. Néanmoins, il est en théorie possible pour n’importe quel utilisateur de soumettre à l’IA les inquiétudes qu’il pourrait avoir concernant sa santé – avec le risque d’obtenir des conseils erronés qui mettraient sa santé en danger.

Par ailleurs, si on quitte la pratique clinique pour s’intéresser aux implications dans la recherche pharmacologique, il est intéressant de s’arrêter sur une étude menée par des chercheurs espagnols, qui a fait l’objet de vives discussions. Ces derniers ont fait rédiger à ChatGPT un article scientifique complet sur le rôle des IA dans la découverte des médicaments. Une prouesse qui devrait inquiéter la communauté scientifique ? Pas tant que cela si l’on en croit l’expérience des chercheurs : en effet, ceux-ci ont dû largement retravailler et corriger l’article, ChatGPT n’ayant pas été capable, entre autres, de donner des références scientifiques correctes. Autre point d’importance, l’IA n’est entraînée qu’avec des données allant jusqu’à 2021 : elle ne dispose donc pas des informations les plus récentes.

Plus inquiétant en revanche, des chercheurs américains ont demandé à l’IA de rédiger de toutes pièces 50 résumés de recherche médicale à partir d’une sélection de résumés déjà publiés dans des revues scientifiques prestigieuses. Les chercheurs ont ensuite comparé les résumés produits par l’IA aux résumés originaux, en les soumettant à un détecteur de plagiat et à un détecteur de contenus d’IA. Ils ont aussi demandé à un groupe de chercheurs de repérer parmi les résumés ceux qui étaient authentiques et ceux qui avaient été générés de façon automatique.

Résultat : aucun plagiat n’a été détecté. De plus, si le détecteur d’IA n’a repéré que 66 % des résumés générés, les chercheurs n’ont pas fait beaucoup mieux en n’identifiant correctement que 68 % des résumés générés. Un constat qui soulève une interrogation pour le futur : si des résumés scientifiques peuvent facilement être générés par n’importe qui grâce à l’IA et si les experts ne parviennent pas toujours à les identifier, comment les chercheurs pourront-ils toujours s’assurer que les résultats scientifiques sur lesquels ils fondent leurs réflexions ne sont pas inventés ?

Plus largement, que ce soit pour développer un modèle de prédiction diagnostique ou pour rédiger un texte scientifique en s’appuyant sur ChatGPT, la question de la crédibilité, de la rigueur scientifique et de la véracité des informations relayées par l’IA est cruciale. Ce phénomène est en outre exacerbé par le manque de transparence quant au développement des modèles fondés sur l’IA qui ne connaissent du monde que l’information parfois biaisée et incomplète qu’on leur donne.

 

Et pour l’avenir ?

Ni les médecins ni les chercheurs ne seront remplacés par l’IA de sitôt. En effet, les limites méthodologiques de ces systèmes sont importantes, et leurs performances doivent encore être améliorées. À l’heure actuelle, rien ne vaut les interactions humaines pour proposer une prise en charge adaptée, fondée sur les particularités de chaque patient et l’expertise des médecins pour valider un diagnostic.

Il est toutefois nécessaire de réfléchir dès maintenant aux nombreuses problématiques méthodologiques et éthiques que l’IA soulève, et à la manière dont ces outils peuvent non pas remplacer les scientifiques et les médecins, mais au contraire représenter une valeur ajoutée quant à l’optimisation du suivi du patient et à l’amélioration des prises de décisions cliniques.

 

Texte rédigé avec le soutien de Alexandre Loupy, Marc Raynaud et Agathe Truchot au sein du Centre de recherche cardiovasculaire de Paris (Parcc) (unité 970 Inserm/Université de Paris ), équipe Paris Transplant Group 

Des applications pour contrôler la fertilité, vraiment ?

femme avec smartphone

© Photo Yura Fresh/ Unsplash

Alors qu’un nombre croissant de femmes à travers le monde se détournent de la contraception hormonale, plusieurs centaines de millions d’entre-elles ont recours chaque jour à des applications permettant de suivre leurs cycles menstruels et de contrôler leur fertilité. Développées pour la plupart aux États-Unis et dans certains pays d’Europe, ces applications recueillent des informations intimes collectées auprès des usagères – notamment concernant la date des dernières règles, les symptômes liés au cycle, l’état de santé général, les humeurs, la libido, l’usage de préservatifs lors des rapports sexuels…

La plupart des applications de suivi menstruel sont gratuites. D’autres donnent également la possibilité, via des options payantes, d’affiner les prédictions et d’obtenir des conseils personnalisés.

Quelles sont les données scientifiques disponibles pour évaluer l’efficacité de ces applications ? Leur fiabilité pour garantir une contraception naturelle aux femmes est-elle avérée ? Et enfin, la protection des données personnelles est-elle assurée pour préserver le droit à la vie privée des usagères ? Canal Détox fait le point.

 

Un contexte propice à l’essor des applications

Le rejet des modes de contraception médicaux conventionnels (pilule, DIU, patch…) et notamment des contraceptifs hormonaux est une tendance qui s’accentue déjà depuis une quinzaine d’années, suite notamment à la commercialisation des pilules de 3e et 4e générations qui s’était accompagnée d’une augmentation des cas de thromboses veineuses. De manière plus générale, afin de se réapproprier leurs corps et d’éviter les effets secondaires liés à la prise d’hormones, de nombreuses femmes ne veulent plus avoir recours à la pilule. Elles souhaitent adopter des modes de contraception plus « naturels », et les applications de suivi du cycle menstruel répondent à ce besoin.

La popularité grandissante de ces applications soulève plusieurs questions éthiques en ce qui concerne la protection des données personnelles des usagères et aussi les défauts de fiabilité de prédiction des applications pour le contrôle de la fertilité.

Aux États-Unis, les craintes relatives à la protection de la vie privée et des données personnelles sont exacerbées dans le contexte du renversement historique de l’arrêt Roe vs. Wade qui ouvre la voie à la criminalisation de l’avortement dans de nombreux États. En effet, certains observateurs ont alerté sur le risque que les données numériques renseignées dans ces applications de suivi menstruel soient utilisées par la justice pour identifier des femmes ayant ou souhaitant avorter.

 

Efficacité des applications : encore des limites 

Des publications scientifiques récentes ont permis d’y voir plus clair quant à l’efficacité des applications pour aider les femmes à contrôler leur fertilité et à éviter une grossesse non désirée.

Plus de la moitié de ces applications s’appuient sur des paramètres peu fiables pour prédire la période de fertilité et la date d’ovulation. En effet, comme l’ont montré des études rigoureuses et des revues de littérature, elles se fondent sur la méthode du calendrier des règles, en fait une « méthode Ogino »[1] version numérique. Or, celle-ci connait des limites significatives puisque des variations de durée de cycles de 7 jours et plus concernent la moitié de la population féminine. Même les femmes avec des cycles très réguliers ont des jours d’ovulation variables. Des données publiées suggèrent ainsi qu’en s’appuyant uniquement sur la méthode du calendrier, la plupart de ces applications font des erreurs de prédiction.

En revanche, il existe des paramètres plus fiables comme la température corporelle (+ 0,2/0,4 °C après l’ovulation), l’aspect de la glaire cervicale[2] ou la concentration urinaire de l’hormone lutéinisante (qui augmente juste avant l’ovulation). Or ils sont rarement pris en compte dans les algorithmes des applications.

Dans les faits, si certaines applications peuvent proposer un suivi fondé sur de nombreux paramètres et donc une efficacité théorique élevée, elles se heurtent aussi à l’utilisation qu’en font les femmes dans leur vie de tous les jours. En effet, beaucoup d’utilisatrices éprouvent des difficultés à suivre les consignes requises par les applications. Noter régulièrement les dates des règles, prendre sa température ou interpréter l’aspect de la glaire cervicale sont des procédures contraignantes, qui, si elles ne sont pas suivies à la lettre, vont rendre les algorithmes de prédiction inopérants.

Contraception naturelle et indice de Pearl

L’indice de Pearl est le nombre de femmes qui tombent enceintes malgré l’utilisation d’une contraception pendant une période d’un an.

L’une des applications les plus populaires, Natural Cycles, avait fait du bruit dans les médias en annonçant qu’elle avait un indice de Pearl de 8 (nombre de grossesses sur 100 malgré l’utilisation d’une contraception), comparable à celui de la pilule. Cependant, des études ont pointé du doigt des failles méthodologiques pour parvenir à ce résultat. Par ailleurs, la plupart des données disponibles sur la contraception naturelle et les applications de suivi de la fertilité indiquent que leur indice de Pearl se situe en moyenne autour de 24.

 

Des craintes avérées sur la protection des données

L’autre question éthique majeure associée à l’utilisation de ces applications – la protection des données personnelles – a fait l’objet de nombreux travaux, portés notamment par des ONG qui défendent la vie privée. Il ressort de ces investigations que la plupart des applications ne prennent pas suffisamment de mesures pour protéger les données personnelles des utilisatrices, les partageant notamment avec des sociétés tierces (dont Google et Amazon). Or, les femmes sont rarement informées sur le risque de voir leurs données sur leur vie sexuelle intime exploitées par des tiers à des fins commerciales ou autres.

Face à ces différents constats, vu le nombre croissant de femmes qui utilisent ces applications à travers le monde, le comité d’éthique de l’Inserm a publié un rapport en septembre 2022 (voir encadré) appelant à une vigilance éthique pour éclairer le choix des femmes dans les méthodes de contrôle des cycles et de la fertilité.

Pour plus d’informations à ce sujet : lire le rapport du comité d’éthique de l’Inserm « Enjeux éthiques de l’usage des applications numériques de suivi menstruel à des fins de contraception ou de conception »

 

Texte réalisé avec le soutien de Catherine Vidal, neurobiologiste, membre du comité d’éthique de l’Inserm, co-responsable du groupe Genre et recherches en santé. 

 

[1] La méthode Ogino consiste à s’abstenir de tout rapport sexuel pendant la période de fécondité de la femme.

[2] Les cellules qui tapissent le col de l’utérus sécrètent du mucus qu’on appelle la glaire cervicale, dont l’aspect change au cours du cycle. En période de fertilité, la consistance et la structure de la glaire permettent au sperme de passer pour aller féconder l’ovule.

Un cœur de porc pour tous, vraiment ?

Le premier patient au monde à avoir reçu une greffe de cœur d’un porc génétiquement modifié a survécu deux mois. David Bennett, 57 ans, atteint d’une insuffisance cardiaque au stade terminal et d’une arythmie, avait été opéré le 7 janvier 2022 à titre compassionnel alors qu’il n’existait plus d’autre solution thérapeutique alternative à lui proposer.

Dans le jargon scientifique, l’opération subie par ce patient américain s’appelle une xénogreffe (ou xénotransplantation). Il s’agit d’un acte chirurgical qui vise à transplanter à un patient un greffon sain (ici un organe entier, le cœur), provenant d’une espèce biologique différente de celle du receveur. Elle diffère ainsi de l’allogreffe (ou allotransplantation) dans laquelle le greffon provient de la même espèce que le receveur.

Face à une pénurie d’organes toujours plus importante, exacerbée notamment par la pandémie de Covid-19, les recherches portant sur la xénogreffe se sont multipliées. Le domaine peut en effet être considéré comme une alternative face au déséquilibre actuel existant entre un faible nombre d’organes disponibles et un grand nombre de patients en attente d’une transplantation.

Alors que cette première xénogreffe a fait l’objet de toutes les attentions médiatiques, suscitant parfois de faux espoirs, peut-on réellement considérer la xénotransplantation comme une avancée médicale majeure ? Quel avenir pour la xénogreffe ?

Canal Détox fait le point sur les limites et les réels progrès obtenus suite à cette xénogreffe.

L’aboutissement d’années de recherche

Le concept de xénogreffe n’est pas nouveau, de nombreuses tentatives cliniques de transfert de l’animal à l’Homme ont eu lieu depuis trois siècles.

C’est d’ailleurs ainsi qu’aurait débuté l’histoire de la transfusion sanguine : le premier patient transfusé, en 1667, l’aurait été avec du sang… d’agneau. Ou encore, la première xénotransplantation de cornée (du porc à l’Homme) aurait été réalisée chez un patient en 1838, bien avant la première allotransplantation de cornée en 1905.

Les premiers essais concrets de xénogreffes répertoriés et concernant des organes entiers ont débuté dans les années 1960. En 1964, six patients atteints d’insuffisance rénale terminale ont été greffés de reins de chimpanzés. L’un d’entre eux, une institutrice de 23 ans, a survécu neuf mois après la xénogreffe. La même année, un patient américain a été transplanté d’un cœur de chimpanzé. Il est décédé dans les deux heures ayant suivi l’acte chirurgical. Puis en 1984, toujours aux États-Unis, Stephanie Fae Beauclair, surnommée Baby Fae, a été greffée d’un cœur d’une jeune femelle babouin à l’âge de 15 jours. Elle est décédée 21 jours après l’opération[1].

La modification génétique au cœur des recherches sur la xénogreffe

Comme dans le cas d’une allogreffe, l’obstacle le plus important à la xénotransplantation est le rejet de l’organe greffé par une cascade de mécanismes immunitaires. On parle de rejet hyper aigu, de rejet aigu ou de rejet chronique (voir encadré ci-dessous).

La prise de médicaments immunosuppresseurs[2] permet de réduire ce risque mais ne l’élimine pas. Le succès de la greffe dépend de la capacité à trouver un équilibre entre une immunosuppression suffisante (pour garantir l’absence de rejet lié à l’introduction dans le corps d’un organe considéré comme étranger) et la préservation des défenses de l’organisme pour lui permettre de prévenir et de combattre des infections. Le rejet chronique (ou sur le long terme) du greffon reste une problématique majeure.

Depuis quelques années, les travaux de recherche autour de la xénogreffe se fondent de plus en plus sur une approche génétique pour surmonter les questions relatives au rejet immédiat du greffon (ou hyper aigu). C’est d’ailleurs grâce à cette approche génétique que les médecins américains ont pu faciliter l’adaptation du cœur de porc à l’organisme du patient. En effet, ils ont réussi à supprimer l’expression de certains antigènes à la surface des cellules porcines, qui étaient jusqu’alors reconnues comme étrangères par le corps humain, empêchant ainsi la destruction immédiate de l’organe animal par le système immunitaire du patient greffé.

Ces résultats, combinés aux récentes avancées dans le domaine de la thérapie immunosuppressive ainsi qu’à d’autres approches de modification immunologique, ont permis d’augmenter le champ des possibles pour parvenir à surmonter le rejet hyper aigu de la xénogreffe.

Les différents types de rejets d’une greffe

Le rejet hyper aigu survient dans les minutes qui suivent la transplantation. Il correspond à la congestion massive et brutale de tout l’organe transplanté et à un arrêt brutal et définitif de sa fonction. Ce rejet est aujourd’hui évité par l’examen préalable de la compatibilité tissulaire du donneur et du receveur (système HLA).

Le rejet aigu survient quelques jours après la greffe. Si l’immunité cellulaire est maîtrisée grâce à la prise d’immunosuppresseurs, l’immunité humorale médiée par les anticorps peut s’avérer problématique. Ces derniers reconnaissent les cellules du greffon et s’y fixent, déclenchant une cascade de réactions menant à leur destruction.

Le rejet chronique survient à plus long terme après la greffe. Au cours du temps, les greffons subissent des lésions et perdent progressivement leur fonctionnalité. Les mécanismes en cause, combinant réponse immunitaire, toxicité des médicaments immunosuppresseurs et d’autres phénomènes biologiques ou infectieux, font encore l’objet de recherches.

Pour plus d’informations à ce sujet, lire le dossier : https://www.inserm.fr/dossier/transplantation-organes-greffe/

Quel avenir pour la xénogreffe ?

Dans un avenir proche, et dans le but de faire avancer la recherche sur la xénogreffe, il est important pour les scientifiques d’identifier les mécanismes impliqués dans le décès de David Bennet. De premières hypothèses formulées par l’équipe médicale, indiquent que le décès pourrait être lié à la présence d’un virus porcin dans le cœur de l’animal. Ce virus, appelé cytomégalovirus porcin, n’aurait pas été détecté avant la transplantation, et il aurait contribué à endommager le greffon animal provoquant ainsi un syndrome inflammatoire généralisé. Si cette hypothèse venait à être confirmée il est possible qu’une xénotransplantation de cœur exempt de virus puisse techniquement durer plus longtemps. Il serait toutefois nécessaire de faire appliquer un contrôle plus rigoureux des greffons avent leur transplantation.

À plus long terme, considérer la xénogreffe comme une alternative à la transplantation conventionnelle soulève des interrogations sur les plans éthique et juridique liées à l’utilisation d’animaux comme donneurs. Selon une étude menée auprès d’une centaine de patients greffés ou en attente de greffes, 30 % des interrogés refuseraient catégoriquement l’idée d’une xénotransplantation, 25 % poseraient des conditions avant d’accepter l’éventuelle xénogreffe et 45 % accepteraient sans condition.

Une autre limite à prendre en compte : le risque de zoonoses, ou dans ce cas précis de « xénozoonoses », des maladies infectieuses transmises des animaux aux humains dans des circonstances naturelles.

[1] Dans chacun des cas énoncés, les instances de santé américaines ont pu concéder aux chercheurs et médecins l’autorisation de procéder à l’acte chirurgical à titre compassionnel, avec l’accord des patients, puisqu’il n’existait aucune autre piste thérapeutique envisageable.

[2] Traitements qui limitent l’action du système immunitaire utilisés pour les maladies auto-immunes ou en cas de greffe.

Texte écrit avec le soutien de :

Alexandre Loupy, professeur de néphrologie et d’épidémiologie à l’hôpital Necker-Enfants malades et directeur de l’équipe Recherche en transplantation d’organes au PARCC (unité Inserm 970).

Patrick Nataf, professeur à l’université Paris Cité et chef du service de chirurgie cardiaque à l’hôpital Bichat

Des implants miniatures dans le cerveau pour rétablir la motricité, vraiment ?

De récents travaux ont documenté la possibilité d’enregistrer l’activité électrique de milliers de neurones différents dans plusieurs régions du cerveau.  Ici, trajectoire de récepteurs diffusant dans la membrane et s’accumulant aux synapses.  Inserm/Delapierre, Patrick

Innovation miraculeuse ou nouveau coup de com’ : c’est la question qui agite la sphère médiatique depuis la présentation du nouvel implant cérébral de la compagnie Neuralink, dirigée par le milliardaire Elon Musk. Cet implant très fin, de la taille d’une pièce de monnaie, fonctionnerait grâce à la technologie Bluetooth et pourrait être placé dans le cerveau au cours d’une opération peu invasive grâce à un robot de pointe également développé par la compagnie.

Lors d’une conférence de presse en ligne début septembre 2020, Elon Musk a présenté cette nouvelle « interface cerveau-machine », qui été testée chez le porc. Décrite comme une avancée majeure, sa portée semble encore en fait assez réduite. Ainsi, la possibilité d’enregistrer l’activité des neurones grâce à un implant cérébral, comme cela a été fait chez l’un des animaux testés, n’est pas nouvelle. Elle a déjà été démontrée par de nombreux autres groupes de recherche. De tels travaux ont par exemple fait l’objet d’une publication récente dans le journal Science Advances, documentant la possibilité d’enregistrer l’activité électrique de milliers de neurones différents dans plusieurs régions du cerveau, dans des modèles animaux.

Par ailleurs, aucune interprétation de l’activité cérébrale enregistrée par l’implant de Neuralink n’a été proposée pendant la conférence. Or, le succès des interfaces cerveau-machine repose en grande partie sur la possibilité d’extraire du sens de ces enregistrements pour les transformer ensuite en « commande » par un ordinateur.

L’objectif des interfaces cerveau-machine

Les implants cérébraux sont développés pour assurer une liaison directe entre le cerveau et un ordinateur, afin que les individus puissent effectuer des tâches sans passer par l’action des nerfs périphériques et des muscles. L’objectif est de permettre à des personnes souffrant de certains handicaps moteurs, notamment de tétraplégie, de retrouver une certaine autonomie.

Concrètement, ces patients pourraient imaginer effectuer un mouvement, générant ainsi une activité cérébrale caractéristique et mesurable à l’aide ces implants. Ces signaux pourraient ensuite être transmis à un ordinateur afin de les analyser et de les transformer en commande pour une machine ayant une utilité pour le patient (par exemple une prothèse ou un exosquelette, mais également un implant rétinien ou encore un logiciel de voix artificielle…). De fait, Neuralink souhaite que son dispositif puisse aboutir à une solution durable pour les personnes souffrant de handicaps moteurs ou de maladies neurologiques.

Néanmoins, les données présentées par Elon Musk suggèrent que son équipe n’est guère plus avancée que d’autres groupes pour atteindre ce résultat, d’autant que l’affirmation que l’implant a pu être retiré en toute sûreté du cerveau de l’un des animaux n’est pas étayée. Si le milliardaire aimerait prochainement lancer des tests chez l’humain, la transposabilité de résultats obtenus chez le porc n’est pas non plus assurée.

L’annonce de Neuralink s’inscrit néanmoins dans un contexte de recherche très dynamique portant sur les interfaces cerveau-machine. De nombreux progrès ont été réalisés ces dernières années, grâce à des innovations développées et testées très rigoureusement et progressivement au cours de la dernière décennie et à des travaux sur un nombre restreint de patients pour prouver l’intérêt de certains dispositifs avant de les tester plus massivement.

En 2013, une équipe américaine à l’université de Pittsburgh a ainsi franchi une étape importante, en apportant une « preuve de concept » qu’un dispositif implanté à la surface du cerveau permettait de guider un bras robotisé. A la même période, un autre groupe aux Etats-Unis montrait l’intérêt des implants profond miniaturisés. Plus récemment, des implants de surface ont été utilisés pour commander un exosquelette chez deux patients tétraplégiques, sans leur permettre néanmoins de pouvoir remarcher.

Mieux intégrer les implants dans le cerveau

Au-delà de ces succès préliminaires, si les interfaces cerveau-machine restent encore éloignées de la clinique, c’est parce qu’une problématique importante persiste. Comment insérer sans risque ces implants dans un organe aussi fragile que le cerveau, tout en s’assurant de leur bon fonctionnement ?

Les laboratoires de recherche qui travaillent sur le sujet sont confrontés à la difficulté de faire pénétrer dans le cerveau des implants à très haute densité pour capter l’activité cérébrale dans toute sa complexité, et pour les y laisser à long terme sans provoquer de réaction inflammatoire ou de lésions. En promettant d’implanter son dispositif via une procédure chirurgicale peu invasive, grâce à un robot qu’elle aurait développé, Neuralink montre donc qu’elle a bien compris l’enjeu majeur actuel de la recherche : l’intégration des implants dans le cerveau et la biocompatibilité (la capacité pour ces implants à fonctionner dans le cerveau sans provoquer de réaction biologique délétère).

Schématiquement, deux stratégies d’intégration des implants cérébraux ont jusqu’ici été testées par différentes équipes à travers le monde. Les procédés les plus invasifs, qui reposent sur l’insertion d’implants dans le cortex, permettent d’enregistrer les signaux d’une population de neurones avec une très grande précision spatiale. Ils sont toutefois associés au risque de complications et à une perte de signal à long terme.

Quant aux procédures non invasives, s’appuyant sur des implants placés à la surface du crâne grâce à des électrodes (comme le dispositif développé dans le cadre du projet OpenVIBE de l’Inserm dès 2009) ou juste sous la boîte crânienne, ils ne permettent pas encore de mesurer avec précision l’activité cérébrale et de rendre compte de la complexité de l’architecture du cerveau.

Neuralink dit pouvoir éviter ces deux types d’écueils mais sans expliquer sa technique ni rendre public le fonctionnement de son robot. Or, pour que ces innovations aient réellement un impact pour les patients, la recherche ne peut pas se passer d’investigations solides au long cours, d’expérimentations en laboratoire pour évaluer la biocompatibilité ou d’évaluations par les pairs.

Enfin, la prudence quant à de possibles dérives éthiques doit continuer à guider la recherche sur les interfaces cerveau-machine, en tenant toujours compte de la complexité du cerveau, qui ne peut se résumer à une circuiterie électronique dopée par l’intelligence artificielle.  Des travaux récents ont apporté des pistes nouvelles pour utiliser les implants afin de réactiver la plasticité cérébrale. Intégrant mieux toute cette complexité, se passant de la « machine », cette approche pourrait avoir un impact clinique plus intéressant et plus significatif à long terme.

Texte rédigé avec le soutien de François Berger, Directeur du BrainTech Lab (Inserm U 1205)

Des ondes 5G responsables de la pandémie de Covid-19, vraiment?

Particulièrement répandue au Royaume-Uni et aux États-Unis, la théorie selon laquelle le virus SARS-CoV-2 serait transmis par les ondes de rayonnement de la 5G commence à émerger en France. Cette fausse information, qui a déjà poussé un petit nombre d’individus à détruire des antennes de téléphonie 5G outre-Manche, ne s’appuie sur aucun fondement scientifique.

Rappelons tout d’abord que les mécanismes de transmission du virus sont bien documentés : le virus se transmet d’une personne à une autre par voie aérienne via des gouttelettes respiratoires, par contacts directs avec des sécrétions ou liquides biologiques, ou encore par l’intermédiaire d’un objet contaminé. En aucun cas, les ondes de rayonnement de la 5G ne sont impliquées dans sa diffusion.

Autre argument relayé par ceux qui établissent un lien entre 5G et épidémie de Covid-19 : les ondes radiofréquences de la 5G pourraient affaiblir le système immunitaire, favorisant l’infection. La littérature scientifique ayant trait aux effets du rayonnement électromagnétique sur la santé est dense mais les résultats obtenus sont souvent contradictoires. À l’heure actuelle, le manque de reproductibilité de ces études, souvent limitées d’un point de vue méthodologique, ne permet pas de faire ressortir un effet quelconque de ces ondes sur l’organisme.

Il est clair néanmoins que les ondes auxquelles nous serions exposés une fois la 5G déployée ne sont pas suffisamment puissantes pour avoir un impact sur notre système immunitaire. L’énergie associée à ces ondes est trop faible pour créer des dommages cellulaires au niveau de l’organisme, et plus particulièrement, pour avoir un impact sur les cellules immunitaires.

Le seul risque avéré associé à ces ondes, appuyé par des données issues de la recherche, est un risque de réchauffement du corps. Certains avancent que c’est cet effet thermique qui pourrait conduire à un affaiblissement du système immunitaire. Cependant, si des études ont évoqué un tel effet, c’est uniquement dans le cadre d’une utilisation thérapeutique de ces ondes. Dans ce cas, les expositions sont beaucoup plus fortes en termes de puissance (10 à 15 fois supérieures aux normes limites) que les expositions auxquelles nous sommes soumis dans la vie quotidienne.

Il convient donc de prendre du recul par rapport à ces publications : dans le cadre des réglementations actuelles, nous sommes très loin d’être exposés à des niveaux de rayonnement électromagnétique pouvant provoquer d’éventuels effets thermiques sur l’organisme. Notre exposition à ces ondes n’a pas d’impact sur le système immunitaire et ne peut être mise en cause dans la diffusion de l’actuelle pandémie.

 

Texte réalisé avec Yves Le Dréan, chercheur à l’Institut de recherche en santé, environnement et travail (unité Inserm 1085, équipe Évaluation de l’impact des ondes électromagnétiques sur la santé humaine, Rennes).

Des portables redoutables, vraiment ?

Elles sont invisibles, personne ne les a jamais vues et pourtant tout le monde les redoute. Les ondes électromagnétiques, celles qui portent nos conversations téléphoniques et nos SMS, font peur. Que sait on aujourd’hui des ondes de téléphone portable ? Canal Détox coupe court aux fausses informations.

Les médecins de demain remplacés par des robots… Vraiment ?

Depuis plus de 50 ans, les robots font fantasmer l’humanité, en particulier dans le domaine de la santé, on les imagine au chevet des patients, assistant les médecins dans leurs tâches quotidiennes, ou encore faisant des diagnostics d’une rare précision, d’autant que l’intelligence artificielle est depuis quelques années omniprésente dans les médias. Mais les robots sont-ils vraiment intelligents ? Ne peuvent-ils pas se tromper comme tout le monde? Et doit-on se préparer à les voir envahir les hôpitaux ou même remplacer les médecins ?

Avec Canal Detox, l’Inserm coupe court aux fausses infos.

 

Avec la participation de Marie Christine Jaulent, directrice de recherche Inserm au laboratoire d’informatique médicale et ingénierie des connaissances pour la E-Santé.

Consultez notre dossier d’information https://bit.ly/InsermIA

Guérir d’un coup de ciseaux, vraiment ?

Depuis les années 2000, les chercheurs ont entre les mains la totalité du génome humain, et disposent d’une série d’outils efficaces pour supprimer ou remplacer les gènes de leur choix. Ces modifications du génome font beaucoup parler d’elles dans les médias, surtout depuis l’arrivée en 2012 d’une nouvelle famille de « ciseaux génétiques », efficaces et bon marché : les « Crispr ». Mais que peut-on réellement faire avec ces ciseaux ? Peuvent-ils nous aider à faire grossir nos muscles ou notre cerveau sur commande ? Et grâce à eux, peut-on espérer réparer n’importe quel gène malade ?

fermer