Pour être informé en temps réel de nos publications :


Loading

L'auteur

Marc GOZLAN

Je suis médecin de formation, journaliste par vocation. J’ai débuté ma carrière de journaliste médico-scientifique en agence de presse…  Lire la suite.

L’INTELLIGENCE ARTIFICIELLE DANS LA PRÉDICTION ET LA PRÉVENTION DU DIABÈTE

Illustration crée par Grok

SOMMAIRE

1er volet de notre série « Intelligence artificielle et diabète ».

En quoi l’intelligence artificielle (IA) peut-elle faire avancer la prise en charge du diabète et la lutte contre ses complications ? Quelles sont les avancées et les opportunités de l’IA dans cette maladie chronique, qu’il s’agisse de diabète de type 1 (DT1) ou de type 2 (DT2) ? Quels sont les défis présents et futurs dans ce domaine en expansion ?

Plusieurs publications récentes permettent de mieux appréhender l’apport de l’IA dans la prédiction et la prévention du diabète, dans son dépistage et le phénotypage (classification des nombreuses formes de diabète), mais aussi dans l’autogestion de la maladie, dans la prise en charge globale, ou encore dans la recherche des complications.

L’IA a le potentiel de refaçonner les soins du diabète, à en croire un collectif de médecins et chercheurs internationaux qui publie une synthèse de la littérature, très complète, consacrée à l’IA dans le diabète, dans The Lancet Diabetes & Endocrinology en août 2024.

L’intelligence artificielle, en particulier le machine learning (apprentissage automatique) et le deep learning (apprentissage profond), a attiré l’attention de la communauté médicale et scientifique du fait de sa capacité à analyser de grands volumes de données biomédicales issues de dossiers médicaux électroniques, de documents d’imagerie médicale, des résultats de tout type d’analyse biologique (en biochimie et génétique), de données personnelles (antécédents médicaux, informations socio-démographiques, comportementales) et environnementales.

Des algorithmes pour obtenir des données de sortie à partir des données d’entrée

L’intelligence artificielle (IA) repose sur l’utilisation d’algorithmes aidant à la résolution de problèmes. Un algorithme consiste en une suite de calculs permettant d’obtenir un résultat (données de sortie) à partir de données d’entrée. Cet ensemble de calculs permet d’apprendre au système à exécuter des tâches habituellement dévolues aux humains.

Les algorithmes d’IA peuvent être entraînés en tenant compte de données cliniques, biologiques et physiologiques, socio-économiques, histopathologiques, génomiques.

Quel que soit l’algorithme, il est nécessaire de disposer d’une base d’apprentissage, c’est-à-dire d’une base de données (textes, images) associée à un diagnostic de certitude. Idéalement, ces images seront segmentées afin d’indiquer à l’algorithme où se situent les anomalies radiologiques ou histologiques qu’il doit apprendre à reconnaître. Un réseau neuronal profond vise à utiliser un nombre important de données pour son entraînement.

La plupart des concepts utilisés en IA proviennent, ou sont inspirés, des recherches en neurosciences. Le concept de réseau neuronal repose sur ce que l’on sait de l’organisation du cortex cérébral.  La structure des réseaux de neurones, organisée en couches multiples, permet aux algorithmes de traiter de très nombreuses tâches.

Machine learning ou apprentissage automatique

Un sous-groupe de techniques d’IA, appelé « apprentissage automatique » ou machine learning, est capable d’apprendre automatiquement à partir des données présentées.

Les algorithmes de base en apprentissage automatique (ML) peuvent être grossièrement classés en deux catégories en fonction du type de tâches à résoudre : supervisé et non supervisé.

L’apprentissage supervisé fait référence à une technique d’apprentissage automatique où un modèle est formé pour prédire ou classer des données en fonction de celles ayant servi à l’entraînement (avec des exemples d’entrées et de sorties souhaitées). Le modèle est ensuite entraîné en utilisant ces exemples pour apprendre à prédire ou à classer de nouvelles données. En analysant toutes les paires entrée-sortie étiquetées, l’algorithme apprend à produire la sortie correcte pour une entrée dans de nouveaux cas. Exemple : les entrées peuvent être des photographies du fond de l’œil. Les étiquettes de sortie souhaitées peuvent alors être la présence ou l’absence de rétinopathie diabétique. Les algorithmes supervisés requièrent donc un expert pour fournir à la fois les entrées et les sorties souhaitées (ce que l’on appelle la vérité terrain).

L’apprentissage non supervisé utilise, lui, des algorithmes d’apprentissage automatique pour analyser et classer des jeux de données non étiquetés. Il permet par exemple à partir de données d’origine non étiquetées d’identifier de nouvelles sous-catégories, par exemple différentes formes de diabète.

En utilisant une méthode d’apprentissage supervisé ou non supervisé, un système intelligent peut donc apprendre automatiquement et améliorer ses performances, comme la précision, sans être explicitement programmé.

Il existe d’autres types d’apprentissage automatique, comme l’apprentissage semi-supervisé et l’apprentissage par renforcement.

L’apprentissage semi-supervisé est une branche de l’IA qui utilise à la fois des données étiquetées et non étiquetées pour accomplir certaines tâches d’apprentissage. Il permet de tirer parti de grandes quantités de données non étiquetées disponibles, combinées à des ensembles plus petits de données étiquetées.

L’apprentissage par renforcement permet d’optimiser les performances du système au travers de la sélection des meilleurs résultats. Il a notamment été utilisé pour développer des schémas de traitement dynamiques et fournir une dose d’insuline précise pour réagir aux besoins immédiats des patients diabétiques.

En résumé, les méthodes d’apprentissage automatique facilitent la découverte de relations auparavant non reconnues dans les données, sans avoir besoin de spécifier des règles de décision pour chaque tâche spécifique ou de tenir compte des interactions complexes pouvant exister entre les caractéristiques des entrées.

Deep learning ou apprentissage profond

Pour faire face aux problèmes les plus complexes, un réseau des neurones peut être construit contenant de nombreuses couches de neurones, d’où le terme d’apprentissage profond ou de deep learning.

Cette approche nécessite une quantité considérable de données de vérité terrain, car la précision de la classification de l’apprentissage en profondeur dépend en grande partie de la qualité et de la taille de l’ensemble de données d’apprentissage. Il s’agit par exemple d’entraîner un système avec des milliers ou des millions d’images expertisées par un spécialiste. L’algorithme apprend par lui-même quelles fonctionnalités sont les meilleures pour la classification des données. Il établit donc tout seul une relation entre entrée et sortie.

Pour l’analyse des images, les réseaux les plus utilisés sont les réseaux convolutifs (CNN pour convolutive neural network), qui sont un sous-type de réseau de neurones artificiels. L’image initiale fait l’objet d’une première convolution. Il s’agit d’une opération mathématique simple qui fait ressortir un seul élément fondamental de l’image. Cette première convolution fait l’objet d’une nouvelle convolution et ainsi de suite. Aucun expert humain n’indique les caractéristiques pertinentes dans les images : c’est au programme de les trouver.

Parce que le deep learning permet un apprentissage continu sur de nouvelles images, il peut diagnostiquer certaines maladies très précisément. C’est le cas dans la détection de la rétinopathie diabétique pour laquelle de grandes bases d’images annotées ont été constituées ces dernières années.

Le deep learning a la capacité d’identifier des caractéristiques complexes connues ou inconnues par les experts, voire peu ou pas compréhensibles par ces spécialistes. C’est pour cela que le deep learning est parfois comparé à une boîte noire.

Nécessité d’une validation externe

Afin d’évaluer les performances d’un modèle d’IA, il importe de le tester sur un jeu de données entièrement différent de celui qui a servi à l’entraînement. On parle d’évaluation externe. On comprend qu’en l’absence de validation externe, il soit difficile, et plus encore périlleux, de généraliser les résultats obtenus, ce qui limite en pratique leur utilisation. Il importe donc de procéder à ce type d’évaluation sur des populations et différentes contextes cliniques afin d’augmenter la robustesse du modèle, ou autrement dit, sa performance et sa fiabilité.

Lorsqu’il s’agit de modèles d’IA destinés à analyser des images, telles que celles issues d’IRM, il est important de considérer le fait que de nombreux paramètres sont étroitement liés au fabricant, voire à l’appareil utilisé. En effet, un algorithme formé sur des images provenant d’une machine spécifique peut voir ses performances diminuer lorsqu’il traite des images d’une autre machine du même fabricant, ou même d’un appareil d’un autre fabricant.

Il est donc crucial que chaque algorithme soit validé non seulement sur la base de données avec laquelle il a été entraîné, mais également, et de manière primordiale, sur un jeu de données externes, c’est-à-dire sur une base test totalement indépendante, provenant de patients différents, issue de différents centres de soins et, si possible, obtenue avec des machines IRM de constructeurs différents.

Évaluer les performances des algorithmes

De même, l’évaluation de la performance d’un modèle nécessite une évaluation interne. Celle-ci consiste à tester le modèle sur un sous-ensemble du jeu de données utilisé (split sampling) ou sur un jeu de données limitées, en écartant en amont une partie des données ayant servi à l’entraînement (cross-validation ou validation croisée).

Analyser de nombreuses variables pour dépister le diabète

L’IA est notamment capable de combiner et d’analyser des informations provenant de plusieurs modalités ou types de données : texte, images fixes ou vidéo. On parle alors d’IA multimodale.

En soins primaires, les technologies d’IA peuvent aider à prédire la survenue du début d’un diabète. Le machine learning s’avère être un outil prometteur dans la mesure où il peut égaler, voire surpasser, les performances obtenues par les modèles statistiques conventionnels utilisés pour prédire la survenue du début de diabète chez des patients non diabétiques dans un délai de 5 à 10 ans. Ces derniers intègrent des variables, telles que le poids corporel, la taille, le tour de taille et de hanches, les chiffres de la pression artérielle, les résultats des analyses de sang, les antécédents familiaux de diabète, les concentrations de glucose non à jeun. Récemment, le machine learning a fait mieux en termes de prédiction que les modèles statistiques conventionnels, en prédisant, à partir des métadonnées cliniques des dossiers médicaux électroniques,  avec une exactitude dépassant les 94 %, un début de diabète dans les 5 ans chez des patients hospitalisés.

Le dépistage du pré-diabète et de la prédiction du risque de diabète a été réalisé par une équipe chinoise grâce à une IA qui a analysé la texture et la couleur de la langue. Les résultats, publiés en 2017 dans la revue Computers in Biology and Medicine, indiquaient un taux de performance satisfaisant.

En 2021, une autre équipe chinoise a utilisé une IA pour analyser la texture du visage pour détecter un diabète, avec une exactitude de 99 %. Ces résultats avaient été publiés dans le Journal of Biomedical Informatics. Les résultats obtenus par ces deux études ne permettent cependant pas de généralisation car elles n’incluaient pas de validation externe : les résultats n’ont pas été confrontés à des jeux de données obtenus auprès de populations extérieures à la cohorte de patients utilisée dans chaque étude.

Des chercheurs chinois ont rapporté, en 2021 dans la revue Nature Biomedical Engineering, avoir intégré dans un système d’apprentissage profond plusieurs variables (âge, sexe, poids, taille, IMC, pression artérielle), mais aussi plus de 115 000 images du fond d’œil (provenant de plus de 57 000 patients) et certains facteurs de risque (taux de glucose, débit de filtration glomérulaire qui renseigne sur la fonction rénale). Cette IA a permis de prédire de façon fort satisfaisante le développement du diabète de type 2, mais aussi de classer les patients selon leur risque de progression vers la maladie (stratification).

De même, des chercheurs américains ont utilisé des techniques de deep learning pour détecter le diabète à partir des données de la photo-pléthysmographie, technique optique permettant de détecter, via un smartphone, les changements de volume de sang dans les tissus de manière non-invasive. Cette technique est utilisée pour évaluer la saturation en oxygène et la fréquence cardiaque. Elle peut donc potentiellement être utilisée pour détecter la variabilité du rythme cardiaque qui peut être observée chez les patients atteints de diabète de type 2. Un modèle de réseau de neurones profond a été développé à partir des données provenant de plus de 53 000 participants pour détecter un diabète en utilisant les signaux de la pléthysmographie obtenus par un smartphone. Les résultats, publiés en 2020 dans Nature Medicine, sont satisfaisants en termes de performance.

Par ailleurs, des résultats encourageants ont été obtenus en 2023 et rapportés dans la revue Med-X par une équipe chinoise utilisant une IA de type deep learning pour analyser les images de la surface oculaire.

Les données provenant de la pléthysmographie ne sont pas les seuls biomarqueurs pouvant être utilisés dans l’aide au diagnostic par l’IA. Des modèles ont combiné les valeurs de l’hémoglobine glyquée (HbA1c) et les données de l’électrocardiogramme (ECG) afin de prédire le début d’une maladie rénale chronique et d’une insuffisance cardiaque, avec des résultats toutefois peu probants dans la mesure où ils n’étaient pas en mesure de déterminer le type de diabète. Il n’empêche : ces travaux montrent qu’il est possible de combiner l’analyse de données électrocardiographiques et biochimiques dans un objectif de dépistage clinique.

D’autres études ont combiné les données démographiques de patients et celles provenant de plusieurs paramètres : valeurs de la photopléthysmographie, de l’actimétrie (mesure de l’activité physique par un dispositif constitué d’un accéléromètre), de la température cutanée et de l’activité électrodermale, qui correspond aux variations électriques de la peau associées au fonctionnement des glandes sudoripares et au système nerveux sympathique.

Un modèle de deep learning, baptisé DiabDeep et développé par des chercheurs en ingénierie électrique de l’université de Princeton (New Jersey), a permis d’obtenir des résultats très encourageants en termes de classement entre sujets non diabétiques et personnes atteintes de diabète, avec un taux maximal de précision de 96,3 %.

D’autres modèles d’IA ont aussi été développés combinant les données de l’ECG et de l’activité électrodermale pour tenter de prédire les épisodes d’hyper- ou d’hypoglycémie, voire prédire les résultats de l’hyperglycémie provoquée par voie orale (HGPO). Des systèmes basés sur l’IA ont aussi été utilisés pour classer les valeurs de glycémie en fonction des données de l’ECG, l’activité électrodermale et la pléthysmographie. Ces études ont porté sur un nombre restreint de participants.

Une étude canadienne, parue en août 2024 dans la revue en ligne Scientific Reports, a évalué les performances d’une IA capable d’analyser la voix enregistrée sur un smartphone de sujets adultes dans le but de détecter un diabète de type 2. Cette IA analyse l’impact des valeurs de la glycémie sur la fréquence fondamentale de la voix des sujets, sachant qu’une augmentation du glucose sanguin mesuré en continu correspond à une hausse de 0,02 Hertz de la fréquence fondamentale du signal vocal. Dans la mesure où les variations du taux glucose sur les caractéristiques vocales dépendent grandement de chaque individu, des évaluations personnalisées seront nécessaires pour évaluer ces modèles à l’avenir et déterminer leur degré de précision.

Ces résultats préliminaires soulignent le potentiel de l’IA pour aider les professionnels de santé à interpréter un grand jeu de données disparates, cliniques, physiologiques et radiologiques. De fait, l’analyse multimodale rend l’IA générative plus robuste et plus utile en termes de prédiction du risque de développer un diabète.

Il importe néanmoins de déterminer les taux de performance globale* de ces IA sur des populations diverses sur les plans ethnique et géographique, et sur de grands effectifs, avant de les utiliser en routine. Là encore, la validation externe s’avère donc indispensable avant d’envisager toute utilisation en pratique clinique. Il importe aussi de tester les performances de ces modèles dans des groupes démographiques particulièrement touchés par le diabète de type 2 (en particulier les populations afro-américaine, africaine, hispanique et sud-asiatique).

2e volet de notre série « Intelligence artificielle et diabète » (Publié le 13 janvier 2025)

 

* Les performances d’un modèle peuvent être représentées sous forme graphique par une courbe ROC (Receiver Operating Characteristic) à travers deux indicateurs : la sensibilité et la spécificité. L’aire sous la courbe est désignée par le terme AUC (Area Under the Curve). On estime la performance globale d’un modèle en obtenant l’AUC ROC, aussi dénommée AUROC. Une AUROC égale à 1 indique que la performance du modèle est parfaite.

Pour en savoir plus...

La liste complète des références bibliographiques sera communiquée lors de la parution du 5e volet de cette série.

Pour être informé en temps réel de nos publications :


Loading

Découvrir PreciDIAB

Développer des méthodes innovantes validées scientifiquement pour prévenir et combattre le diabète.