5e et dernier volet de notre série « Intelligence artificielle et diabète »
Les avancées rapides de l’intelligence artificielle (IA), en particulier de l’IA générative, permettent d’entrevoir la possibilité d’un suivi en temps réel des facteurs de risque, d’un dépistage de masse de certaines complications ou de l’optimisation du calcul des doses de médicaments.
Par ailleurs, les modèles d’IA conversationnels, qui imitent le langage humain naturel, pourraient être une aide très utile pour les professionnels de santé. Les LLM conversationnels, dont font partie ChatGPT et GPT-4, permettent d’être utilisés par le plus grand nombre pour des tâches plus variées (rédaction de comptes rendu médicaux, résumé de prise de notes, résumé d’articles scientifiques).
Au total, résument les auteurs internationaux (Chine, Singapour, Malaisie, Australie, Espagne) d’un article publié en août 2024 dans The Lancet, « les technologies de l’IA promettent une précision accrue et des soins personnalisés, ce qui pourrait alléger le fardeau du diabète ». Ils soulignent cependant que « l’utilisation réussie et durable de l’IA dans les soins du diabète nécessitera une collaboration interdisciplinaire entre cliniciens, data scientists et ingénieurs en IA pour un développement et une adaptation continus »
Défis présents et futurs de l’IA
De nombreux défis concernant le développement et la mise en œuvre de l’IA restent à relever avant d’intégrer l’IA dans la pratique médicale.
Il s’agit d’abord d’entraîner les algorithmes sur des volumes de données prenant largement en compte la diversité technique, l’âge, le sexe, l’ensemble des facteurs de risque, sans quoi les résultats pourraient conduire à des erreurs d’interprétation et donc à de possibles erreurs diagnostiques, à des sous-traitements, voire à des sur-traitements, ou encore à une prise en charge sous-optimale de groupes de patients sous-représentés. Il convient donc d’inclure le maximum de patients dans les bases de données et d’images d’entraînement pour minimiser ces problèmes potentiels.
En outre, font remarquer les auteurs de l’article du Lancet, de nombreux modèles d’apprentissage automatique et d’apprentissage profond peinent encore à fournir des résultats d’une grande précision à partir de divers ensembles de données, ce qui représente un défi en termes d’applications cliniques. Et ce d’autant qu’il faut avoir à l’esprit le dilemme éthique en matière de responsabilité en cas d’erreurs commises par de tels modèles en termes de prédiction ou de recommandations thérapeutiques.
Certains modèles multimodaux ont combiné des scores de risque polygénique, calculés en fonction de marqueurs génétiques pouvant potentiellement augmenter le risque qu’encourt un individu de développer un diabète, et des marqueurs biochimiques (données métabolomiques). Pour autant, dans la prédiction finale, ces modèles d’IA ne détaillent souvent pas assez les relations entre les modalités utilisées et leurs interactions réciproques. Ce manque de clarté rend difficile la compréhension des mécanismes de prédiction et de décision, ce qui freine évidemment leur adoption en pratique clinique.
Il importe donc que l’IA ne soit pas une « boîte noire » dont le fonctionnement interne déconcerte les cliniciens. Les algorithmes d’apprentissage automatique capturent un grand nombre de données et les modèles d’IA présentent à l’utilisateur des prédictions sur le risque de survenue d’une complication ou en matière de recommandation de traitement.
Or, qu’il s’agisse du diabète ou de toute autre pathologie, il importe pour le clinicien ou chercheur de comprendre dans les grandes lignes le fonctionnement du modèle d’IA utilisé pour établir des liens entre divers types de données, ce qui lui permettra de déterminer la nature des complications, leur risque de survenue ou d’orienter ou d’optimiser le traitement. C’est sans doute à cette condition minimale que le médecin spécialiste acceptera de faire confiance aux modèles d’IA qu’il utilisera, tant il est vrai qu’il lui sera très difficile, sinon impossible, de comprendre la logique spécifique qui sous-tendra les alertes et recommandations fournies par ces systèmes. D’où l’importance à l’avenir de collaborations étroites entre spécialistes de l’IA et endocrinologues.
On peut également imaginer que certains cliniciens auront du mal à accepter qu’une machine leur propose un diagnostic autre que celui auxquels ils pensent ou qu’ils n’ont même pas envisagé. Ces experts devront considérer ces outils comme une aide sur laquelle ils pourront éventuellement compter, et non comme un moyen détourné visant à remplacer leur expertise.
Cette forme d’appropriation du fonctionnement du modèle par le médecin est d’autant plus importante qu’en matière de prédiction du risque déterminé par une IA, il est important de distinguer causalité et corrélation. En effet, bien que les modèles d’IA puissent identifier des variables fortement corrélées avec l’évolution de la maladie diabétique, cela ne signifie pas nécessairement que l’une cause l’autre. En d’autres termes, une relation entre deux variables n’implique pas que l’une soit responsable de l’autre. De fait, les auteurs des études de prédiction basées sur l’IA s’abstiennent de tirer des conclusions causales sur la base de leurs résultats.
On le voit, en tant que systèmes d’aide à la décision, l’efficacité et la pertinence des systèmes d’IA dépendront aussi de l’expertise et de la formation des utilisateurs, qu’ils soient chercheurs ou médecins.
Un autre écueil existe dans la recherche en IA : le plus souvent, les chercheurs ne comparent pas plusieurs algorithmes pour déterminer le plus performant, tandis que d’autres se contentent de n’en tester qu’un seul. Il serait pourtant capital de tester plusieurs modèles pour identifier le plus précis.
Ces erreurs peuvent résulter de données initiales insuffisantes, de recrutements de patients exclusivement masculins ou féminins, de groupes de patients de même origine ethnique, appartenant à une classe d’âge spécifique, d’hypothèses erronées formulées par le modèle ou de biais présents dans les données utilisées pour l’entraîner. De fait, « aujourd’hui, les bases de données sur le diabète ne sont pas représentatives de la population diabétique mondiale, de nombreuses minorités ethniques et de nombreuses régions du monde étant sous-représentées négligées ou exclues. Ce déséquilibre pourrait entraîner des erreurs de diagnostic chez certains groupes de patients, ce qui pourrait encore amplifier les inégalités en matière de santé », soulignait en juin 2023 The Lancet.
De plus, en matière de diabète, le pronostic est non seulement influencé par le traitement médicamenteux, mais aussi par d’autres paramètres complexes, tels que la prédisposition génétique, les comorbidités, le mode de vie et des paramètres socio-démographiques. Or, ces variables font aujourd’hui le plus souvent défaut dans les systèmes d’intelligence artificielle.
On observe ainsi de grandes différences dans la taille des effectifs de patients selon les études utilisant des modèles de prédiction du risque de développer un diabète de type 2, avec un nombre compris entre 244 patients à 1,9 million de personnes. Par ailleurs, la plupart des modèles de machine learning nécessitent plus de 200 points de données (valeur numérique ou caractéristique spécifique) pour chaque paramètre prédictif potentiel pour obtenir une performance satisfaisante.
L’usage de jeux de données représentatifs de populations diverses peut améliorer la précision et la fiabilité des résultats. La performance des modèles est donc directement liée à la qualité des données sur lesquelles elle repose. Il va sans dire que des erreurs à l’entrée génèreront des erreurs à la sortie. Tout cela souligne la nécessité d’une surveillance solide et de directives claires en matière de responsabilité dans les applications d’IA liées au diabète.
Enfin, un défaut méthodologique tient au nombre limité de travaux basés sur des données prospectives (obtenues lors du suivi régulier de patients), la plupart des modèles utilisant des données rétrospectives (issues de dossiers médicaux) obtenues à partir d’un jeu de données rassemblées à d’autres fins de recherche.
Règlementation des modèles d’IA
Les enjeux concernant la réglementation et la sécurité de l’IA sont également importants. « Les personnes diabétiques doivent être informées lorsque l’IA est utilisée de manière indépendante ou en complément d’une intervention professionnelle (par exemple, en tant qu’outil d’assistance), afin de favoriser la transparence et la prise de décision éclairée », soulignent les auteurs d’une revue de la littérature parue dans The Lancet en août 2024. Des recommandations en matière de régulation et surveillance ont été émises par la FDA aux États-Unis (Software as Medical Device, logiciels en tant que dispositifs médicaux), comme en Europe (règlement européen sur l’IA ou AI Act de la Commission Européenne).
À ce jour, aux États-Unis, il n’existe qu’un petit nombre d’algorithmes basés sur l’analyse de biomarqueurs ayant été approuvés en pratique clinique par la FDA, en particulier IDx-DR de Digital Diagnostics, EyeArt de EyeNuk, AEYE-DS de AEYE Health, destinés au dépistage de la rétinopathie diabétique à partir d’images rétiniennes, le Guardian Connect de Medtronic) utilisé dans l’automatisation des pompes à insuline chez les personnes atteintes de diabète de type 1. La FDA a également homologué des technologies basées sur l’IA (notamment le Guardian Connect de Medtronic), qui permettent l’automatisation de la délivrance de l’insuline par des pompes chez les personnes atteintes de diabète de type 1.
En France, la start-up grenobloise Diabeloop a développé un dispositif, baptisé DBLG1, qui a reçu le marquage CE en 2018 et a été inscrit sur la liste des produits et prestations remboursables par l’Assurance maladie en 2021. La prise en charge est limitée aux patients diabétiques de type 1 adultes dont l’équilibre glycémique est insuffisant malgré une insulinothérapie intensive par pompe externe pendant plus de 6 mois et une autosurveillance glycémique pluriquotidienne. DBLG1 intègre un algorithme auto-apprenant hébergé dans un terminal dédié. Il est capable de calculer précisément la quantité d’insuline nécessaire à injecter au patient. Toutes les cinq minutes, l’algorithme analyse ses données médicales. Associé à un capteur de glucose en continu et à une pompe à insuline, il fonctionne en boucle fermée.
Le business grandissant de l’IA
Il importe d’avoir à l’esprit qu’il existe aujourd’hui un enjeu commercial considérable visant à intégrer l’IA partout où cela est possible dans notre vie quotidienne, par le biais de nos smartphones, des moteurs de recherche, des services de traduction, des retouches automatiques de photos, des assistants virtuels, de technologies de reconnaissance faciale et autres outils de pointe.
Cet incroyable engouement ne doit cependant pas empêcher les professionnels de santé, les acteurs de la recherche biomédicale et les autorités sanitaires d’exercer la même prudence et vigilance que pour toute nouvelle technologie médicale ou tout traitement innovant.
Il importe également de conduire des études coût-efficacité afin de s’assurer que les outils d’IA ne coûteront pas plus cher qu’ils ne rapportent et d’évaluer les économies potentielles liées à leur utilisation.
Reste aussi à savoir quelles seront les modalités d’homologation, de valorisation et de remboursement par l’Assurance maladie de certains actes réalisés à l’aide de l’IA, comme la détection automatique de la rétinopathie diabétique à partir des images du fond d’œil.
Protection et transparence des données utilisées par l’IA
Autre sujet de préoccupation majeure : celui de la protection des données utilisées par l’IA. « La protection des données pendant le développement et la mise en œuvre pose des problèmes. La complexité de ce défi sera exacerbée lors de la mise en œuvre de l’IA à l’échelle mondiale, ce qui nécessitera des mesures strictes de protection des données. L’anonymisation et la déidentification sont des stratégies clés pour préserver la confidentialité des données, bien que des inquiétudes persistent quant à la réidentification des données anonymisées avec des algorithmes informatiques sophistiqués ».
Il importera également que les professionnels de santé et les patients vivant avec un diabète fassent confiance aux algorithmes, sans pour autant entretenir une dépendance abusive vis-à-vis de tels outils. Ce qui ne sera sans doute pas chose facile. Par ailleurs, il existe souvent une résistance à l’utilisation de nouvelles technologies. D’où le besoin crucial d’être informé et formé dans ce domaine à la fois fascinant et prometteur, et dont l’intégration dans la pratique médicale de demain apparaît de toute façon inéluctable.
Comme dans toute recherche, un aspect clé dans le développement de modèles en IA est la reproductibilité des résultats. Il importe en effet que d’autres équipes soient en mesure de vérifier et d’évaluer la pertinence des travaux publiés. Or, il a été constaté que la plupart des études ne rapportent pas le code de leur modèle ou ne décrivent pas précisément la source des données utilisées. Ces manques sont susceptibles d’entraver la réplication et la validation des modèles proposés, et donc ralentir les progrès dans ce domaine.
IA et cybersécurité
La cybersécurité est devenue une préoccupation croissante en matière d’acquisition de données destinées aux modèles d’IA en raison de la taille et de la nature de ces informations sensibles.
Sachant qu’aucun système informatique n’est à l’abri d’une attaque cyber, il importera que les patients et les professionnels de santé soient informés des risques toujours possibles de divulgation de données de santé ou de partage à des tiers non autorisés.
On comprend donc l’importance d’assurer la confidentialité des données, via l’anonymisation des informations recueillies dans les dossiers médicaux électroniques. La suppression de ces informations (numéros de sécurité sociale, de mutuelles santé, d’assurances privées, nom, âge et autres coordonnées) est cependant de nature à compliquer la mise en relation des données pertinentes et utiles provenant de sources diverses.
Interopérabilité des jeux de données
Par ailleurs, un autre défi se fait jour : la compatibilité entre systèmes et l’interopérabilité des algorithmes.
Les formats et les normes des documents provenant de machines différentes doivent en effet permettre un partage entre différentes organisations de soins. Pour ce faire, celles-ci doivent pouvoir échanger des jeux de données, ce qui exige une interopérabilité globale de leurs systèmes, notamment en vue des travaux de recherche collaboratifs. Il en va aussi de la possibilité pour deux établissements différents d’assurer dans l’avenir la coordination des soins pour un même patient.
Un manque d’interopérabilité représenterait donc un sérieux obstacle au développement du deep learning.
Un délicat équilibre entre automatisation et expertise humaine
Ces exigences de validation et d’évaluation, de même que la nécessité de conduire des études cliniques prospectives, s’avèrent indispensables dans l’optique d’une IA au service des patients. On le voit, l’IA en médecine n’est donc pas seulement une affaire de technique. Elle n’est pas une discipline totalement autonome qui pourrait se passer de l’expertise humaine.
En particulier, les diagnostics établis à l’aide de l’IA devront toujours être validés par un médecin spécialiste qualifié. Il en va de la sécurité des patients, en même temps que cela répond à un impératif éthique.
Au terme de ce billet de blog, on comprend que l’adoption de l’IA dans la prise en charge des patients vivant avec un diabète, et plus généralement au sein des systèmes de santé, n’interviendra que si de nombreuses questions sont résolues, parmi lesquelles la qualité des données, l’évaluation des performances et une validation externe occupent une place centrale. Les solutions exigeront sans aucun doute des collaborations intenses entre tous les acteurs concernés : les concepteurs des modèles d’IA développés par le secteur, notamment privé, les cliniciens, les chercheurs et les autorités de santé.
Une dernière question se pose : ces modèles d’IA, qui représentent une opportunité de transformer la façon dont le diabète pourrait être dépisté, diagnostiqué, son risque de survenue calculé, seront-ils accessibles à tous ceux qui pourraient en bénéficier, notamment à ceux qui, dans les pays en développement, paient souvent un lourd tribut aux complications du diabète, faute de stratégies de prévention et/ou de ressources limitées en soins de santé ? Rien n’est moins sûr, sauf à anticiper, dès aujourd’hui, les besoins de l’IA pour le plus grand nombre.
En matière de diabète, si nous ne prenons pas en compte toutes les populations de patients dans le développement de l’intelligence artificielle, de sa conception à sa diffusion, nous perpétuerons inévitablement les biais systémiques et sociaux que nous observons aujourd’hui, concluait un récent éditorial du The Lancet.
Marc Gozlan (Suivez-moi sur X, Facebook, LinkedIn, Mastodon, Bluesky)
Lire le 1er volet de la série « Intelligence artificielle et diabète »
Lire le 2e volet de la série « Intelligence artificielle et diabète »
Lire le 3e volet de la série « Intelligence artificielle et diabète »
Lire le 4e volet de la série « Intelligence artificielle et diabète »