Sommaire
La montée en puissance de l’IA générative dans le domaine de la santé
L’IA générative, qui peut créer et analyser des images, du texte, de l’audio, des vidéos et bien plus encore, fait de plus en plus son entrée dans le domaine de la santé, soutenue à la fois par les géants de la technologie et les start-ups.
Google Cloud, la division de services et de produits cloud de Google, collabore avec Highmark Health, une entreprise de santé à but non lucratif basée à Pittsburgh, sur des outils d’IA générative conçus pour personnaliser l’expérience d’admission des patients. La division AWS d’Amazon déclare travailler avec des clients non divulgués sur un moyen d’utiliser l’IA générative pour analyser les bases de données médicales afin de déterminer les « déterminants sociaux de la santé ». Et Microsoft Azure aide à créer un système d’IA générative pour Providence, le réseau de soins de santé à but non lucratif, afin de trier automatiquement les messages envoyés par les patients aux prestataires de soins.
Les start-ups d’IA générative les plus prometteuses dans le domaine de la santé comprennent Ambience Healthcare, qui développe une application d’IA générative pour les cliniciens ; Nabla, un assistant d’IA ambiante pour les praticiens ; et Abridge, qui crée des outils d’analyse pour la documentation médicale.
L’enthousiasme généralisé pour l’IA générative se reflète dans les investissements dans les efforts d’IA générative ciblant la santé. Collectivement, les start-ups d’IA générative dans le domaine de la santé ont levé des dizaines de millions de dollars de capital-risque à ce jour, et la grande majorité des investisseurs en santé affirment que l’IA générative a influencé de manière significative leurs stratégies d’investissement.
Mais tant les professionnels que les patients sont partagés quant à savoir si l’IA générative axée sur la santé est prête pour le grand public.
L’IA générative pourrait ne pas être ce que les gens veulent
D’après une récente enquête de Deloitte, seulement environ la moitié (53 %) des consommateurs américains estiment que l’IA générative pourrait améliorer les soins de santé, par exemple en les rendant plus accessibles ou en réduisant les temps d’attente pour les rendez-vous. Moins de la moitié estime que l’IA générative pourrait rendre les soins médicaux plus abordables.
Andrew Borkowski, directeur de l’IA au sein du réseau de soins de santé VA Sunshine Healthcare Network, le plus grand système de santé du Département américain des anciens combattants, estime que le scepticisme est justifié. Borkowski a mis en garde contre le déploiement prématuré de l’IA générative en raison de ses « limites significatives » et des préoccupations concernant son efficacité.
Plusieurs études suggèrent que ces points sont fondés.
Dans un article paru dans le journal JAMA Pediatrics, le chatbot d’IA générative de OpenAI, ChatGPT, utilisé pour des cas d’utilisation limités par certaines organisations de santé, a été trouvé pour faire des erreurs de diagnostic dans 83% des cas. Et lors de tests sur l’utilisation de GPT-4 de OpenAI en tant qu’assistant de diagnostic, les médecins du Beth Israel Deaconess Medical Center de Boston ont constaté que le modèle classait le mauvais diagnostic en première position près de deux fois sur trois.
L’IA générative d’aujourd’hui a également du mal avec les tâches administratives médicales qui font partie du quotidien des cliniciens. Sur le benchmark MedAlign, qui évalue la capacité de l’IA générative à résumer les dossiers de santé des patients et à effectuer des recherches dans les notes, GPT-4 a échoué dans 35% des cas.
OpenAI et de nombreux autres fournisseurs d’IA générative avertissent contre l’utilisation de leurs modèles pour des conseils médicaux. Mais Borkowski et d’autres estiment qu’ils pourraient en faire plus. « Se fier uniquement à l’IA générative pour les soins de santé pourrait conduire à des erreurs de diagnostic, à des traitements inappropriés, voire à des situations mettant la vie en danger », a déclaré Borkowski.
Jan Egger, responsable des thérapies guidées par l’IA à l’Institut pour l’IA en médecine de l’Université de Duisburg-Essen, partage les préoccupations de Borkowski. Il estime que la seule façon sûre d’utiliser l’IA générative dans les soins de santé actuellement est sous le regard attentif d’un médecin.
« Les résultats peuvent être totalement erronés, et il est de plus en plus difficile de s’en rendre compte », a déclaré Egger. « Bien sûr, l’IA générative peut être utilisée, par exemple, pour la rédaction préalable de lettres de sortie. Mais les médecins ont la responsabilité de la vérifier et de prendre la décision finale. »
L’IA générative peut perpétuer les stéréotypes
Une façon particulièrement préjudiciable dont l’IA générative en médecine peut se tromper est en perpétuant les stéréotypes.
Dans une étude de 2023 menée par des chercheurs de Stanford Medicine, ChatGPT et d’autres chatbots alimentés par l’IA générative ont été testés sur des questions sur la fonction rénale, la capacité pulmonaire et l’épaisseur de la peau. Non seulement les réponses de ChatGPT étaient fréquemment erronées, ont découvert les co-auteurs, mais elles renforçaient également plusieurs croyances erronées de longue date selon lesquelles il existe des différences biologiques entre les personnes noires et blanches, des mensonges connus pour avoir conduit les prestataires de soins médicaux à poser de mauvais diagnostics.
L’ironie est que les patients les plus susceptibles d’être discriminés par l’IA générative en matière de santé sont également ceux qui sont les plus susceptibles de l’utiliser.
Les personnes dépourvues de couverture santé, en particulier les personnes de couleur selon une étude de la KFF, sont plus disposées à essayer l’IA générative pour trouver un médecin ou un soutien en santé mentale, ont montré les résultats de l’enquête de Deloitte. Si les recommandations de l’IA sont entachées de biais, cela pourrait aggraver les inégalités dans le traitement.
Cependant, certains experts soutiennent que l’IA générative s’améliore à cet égard.
Dans une étude de Microsoft publiée fin 2023, les chercheurs ont déclaré avoir atteint une précision de 90,2 % sur quatre benchmarks médicaux difficiles en utilisant GPT-4. GPT-4 seul ne pouvait pas atteindre ce score. Mais, selon les chercheurs, grâce à l’ingénierie des instructions – la conception d’instructions pour que GPT-4 produise certains résultats – ils ont pu augmenter le score du modèle jusqu’à 16,2 points de pourcentage. (Il convient de noter que Microsoft est un important investisseur dans OpenAI.)
Au-delà des chatbots
Mais poser une question à un chatbot n’est pas la seule chose que l’IA générative peut faire. Certains chercheurs affirment que l’imagerie médicale pourrait bénéficier énormément de la puissance de l’IA générative.
En juillet, un groupe de scientifiques a dévoilé un système appelé complémentarité axée sur le flux de travail clinique (CoDoC), dans une étude publiée dans la revue Nature. Le système est conçu pour déterminer quand les spécialistes de l’imagerie médicale doivent se fier à l’IA pour les diagnostics par rapport aux techniques traditionnelles. Selon les co-auteurs, CoDoC a fait mieux que les spécialistes tout en réduisant les flux de travail cliniques de 66%.
En novembre, une équipe de recherche chinoise a présenté Panda, un modèle d’IA utilisé pour détecter les lésions pancréatiques potentielles sur les radiographies. Une étude a montré que Panda était très précis dans la classification de ces lésions, qui sont souvent détectées trop tard pour une intervention chirurgicale.
En effet, Arun Thirunavukarasu, chercheur clinique à l’Université d’Oxford, affirme qu’il n’y a « rien d’unique » dans l’IA générative qui empêche son déploiement dans les environnements de soins de santé.
« Des applications plus banales de la technologie de l’IA générative sont réalisables à court et moyen terme, et comprennent la correction de texte, la documentation automatique de notes et de lettres, et l’amélioration des fonctions de recherche pour optimiser les dossiers électroniques des patients », a-t-il déclaré. « Il n’y a aucune raison pour que la technologie de l’IA générative – si elle est efficace – ne puisse pas être déployée dans ces types de rôles immédiatement. »
« Une science rigoureuse »
Mais bien que l’IA générative montre des promesses dans des domaines spécifiques et limités de la médecine, des experts comme Borkowski soulignent les obstacles techniques et liés à la conformité qui doivent être surmontés avant que l’IA générative puisse être utile – et digne de confiance – en tant qu’outil d’assistance aux soins de santé.
« L’utilisation de l’IA générative en santé soulève d’importants problèmes de confidentialité et de sécurité », a déclaré Borkowski. « La nature sensible des données médicales et le risque potentiel de mauvaise utilisation ou d’accès non autorisé posent de graves risques pour la confidentialité des patients et la confiance dans le système de santé. De plus, le cadre réglementaire et juridique entourant l’utilisation de l’IA générative en santé est encore en évolution, avec des questions concernant la responsabilité, la protection des données et l’exercice de la médecine par des entités non humaines qui restent à résoudre. »
Même Thirunavukarasu, aussi optimiste soit-il quant à l’IA générative en santé, estime qu’il doit y avoir une « science rigoureuse » derrière les outils destinés aux patients.
« En particulier sans surveillance directe d’un clinicien, il devrait y avoir des essais cliniques randomisés pragmatiques démontrant un bénéfice clinique justifiant le déploiement de l’IA générative destinée aux patients », a-t-il déclaré. « Une gouvernance appropriée est essentielle pour identifier tout préjudice imprévu après le déploiement à grande échelle. »
Récemment, l’Organisation mondiale de la santé a publié des directives qui préconisent ce type de science et de surveillance humaine de l’IA générative en santé, ainsi que l’introduction d’une vérification, d’une transparence et d’évaluations de l’impact de cette IA par des tiers indépendants. L’objectif, précise l’OMS dans ses directives, serait de favoriser la participation d’une cohorte diversifiée de personnes dans le développement de l’IA générative en santé et de leur donner l’occasion d’exprimer leurs préoccupations et de fournir des contributions tout au long du processus.
« Tant que les préoccupations ne seront pas adéquatement prises en compte et que des garanties appropriées ne seront pas mises en place », a déclaré Borkowski, « la mise en œuvre généralisée de l’IA générative médicale pourrait être… potentiellement nuisible aux patients et à l’ensemble du secteur de la santé. »