L’IA générative arrive dans les soins de santé, et tout le monde n’est pas ravi

L’IA générative arrive dans les soins de santé, et tout le monde n’est pas ravi

L’IA générative, qui peut créer et analyser des images, du texte, du son, des vidéos et bien plus encore, fait de plus en plus son chemin dans les soins de santé, poussée à la fois par les entreprises Big Tech et les startups.

Google Cloud, la division des services et produits cloud de Google, collabore avec Highmark Health, une société de soins de santé à but non lucratif basée à Pittsburgh, sur des outils d’IA générative conçus pour personnaliser l’expérience d’accueil des patients. La division AWS d’Amazon indique qu’elle travaille avec des clients anonymes sur un moyen d’utiliser l’IA générative pour analyser les données des patients. les bases de données médicales pour identifier les « déterminants sociaux de la santé ». Et Microsoft Azure aide à construire un système d’IA générative pour Providence, le réseau de soins de santé à but non lucratif, afin de trier automatiquement les messages envoyés par les patients aux prestataires de soins.

Parmi les startups d’IA générative les plus en vue dans le secteur de la santé, citons Ambience Healthcare, qui développe une application d’IA générative pour les cliniciens, Nabla, un assistant d’IA ambiante pour les praticiens, et Abridge, qui crée des outils d’analyse pour la documentation médicale.

L’enthousiasme général pour l’IA générative se reflète dans les investissements dans les efforts d’IA générative ciblant les soins de santé. Collectivement, les startups d’IA générative dans le domaine de la santé ont levé des dizaines de millions de dollars en capital-risque à ce jour, et la grande majorité des investisseurs dans le domaine de la santé affirment que l’IA générative a influencé de manière significative leurs stratégies d’investissement.

Mais les professionnels et les patients sont partagés sur la question de savoir si l’IA générative axée sur les soins de santé est prête pour le prime time.

L’IA générative n’est peut-être pas ce que les gens veulent

Dans une récente enquête de Deloitte, seulement la moitié environ (53 %) des consommateurs américains ont déclaré qu’ils pensaient que l’IA générative pourrait améliorer les soins de santé – par exemple, en les rendant plus accessibles ou en raccourcissant les délais d’attente pour les rendez-vous. Moins de la moitié ont déclaré qu’ils s’attendaient à ce que l’IA générative rende les soins médicaux plus abordables.

Andrew Borkowski, responsable de l’IA au VA Sunshine Healthcare Network, le plus grand système de santé du ministère américain des anciens combattants, ne pense pas que le cynisme soit injustifié. M. Borkowski a averti que le déploiement de l’IA générative pourrait être prématuré en raison de ses limites « significatives » et des préoccupations liées à son efficacité.

« L’un des principaux problèmes de l’IA générative est son incapacité à traiter des requêtes ou des urgences médicales complexes », a-t-il déclaré à TechCrunch. « Sa base de connaissances limitée – c’est-à-dire l’absence d’informations cliniques actualisées – et le manque d’expertise humaine la rendent inapte à fournir des conseils médicaux complets ou des recommandations de traitement. »

Plusieurs études suggèrent que ces points sont fondés.

Dans un article publié dans la revue JAMA Pediatrics, le chatbot d’IA générative d’OpenAI, ChatGPT, que certains organismes de soins de santé ont testé pour des cas d’utilisation limités, s’est avéré commettre des erreurs de diagnostic de maladies pédiatriques dans 83 % des cas. En testant le GPT-4 d’OpenAI en tant qu’assistant diagnostique, les médecins du Beth Israel Deaconess Medical Center de Boston ont observé que le modèle plaçait le mauvais diagnostic en tête de liste près de deux fois sur trois.

L’IA générative d’aujourd’hui a également du mal à gérer les tâches administratives médicales qui font partie intégrante des flux de travail quotidiens des cliniciens. Le benchmark MedAlign permet d’évaluer la capacité de l’IA générative à effectuer des tâches telles que le résumé des dossiers médicaux des patients et la recherche dans les notes, GPT-4 a échoué dans 35 % des cas.

OpenAI et de nombreux autres fournisseurs d’IA générative mettent en garde contre l’utilisation de leurs modèles pour des conseils médicaux. Mais M. Borkowski et d’autres affirment qu’ils pourraient faire plus. « S’appuyer uniquement sur l’IA générative pour les soins de santé pourrait conduire à des diagnostics erronés, à des traitements inappropriés ou même à des situations potentiellement mortelles », a déclaré M. Borkowski.

Jan Egger, qui dirige les thérapies guidées par l’IA à l’Institut pour l’IA en médecine de l’université de Duisbourg-Essen, qui étudie les applications des technologies émergentes pour les soins aux patients, partage les inquiétudes de M. Borkowski. Il estime que le seul moyen sûr d’utiliser l’IA générative dans les soins de santé est actuellement de le faire sous l’œil attentif et vigilant d’un médecin.

« Les résultats peuvent être complètement erronés, et il est de plus en plus difficile d’en rester conscient », a déclaré M. Egger. « Bien sûr, l’IA générative peut être utilisée, par exemple, pour la pré-écriture des lettres de sortie. Mais les médecins ont la responsabilité de les vérifier et de prendre la décision finale. »

L’IA générative peut perpétuer les stéréotypes

L’IA générative dans le domaine des soins de santé peut se tromper en perpétuant des stéréotypes, ce qui est particulièrement préjudiciable.

Dans une étude réalisée en 2023 par Stanford Medicine, une équipe de chercheurs a testé ChatGPT et d’autres chatbots alimentés par l’IA générative sur des questions relatives à la fonction rénale, à la capacité pulmonaire et à l’épaisseur de la peau. Non seulement les réponses de ChatGPT étaient souvent erronées, ont constaté les coauteurs, mais elles comprenaient également plusieurs réponses qui renforçaient des croyances erronées de longue date selon lesquelles il existe des différences biologiques entre les Noirs et les Blancs – des contre-vérités qui sont connues pour avoir conduit les prestataires de soins médicaux à poser des diagnostics erronés sur des problèmes de santé.

L’ironie est que les patients les plus susceptibles d’être discriminés par l’IA générative pour les soins de santé sont aussi ceux qui sont les plus susceptibles de l’utiliser.

Les personnes qui ne bénéficient pas d’une couverture médicale – les personnes de couleur, en général, selon une étude du KFF – sont plus disposées à essayer l’IA générative pour des choses telles que trouver un médecin ou un soutien en matière de santé mentale, selon l’enquête de Deloitte. Si les recommandations de l’IA sont entachées de préjugés, elles pourraient exacerber les inégalités de traitement.

Toutefois, certains experts affirment que l’IA générative s’améliore à cet égard.

Dans une étude de Microsoft publiée fin 2023, les chercheurs ont déclaré avoir atteint une précision de 90,2 % sur quatre références médicales difficiles en utilisant GPT-4. Vanilla GPT-4 n’a pas pu atteindre ce score. Mais, selon les chercheurs, grâce à l’ingénierie des invites – la conception d’invites pour que GPT-4 produise certains résultats – ils ont pu augmenter le score du modèle jusqu’à 16,2 points de pourcentage. (Il convient de noter que Microsoft est l’un des principaux investisseurs d’OpenAI).

Au-delà des chatbots

Mais poser une question à un chatbot n’est pas la seule chose pour laquelle l’IA générative est utile. Certains chercheurs affirment que l’imagerie médicale pourrait grandement bénéficier de la puissance de l’IA générative.

En juillet, un groupe de scientifiques a dévoilé un système appelé complémentarity-driven deferral to clinical workflow (CoDoC), dans une étude publiée dans Nature. Ce système est conçu pour déterminer quand les spécialistes de l’imagerie médicale doivent s’appuyer sur l’IA pour établir des diagnostics plutôt que sur les techniques traditionnelles. Selon les coauteurs, CoDoC a fait mieux que les spécialistes tout en réduisant les flux de travail cliniques de 66 %.

En novembre, un équipe de recherche chinoise a fait une démonstration de Pandaun modèle d’intelligence artificielle utilisé pour détecter les lésions potentielles du pancréas dans les radiographies. Une étude a montré que Panda était très précis dans la classification de ces lésions, qui sont souvent détectées trop tard pour une intervention chirurgicale.

Arun Thirunavukarasu, chercheur clinicien à l’Université d’Oxford, a déclaré que l’IA générative n’avait « rien d’unique » qui empêche son déploiement dans le domaine des soins de santé.

« Des applications plus banales de la technologie de l’IA générative sont possibles. en à court et à moyen terme, et comprennent la correction de texte, la documentation automatique des notes et des lettres et l’amélioration des fonctions de recherche pour optimiser les dossiers électroniques des patients », a-t-il déclaré. Il n’y a aucune raison pour que la technologie de l’IA générative – si elle est efficace – ne puisse pas être déployée… ». en ce genre de rôle immédiatement ».

« Une science rigoureuse

Mais si l’IA générative est prometteuse dans des domaines spécifiques et étroits de la médecine, des experts comme M. Borkowski soulignent les obstacles techniques et de conformité qui doivent être surmontés avant que l’IA générative puisse être utile – et fiable – en tant qu’outil d’assistance aux soins de santé à tous les niveaux.

« L’utilisation de l’IA générative dans les soins de santé soulève d’importantes préoccupations en matière de confidentialité et de sécurité », a déclaré M. Borkowski. « La nature sensible des données médicales et le potentiel d’utilisation abusive ou d’accès non autorisé posent de graves risques pour la confidentialité des patients et la confiance dans le système de santé. En outre, le paysage réglementaire et juridique entourant l’utilisation de l’IA générative dans les soins de santé est encore en évolution, avec des questions concernant la responsabilité, la protection des données et la pratique de la médecine par des entités non humaines qui doivent encore être résolues. »

Même Thirunavukarasu, aussi optimiste qu’il soit sur l’IA générative dans les soins de santé, dit qu’il faut une « science rigoureuse » derrière les outils qui sont en contact avec les patients.

« En particulier sans la supervision directe du clinicien, il devrait y avoir des essais de contrôle randomisés pragmatiques démontrant un avantage clinique pour justifier le déploiement de l’IA générative orientée vers le patient », a-t-il déclaré. « Il est essentiel de mettre en place une gouvernance appropriée afin d’identifier tout préjudice imprévu à la suite d’un déploiement à grande échelle.

Récemment, l’Organisation mondiale de la santé a publié des lignes directrices qui préconisent ce type de surveillance scientifique et humaine de l’IA générative dans les soins de santé, ainsi que l’introduction de l’audit, de la transparence et des évaluations d’impact sur cette IA par des tiers indépendants. L’OMS précise dans ses lignes directrices que l’objectif est d’encourager la participation d’une cohorte diversifiée de personnes au développement de l’IA générative pour les soins de santé et de leur donner la possibilité d’exprimer leurs préoccupations et d’apporter leur contribution tout au long du processus.

« Tant que les préoccupations ne sont pas correctement prises en compte et que des garanties appropriées ne sont pas mises en place », a déclaré M. Borkowski, « la mise en œuvre généralisée de l’IA médicale générative pourrait être … potentiellement préjudiciable aux patients et à l’industrie des soins de santé dans son ensemble ».

IA