En ce qui concerne l’intelligence artificielle, le battage médiatique, l’espoir et le pressentiment sont soudainement partout. Mais la technologie turbulente a longtemps provoqué des vagues dans les soins de santé : de l’incursion ratée d’IBM Watson dans les soins de santé (et l’espoir de longue date que les outils d’IA pourraient un jour battre les médecins pour détecter le cancer sur des images médicales) aux problèmes réalisés de préjugés raciaux algorithmiques .
Mais, derrière la mêlée publique de la fanfare et des échecs, il y a une réalité chaotique de déploiements qui est en grande partie passée sous silence. Pendant des années, les systèmes de santé et les hôpitaux ont été aux prises avec des tentatives inefficaces et, dans certains cas, vouées à l’échec d’adopter des outils d’IA, selon une nouvelle étude menée par des chercheurs de l’Université Duke. L’étude, publiée en ligne sous forme de préimpression, lève le rideau sur ces implémentations désordonnées tout en recherchant les leçons apprises. Au milieu des révélations révélatrices de 89 professionnels impliqués dans les déploiements dans 11 organisations de soins de santé, dont Duke Health, Mayo Clinic et Kaiser Permanente, les auteurs assemblent un cadre pratique que les systèmes de santé peuvent suivre lorsqu’ils essaient de déployer de nouveaux outils d’IA .
Et de nouveaux outils d’IA continuent d’arriver. Pas plus tard que la semaine dernière, une étude publiée dans JAMA Internal Medicine a révélé que ChatGPT (version 3.5) surpassait de manière décisive les médecins en fournissant des réponses empathiques de haute qualité aux questions médicales que les personnes postaient sur le subreddit r/AskDocs. Les réponses supérieures, jugées subjectivement par un panel de trois médecins ayant une expertise médicale pertinente, suggèrent qu’un chatbot d’IA tel que ChatGPT pourrait un jour aider les médecins à faire face au fardeau croissant de répondre aux messages médicaux envoyés via des portails de patients en ligne.
Ceci est un exploit. L’augmentation des messages aux patients est liée à des taux élevés d’épuisement professionnel des médecins. Selon les auteurs de l’étude, un outil de chat IA efficace pourrait non seulement réduire ce fardeau épuisant – en soulageant les médecins et en les libérant pour diriger leurs efforts ailleurs – mais il pourrait également réduire les visites inutiles au cabinet, stimuler l’adhésion des patients et le respect des conseils médicaux, et améliorer les résultats de santé des patients en général. De plus, une meilleure réactivité de la messagerie pourrait améliorer l’équité pour les patients en offrant plus d’assistance en ligne aux patients qui sont moins susceptibles de planifier des rendez-vous, tels que ceux qui ont des problèmes de mobilité, des limitations de travail ou des craintes de factures médicales.
L’IA en réalité
Tout cela semble formidable, comme une grande partie de la promesse des outils d’IA pour les soins de santé. Mais il y a de grandes limites et mises en garde à l’étude qui rendent le potentiel réel de cette application plus difficile qu’il n’y paraît. Pour commencer, les types de questions que les gens posent sur un forum Reddit ne sont pas nécessairement représentatifs de celles qu’ils poseraient à un médecin qu’ils connaissent et (espérons-le) en qui ils ont confiance. Et la qualité et les types de réponses que les médecins bénévoles offrent à des personnes aléatoires sur Internet peuvent ne pas correspondre à celles qu’ils donnent à leurs propres patients, avec lesquels ils ont une relation établie.
Mais, même si les principaux résultats de l’étude se sont maintenus dans de vraies interactions médecin-patient via de vrais systèmes de messagerie de portail patient, il y a de nombreuses autres étapes à suivre avant qu’un chatbot puisse atteindre ses nobles objectifs, selon les révélations du Duke-led étude de prépublication.
Pour gagner du temps, l’outil d’IA doit être bien intégré aux applications cliniques d’un système de santé et au flux de travail établi de chaque médecin. Les cliniciens auraient probablement besoin d’un support technique fiable, potentiellement 24 heures sur 24, en cas de problèmes. Et les médecins devraient établir un équilibre de confiance dans l’outil – un équilibre tel qu’ils ne transmettent pas aveuglément les réponses générées par l’IA aux patients sans examen, mais savent qu’ils n’auront pas besoin de passer autant de temps à éditer les réponses que cela annule l’utilité de l’outil.
Et après avoir géré tout cela, un système de santé devrait établir une base de preuves que l’outil fonctionne comme espéré dans son système de santé particulier. Cela signifie qu’ils devraient développer des systèmes et des mesures pour suivre les résultats, comme la gestion du temps des médecins et l’équité, l’observance et les résultats pour la santé des patients.
Ce sont de lourdes demandes dans un système de santé déjà compliqué et lourd. Comme le notent les chercheurs du preprint dans leur introduction :
S’appuyant sur le Swiss Cheese Model of Pandemic Defense, chaque couche de l’écosystème de l’IA pour les soins de santé contient actuellement de grands trous qui rendent inévitable la large diffusion de produits peu performants.
L’étude a identifié un cadre en huit points basé sur les étapes d’une mise en œuvre lorsque des décisions sont prises, qu’elles émanent d’un cadre supérieur, d’un responsable informatique ou d’un clinicien de première ligne. Le processus implique : 1) l’identification et la priorisation d’un problème ; 2) identifier comment l’IA pourrait potentiellement aider ; 3) développer des moyens d’évaluer les résultats et les succès d’une IA ; 4) déterminer comment l’intégrer dans les flux de travail existants ; 5) valider la sécurité, l’efficacité et l’équité de l’IA dans le système de santé avant son utilisation clinique ; 6) déploiement de l’outil d’IA avec communication, formation et renforcement de la confiance ; 7) surveillance ; et 8) mettre à jour ou mettre hors service l’outil au fil du temps.