En effet, les données de santé telles que l’imagerie médicale, les signes vitaux et les données des appareils portables peuvent varier pour des raisons non liées à un état de santé particulier, telles que le mode de vie ou le bruit de fond. Les algorithmes d’apprentissage automatique popularisés par l’industrie technologique sont si bons pour trouver des modèles qu’ils peuvent découvrir des raccourcis vers des réponses « correctes » qui ne fonctionneront pas dans le monde réel. Des ensembles de données plus petits permettent aux algorithmes de tricher plus facilement de cette façon et de créer des angles morts qui entraînent de mauvais résultats en clinique. « Les imbéciles de la communauté [itself] en pensant que nous développons des modèles qui fonctionnent bien mieux qu’ils ne le font réellement », déclare Berisha. « Cela renforce le battage médiatique de l’IA. »
Berisha dit que ce problème a conduit à une tendance frappante et préoccupante dans certains domaines de la recherche sur les soins de santé en IA. Dans des études utilisant des algorithmes pour détecter les signes de la maladie d’Alzheimer ou de troubles cognitifs dans les enregistrements de la parole, Berisha et ses collègues ont constaté que les études plus importantes rapportaient une moins bonne précision que les plus petites, à l’opposé de ce que les mégadonnées sont censées fournir. Un examen des études tentant d’identifier les troubles cérébraux à partir d’analyses médicales et un autre pour les études essayant de détecter l’autisme avec l’apprentissage automatique ont rapporté un schéma similaire.
Les dangers des algorithmes qui fonctionnent bien dans les études préliminaires mais se comportent différemment sur les données réelles des patients ne sont pas hypothétiques. Une étude de 2019 a révélé qu’un système utilisé sur des millions de patients pour donner la priorité à l’accès à des soins supplémentaires pour les personnes ayant des problèmes de santé complexes faisait passer les patients blancs avant les patients noirs.
Éviter de tels systèmes biaisés nécessite des ensembles de données volumineux et équilibrés et des tests minutieux, mais les ensembles de données biaisés sont la norme dans la recherche sur l’IA en santé, en raison des inégalités de santé historiques et actuelles. Une étude réalisée en 2020 par des chercheurs de Stanford a révélé que 71 % des données utilisées dans les études qui appliquaient l’apprentissage en profondeur aux données médicales américaines provenaient de la Californie, du Massachusetts ou de New York, avec peu ou pas de représentation des 47 autres États. Les pays à faible revenu sont à peine représentés dans les études sur les soins de santé de l’IA. Une revue publiée l’année dernière de plus de 150 études utilisant l’apprentissage automatique pour prédire les diagnostics ou l’évolution de la maladie a conclu que la plupart « présentent une mauvaise qualité méthodologique et présentent un risque élevé de biais ».
Deux chercheurs préoccupés par ces lacunes ont récemment lancé une organisation à but non lucratif appelée Nightingale Open Science pour essayer d’améliorer la qualité et l’échelle des ensembles de données disponibles pour les chercheurs. Il travaille avec les systèmes de santé pour organiser des collections d’images médicales et de données associées à partir de dossiers de patients, les anonymiser et les rendre disponibles pour la recherche à but non lucratif.
Ziad Obermeyer, cofondateur de Nightingale et professeur agrégé à l’Université de Californie à Berkeley, espère que l’accès à ces données encouragera la concurrence qui mènera à de meilleurs résultats, à l’instar de la façon dont de grandes collections ouvertes d’images ont contribué à stimuler les progrès de l’apprentissage automatique. « Le cœur du problème est qu’un chercheur peut faire et dire ce qu’il veut dans les données sur la santé, car personne ne peut jamais vérifier ses résultats », dit-il. « Les données [is] verrouillé. »
Nightingale rejoint d’autres projets visant à améliorer l’IA des soins de santé en améliorant l’accès et la qualité des données. Le Lacuna Fund soutient la création d’ensembles de données d’apprentissage automatique représentant les pays à revenu faible et intermédiaire et travaille sur les soins de santé ; un nouveau projet aux hôpitaux universitaires de Birmingham au Royaume-Uni avec le soutien du National Health Service et du MIT élabore des normes pour évaluer si les systèmes d’IA sont ancrés dans des données impartiales.
Mateen, rédacteur en chef du rapport britannique sur les algorithmes pandémiques, est un fan de projets spécifiques à l’IA comme ceux-ci, mais affirme que les perspectives de l’IA dans les soins de santé dépendent également de la modernisation des systèmes de santé de leur infrastructure informatique souvent grinçante. « Vous devez investir là à la racine du problème pour voir les avantages », dit Mateen.
Plus de grandes histoires WIRED