mardi, novembre 26, 2024

L’IA ne peut pas être utilisée pour refuser la couverture des soins de santé, précise le gouvernement fédéral aux assureurs

Agrandir / Un résident d’une maison de retraite est poussé dans un couloir par une infirmière.

Les compagnies d’assurance maladie ne peuvent pas utiliser d’algorithmes ou d’intelligence artificielle pour déterminer les soins ou refuser la couverture aux membres des plans Medicare Advantage, ont précisé les Centers for Medicare & Medicaid Services (CMS) dans une note envoyée à tous les assureurs Medicare Advantage.

Le mémo, formaté comme une FAQ sur les règles du plan Medicare Advantage (MA), intervient quelques mois seulement après que des patients ont intenté des poursuites, affirmant que UnitedHealth et Humana utilisaient un outil profondément défectueux basé sur l’IA pour refuser des soins aux patients âgés bénéficiant des plans MA. Les poursuites, qui demandent le statut de recours collectif, se concentrent sur le même outil d’IA, appelé nH Predict, utilisé par les deux assureurs et développé par NaviHealth, une filiale de UnitedHealth.

Selon les poursuites, NH Predict produit des estimations draconiennes sur la durée pendant laquelle un patient aura besoin de soins post-aigus dans des établissements tels que des maisons de retraite qualifiées et des centres de réadaptation après une blessure, une maladie ou un événement aigu, comme une chute ou un accident vasculaire cérébral. Et les employés de NaviHealth sont confrontés à des mesures disciplinaires s’ils s’écartent des estimations, même si celles-ci ne correspondent souvent pas aux recommandations des médecins prescripteurs ou aux règles de couverture de Medicare. Par exemple, alors que les plans MA fournissent généralement jusqu’à 100 jours de soins couverts dans une maison de retraite après un séjour à l’hôpital de trois jours, en utilisant nH Predict, les patients bénéficiant du plan MA de UnitedHealth restent rarement dans des maisons de retraite pendant plus de 14 jours avant de recevoir des refus de paiement. , affirment les poursuites.

Avertissement spécifique

On ne sait pas exactement comment fonctionne nH Predict, mais il aurait utilisé une base de données de 6 millions de patients pour développer ses prédictions. Pourtant, selon des personnes familières avec le logiciel, il ne prend en compte qu’un petit ensemble de facteurs liés au patient, et non un aperçu complet de la situation individuelle d’un patient.

C’est un non-non clair, selon le mémo du CMS. Pour les décisions de couverture, les assureurs doivent « fonder la décision sur la situation de chaque patient, de sorte qu’un algorithme qui détermine la couverture sur la base d’un ensemble de données plus large au lieu des antécédents médicaux du patient, des recommandations du médecin ou des notes cliniques ne serait pas conforme », le CMS a écrit.

Le CMS a ensuite fourni une hypothèse qui correspond aux circonstances exposées dans les poursuites, en écrivant :

Dans un exemple impliquant une décision de mettre fin aux services de soins post-aigus, un algorithme ou un outil logiciel peut être utilisé pour aider les prestataires ou les plans d’AM à prédire une durée potentielle de séjour, mais cette prédiction à elle seule ne peut pas être utilisée comme base pour mettre fin aux services de soins post-aigus. services de soins aigus.

Au lieu de cela, écrit le CMS, pour qu’un assureur mette fin à la couverture, l’état de chaque patient doit être réévalué et le refus doit être basé sur des critères de couverture publiés publiquement sur un site Web non protégé par mot de passe. De plus, les assureurs qui refusent des soins « doivent fournir une explication spécifique et détaillée pour laquelle les services ne sont plus raisonnables et nécessaires ou ne sont plus couverts, y compris une description des critères et règles de couverture applicables ».

Dans les poursuites, les patients ont affirmé que lorsque la couverture des soins recommandés par leur médecin avait été refusée à tort de manière inattendue, les assureurs ne leur avaient pas donné d’explications complètes.

fidélité

Au total, le CMS constate que les outils d’IA peut être utilisé par les assureurs lors de l’évaluation de la couverture, mais en réalité uniquement comme un contrôle pour s’assurer que l’assureur respecte les règles. Un « algorithme ou un outil logiciel ne doit être utilisé que pour garantir la fidélité » aux critères de couverture, a écrit le CMS. Et comme « les critères de couverture affichés publiquement sont statiques et immuables, l’intelligence artificielle ne peut pas être utilisée pour modifier les critères de couverture au fil du temps » ou appliquer des critères de couverture cachés.

Le CMS évite tout débat sur ce qui constitue une intelligence artificielle en lançant un avertissement général sur les algorithmes et l’intelligence artificielle. « De nombreux termes se chevauchent et sont utilisés dans le contexte d’outils logiciels en développement rapide », écrit le CMS.

Les algorithmes peuvent impliquer un organigramme décisionnel composé d’une série d’énoncés « si-alors » (c’est-à-dire que si le patient a un certain diagnostic, il devrait pouvoir subir un test), ainsi que des algorithmes prédictifs (prédire la probabilité d’une admission future, Par exemple). L’intelligence artificielle a été définie comme un système basé sur une machine qui peut, pour un ensemble donné d’objectifs définis par l’homme, faire des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels. Les systèmes d’intelligence artificielle utilisent des entrées basées sur la machine et l’humain pour percevoir les environnements réels et virtuels ; résumer ces perceptions dans des modèles grâce à une analyse automatisée ; et utiliser l’inférence de modèle pour formuler des options d’information ou d’action.

Le CMS s’inquiète également ouvertement du fait que l’utilisation de l’un ou l’autre de ces types d’outils puisse renforcer la discrimination et les préjugés – ce qui s’est déjà produit avec les préjugés raciaux. Le CMS a averti les assureurs de s’assurer que tout outil ou algorithme d’IA qu’ils utilisent « ne perpétue pas ou n’exacerbe pas les préjugés existants, ni n’introduit de nouveaux préjugés ».

Bien que le mémo soit dans son ensemble une clarification explicite des règles d’AM existantes, le CMS a fini par avertir les assureurs qu’il augmente ses activités d’audit et « surveillera de près si les plans d’AM utilisent et appliquent des critères de couverture internes qui ne se trouvent pas dans Medicare ». lois. » Le non-respect peut entraîner des lettres d’avertissement, des plans d’actions correctives, des sanctions pécuniaires et des sanctions d’inscription et de commercialisation.

Source-147

- Advertisement -

Latest