Humana est également accusée d’utiliser un outil d’IA avec un taux d’erreur de 90 % pour refuser les soins, selon une plainte.

Humana, l’un des principaux fournisseurs d’assurance maladie du pays, aurait utilisé un modèle d’intelligence artificielle avec un taux d’erreur de 90 % pour outrepasser le jugement médical des médecins et refuser à tort des soins aux personnes âgées sur les plans d’avantage Medicare de l’entreprise. La poursuite, déposée au tribunal fédéral de district de l’ouest du Kentucky, est menée par deux personnes qui avaient une police d’assurance Medicare Advantage de Humana et ont affirmé avoir été privées à tort des soins nécessaires et couverts, ce qui a nui à leur santé et à leurs finances. La poursuite demande le statut de classe d’action pour un nombre inconnu d’autres bénéficiaires du pays qui se trouvent peut-être dans des situations similaires. Humana offre des plans d’avantage Medicare à 5,1 millions de personnes aux États-Unis. C’est la deuxième poursuite visant l’utilisation par un assureur de l’outil nH Predict, développé par NaviHealth pour prédire la durée de traitement dont auront besoin les patients après une blessure, une maladie ou un événement médical. En novembre, les successions de deux personnes décédées ont intenté une action contre UnitedHealth – la plus grande entreprise d’assurance maladie aux États-Unis – pour avoir également utilisé nH Predict pour refuser à tort des soins. Humana n’a pas répondu aux demandes de commentaires d’Ars au moment de la publication initiale de cet article, mais un porte-parole a fourni ultérieurement une déclaration mettant l’accent sur le fait qu’il y a « un être humain dans la boucle » chaque fois que des outils d’IA sont utilisés. Il continue:

Share the Post: