Humana, l’un des principaux fournisseurs d’assurances maladie des États-Unis, aurait utilisé un modèle d’intelligence artificielle avec un taux d’erreur de 90 % pour contourner le jugement médical des médecins et refuser indûment des soins aux personnes âgées sous ses plans d’assurance Medicare Advantage. La poursuite, déposée au tribunal fédéral de Kentucky occidental, est menée par deux personnes qui avaient une police d’assurance Medicare Advantage de Humana et ont affirmé que des soins nécessaires et couverts leur avaient été refusés, nuisant à leur santé et à leurs finances. La poursuite demande le statut de classe d’action pour un nombre inconnu d’autres bénéficiaires du pays qui pourraient être dans des situations similaires. Humana fournit des plans Medicare Advantage à 5,1 millions de personnes aux États-Unis. C’est la deuxième poursuite visant l’utilisation par une compagnie d’assurances d’un outil d’IA nH Predict, développé par NaviHealth pour prédire combien de temps les patients auront besoin de soins après une blessure, une maladie ou un événement médical. En novembre, les successions de deux défunts ont intenté une action contre UnitedHealth – la plus grande compagnie d’assurances de santé des États-Unis – pour sa prétendue utilisation également de nH Predict pour refuser indûment des soins. Humana n’a pas répondu à la demande d’Ars de commentaire lors de la première publication de cet article, mais un porte-parole a fourni ultérieurement une déclaration mettant l’accent sur le fait qu’il y a «un être humain dans la boucle» chaque fois que des outils d’IA sont utilisés. Il continue:
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)