L’intelligence artificielle est une responsabilité

Comment les grandes modèles fondateurs d’intelligence artificielle, qui prédisent le texte et peuvent catégoriser des images et des discours, ressemblent plus à une responsabilité qu’à un atout. Jusqu’à présent, les dommages en dollars ont été minimes. En 2019, un conducteur de Tesla qui faisait fonctionner son véhicule avec l’aide du logiciel Autopilot de la société a grillé un feu rouge et a heurté un autre véhicule. Les occupants sont morts et le conducteur de Tesla a été condamné la semaine dernière à payer 23 000 dollars de réparations. Tesla a émis peu de temps après un rappel de deux millions de véhicules pour réviser son logiciel Autopilot suite à une enquête de l’Administration nationale américaine de la sécurité routière (NHTSA) qui a conclu que les contrôles de sécurité d’Autopilot étaient insuffisants. Vingt-trois mille dollars, ce n’est pas beaucoup pour deux vies, mais les familles concernées poursuivent des poursuites civiles contre le conducteur et contre Tesla, de sorte que le coût peut augmenter. On dit qu’il y a au moins une douzaine de procès en cours impliquant Autopilot aux États-Unis. Pendant ce temps, dans le secteur des soins de santé, UnitedHealthcare fait l’objet d’une poursuite parce que, selon les accusations, le modèle nH Predict AI qu’elle a acquis lors de son acquisition de Navihealth en 2020 a refusé aux personnes âgées assurées les soins post-acutaires nécessaires.

Share the Post: