L’intelligence artificielle est une responsabilité

Comment l’intelligence artificielle, qui représente de grands modèles fondamentaux permettant de prédire du texte et de catégoriser des images et des discours, ressemble davantage à une responsabilité qu’à un atout. Jusqu’à présent, les dommages en dollars ont été minimes. En 2019, un conducteur de Tesla qui faisait fonctionner son véhicule avec l’aide du logiciel Autopilot de la société a franchi un feu rouge et a percuté un autre véhicule. Les occupants ont été tués et le conducteur de Tesla a été condamné la semaine dernière à payer 23 000 dollars de réparation. Tesla a procédé environ au même moment à un rappel de deux millions de véhicules pour modifier son logiciel Autopilot en réponse à une enquête de l’Administration nationale américaine de la sécurité routière (NHTSA) qui a conclu que les contrôles de sécurité d’Autopilot étaient insuffisants. Vingt-trois mille dollars, ce n’est pas beaucoup pour deux vies, mais les familles concernées poursuivent des actions civiles contre le conducteur et contre Tesla, de sorte que le coût pourrait augmenter. On dit qu’il y a au moins une douzaine de procès en cours impliquant Autopilot aux États-Unis. Pendant ce temps, dans le secteur des soins de santé, UnitedHealthcare fait l’objet d’une poursuite car, selon les allégations, le modèle nH Predict AI qu’elle a acquis lors de son acquisition de Navihealth en 2020 a refusé aux assurés âgés les soins post-acutaires nécessaires.

Share the Post: