Que se passe-t-il lorsque ChatGPT tente de résoudre 50 000 problèmes de chariot ?

Voici la traduction en français du texte:

« Il y a un chiot sur la route. La voiture va trop vite pour s’arrêter à temps, mais changer de voie signifie que la voiture percutera un vieil homme sur le trottoir à la place. Quel choix feriez-vous? Peut-être plus important encore, quel choix ferait ChatGPT? Les startups de conduite autonome expérimentent désormais avec des assistants chatbot basés sur l’IA, y compris un système de conduite autonome qui utilisera ChatGPT pour expliquer ses décisions de conduite. Au-delà de l’annonce des feux rouges et des clignotants, les grands modèles de langage (LLMs) alimentant ces chatbots pourraient potentiellement devoir prendre des décisions morales, comme prioriser la sécurité des passagers ou des piétons. En novembre, une startup appelée Ghost Autonomy a annoncé des expériences avec ChatGPT pour aider son logiciel à naviguer dans son environnement. Mais la technologie est-elle prête? Kazuhiro Takemoto, un chercheur à l’Institut de technologie de Kyushu au Japon, a voulu vérifier si les chatbots pouvaient prendre les mêmes décisions morales que les humains lors de la conduite. Ses résultats ont montré que les LLMs et les humains ont à peu près les mêmes priorités, mais certains ont montré des écarts clairs. Après la sortie de ChatGPT en novembre 2022, il n’a pas fallu longtemps aux chercheurs pour lui demander de s’attaquer au Problème du Tramway, un dilemme moral classique. Ce problème demande aux gens de décider s’il est juste de laisser un tramway incontrôlable écraser et tuer cinq humains sur une voie ou de le dévier vers une voie différente où il ne tue qu’une seule personne. (ChatGPT choisissait généralement une seule personne). »

Share the Post: