Que se passe-t-il lorsque ChatGPT tente de résoudre 50 000 problèmes de tramway ?

Voici la traduction en français : « Il y a un chiot sur la route. La voiture va trop vite pour s’arrêter à temps, mais dévier signifie que la voiture va heurter un vieil homme sur le trottoir à la place. Quel choix feriez-vous ? Plus important encore, quel choix ferait ChatGPT ? Les startups de conduite autonome expérimentent maintenant avec des assistants chatbots d’IA, y compris un système de conduite autonome qui utilisera un pour expliquer ses décisions de conduite. Au-delà d’annoncer les feux rouges et les clignotants, les grands modèles de langage (GML) alimentant ces chatbots devront éventuellement prendre des décisions morales, comme prioriser la sécurité des passagers ou des piétons. En novembre, une startup appelée Ghost Autonomy a annoncé des expériences avec ChatGPT pour aider son logiciel à naviguer dans son environnement. Mais la technologie est-elle prête ? Kazuhiro Takemoto, chercheur à l’Institut de technologie de Kyushu au Japon, voulait vérifier si les chatbots pouvaient prendre les mêmes décisions morales que les humains en conduisant. Ses résultats ont montré que les GML et les humains ont à peu près les mêmes priorités, mais certains ont montré des écarts clairs. Après la sortie de ChatGPT en novembre 2022, il n’a pas fallu longtemps aux chercheurs pour lui demander de s’attaquer au Problème du tramway, un dilemme moral classique. Ce problème demande aux gens de décider s’il est juste de laisser un tram fou foncer et tuer cinq humains sur une voie ou de le diriger vers une voie différente où il ne tue qu’une seule personne. (ChatGPT choisissait généralement une personne.) »

Share the Post: