Le controversé « Full Self Driving » de Tesla est désormais capable de quelques conduites assez avancées. Cependant, cela peut engendrer une complaisance injustifiée, selon des tests indépendants. Le système de conduite partiellement automatisé a présenté des comportements dangereux qui ont nécessité plus de 75 interventions humaines sur plus de 1 600 km de conduite en Californie du Sud, ce qui équivaut à environ une intervention tous les 21 km. AMCI Testing a évalué les versions 12.5.1 et 12.5.3 de FSD dans quatre environnements différents : les rues de la ville, les autoroutes rurales à deux voies, les routes de montagne et les autoroutes inter-États. Comme le montrent ses vidéos, FSD était parfois capable de comportements de conduite assez sophistiqués, comme se faufiler entre des voitures garées pour laisser passer un véhicule en sens inverse, ou se décaler vers la gauche pour laisser de l’espace aux piétons attendant au passage piétonnier que le feu passe au vert. AMCI a également salué FSD pour la façon dont il a négocié les virages aveugles en pleine campagne. « Il est indéniable que FSD 12.5.1 est impressionnant, pour la grande variété de réponses humaines qu’il parvient à obtenir, surtout pour un système basé sur la caméra », a déclaré Guy Mangiamele, directeur d’AMCI Testing. « Mais son apparence d’infaillibilité dans les cinq premières minutes de fonctionnement du FSD conduit inévitablement à une complaisance dangereuse. Lorsque les conducteurs utilisent le FSD, conduire les mains sur les genoux ou éloignées du volant est incroyablement dangereux. Comme vous le verrez dans les vidéos, les moments les plus critiques de miscalculation de FSD sont des événements qui nécessitent une réaction instantanée que même les conducteurs professionnels, opérant avec une attitude d’essai, doivent se concentrer pour anticiper », a déclaré Mangiamele. Les comportements dangereux rencontrés par AMCI comprenaient notamment le non-respect d’un feu rouge et le franchissement sur la voie de circulation opposée sur une route sinueuse alors qu’une autre voiture se dirigeait vers la Tesla. En outre, le comportement du FSD s’est avéré imprévisible, peut-être en raison de la dépendance de Tesla à l’apprentissage automatique probabiliste du « boîtier noir ».
« Outil de prédiction de protéines IA AlphaFold3 est maintenant plus ouvert »
‘Nous apprécions votre présence sur notre plateforme, nature.com. Nous avons remarqué que la version de votre navigateur pourrait poser des