C'est vraiment pénible ces commentaires...
Pour l'accident de Paris, je ne sais pas si l'auto-pilote est en cause. De ce que j'ai vu lors d'un "Tesla AI Day" (présentation de Tesla sur l'intelligence artificielle), la voiture film et enregistre des informations de conduite lorsque l'auto pilote est activé. Dès l'instant où l'utilisateur intervient pour mettre fin à l'auto-pilote, la Tesla considère cette action comme étant un "échec" de l'auto-pilote et envoie des données chez Tesla.
Ces données sont ensuite traitées par les calculateurs de Tesla et peuvent être utilisées pour mettre à jour l'algorithme d'auto-pilote (du "machine learning" pour ceux qui ont quelques notions).
Sur le plan "engineering", je trouve personnellement cela vraiment intéressant.
Cet accident est bien sur une mauvaise publicité pour Tesla et ca me parait normal qu'ils essaient de démontrer que le conducteur est en faute, pas la voiture. Il y a eu un cas dans le passé (en Chine de mémoire) où un utilisateur avait fini par avoué avoir menti dès lors que Tesla a présenté les "logs" de la voiture. Maintenant, la question de "l'authenticité" de ces données reste légitime. Peut-être que la fameuse "boite noire" qu'on veut imposer aux constructeurs automobiles résoudra ce soucis?