Home Industrie et technologie Le Full Self-Driving de Tesla: Erreurs et Risques Dévoilés

Le Full Self-Driving de Tesla: Erreurs et Risques Dévoilés

by Chia
France, États-Unis

Le Full Self-Driving de Tesla : Des erreurs techniques préoccupantes lors des tests

Un récent test du système Full Self-Driving (FSD) supervisé de Tesla a révélé des « erreurs occasionnelles dangereuses ». Réalisé par AMCI, un cabinet de recherche automobile indépendant, ce test de plus de 1600 kilomètres a nécessité plus de 75 interventions de la part des conducteurs. Bien que le FSD puisse fonctionner correctement à de nombreuses reprises dans des scénarios identiques, il finit parfois par se dérégler de manière inattendue nécessitant ainsi l’intervention humaine.

Des statistiques alarmantes sur la sécurité

Les promesses d’Elon Musk concernant des voitures autonomes semblent encore éloignées de la réalité. Les systèmes avancés d’aide à la conduite (ADAS) tels qu’Autopilot et Full Self-Driving ne sont toujours pas classés comme des systèmes de niveau 3, ce qui impose au conducteur de rester vigilant et prêt à reprendre le contrôle à tout moment. Selon les statistiques de la NHTSA, entre juillet 2021 et mai 2022, Autopilot était impliqué dans 273 accidents sur 367 rapportés, avec au moins 17 incidents mortels recensés aux États-Unis.

Un test révélateur des failles du système

Au cours de ces essais, la Tesla Model 3 Performance 2024, équipée des dernières technologies, a montré des défaillances notables. Par exemple, lors d’un incident, le véhicule a grillé un feu rouge en milieu urbain alors que les feux étaient clairement visibles. Dans un autre cas, la voiture a franchi une double ligne jaune sur une route sinueuse, se retrouvant face à un trafic venant en sens inverse. De plus, le véhicule a arrêté son mouvement au feu vert, provoquant des situations potentiellement dangereuses.

Les préoccupations des experts

Guy Mangiamele, directeur des essais de l’AMCI, a souligné le caractère imprévisible du FSD. Il a noté que, bien qu’une situation soit réussie plusieurs fois, l’échec survenait de manière inexplicable lors d’une tentative ultérieure. David Stokols, PDG d’AMCI Global, a ajouté que cette situation peut engendrer une complaisance insidieuse chez les conducteurs, renforçant ainsi un faux sentiment de sécurité.

Récurrence des erreurs et enjeux de confiance

Ce n’est pas la première fois que des tests indépendants mettent en lumière les « erreurs occasionnelles dangereuses » des systèmes ADAS de Tesla. Geoffrey Fowler, chroniqueur technologique, a également exprimé ses inquiétudes quant à la mise à jour d’Autopilot, constatant des comportements risqués malgré les mises à jour logicielles. L’ambiguïté dans la communication de Tesla sur la nature de ses systèmes, souvent perçus comme autonomes, mais qui requièrent toujours une vigilance humaine, pose des questions cruciales sur la sécurité routière.

En résumé, bien que le système Full Self-Driving de Tesla montre un potentiel indéniable, les nombreux incidents et nécessités d’intervention signalent des lacunes sérieuses. La confiance entre la technologie et le public doit être soigneusement entretenue, car des erreurs fréquentes peuvent avoir des conséquences tragiques sur la sécurité routière.

Full Self-driving| Tesla| Automobile| Securite| Elon Musk| Technologie| Voiture Autonome| Conduite Assistee| Risques| Accidents| France| Etats-unis| Tesla FullSelfDriving Technologie SécuritéRoutière Automobile| Full Self-Driving Tesla

You may also like

Leave a Comment

Droits d’auteur © 2024 – onemedia.fr – Tous droits réservés