La rĂ©cente vidĂ©o virale d’une Tesla contestant la sĂ©curitĂ© de son système de conduite autonome a encore une fois mis l’entreprise sur le devant de la scène, mais pas pour les bonnes raisons. L’incident, oĂą une voiture a franchi un passage Ă niveau sans prĂŞter attention aux barrières, soulève de sĂ©rieuses questions sur le système FSD (Full Self-Driving) et la fiabilitĂ© de cette technologie.

Les rĂ©vĂ©lations d’une vidĂ©o inquiĂ©tante
La vidĂ©o a Ă©tĂ© partagĂ©e par un utilisateur nommĂ© Laushi Liu, montrant sa Tesla Model 3 en mode autonome Ă proximitĂ© de West Covina, en Californie. Alors que le vĂ©hicule approchait d’un passage Ă niveau, les barrières venaient de se baisser, mais la voiture a continuĂ© son chemin, frĂ´lant un train. Heureusement, l’utilisateur a rĂ©ussi Ă reprendre le contrĂ´le Ă temps, mais le choc est palpable. Ce type d’#incident remet en question la sĂ©curitĂ© du FSD, notamment dans le cadre d’une controverse qui grandit autour de cette feature.
Les limites du système FSD
Cette situation rappelle aux consommateurs que, malgrĂ© le nom prometteur de « Full Self-Driving », la technologie repose encore sur un niveau d’automatisation de niveau 2. Cela implique que le conducteur doit ĂŞtre vigilant et prĂŞt Ă intervenir Ă tout moment. Malade de la mauvaise presse, Tesla fait face Ă une enquĂŞte de la National Highway Traffic Safety Administration (NHTSA) suite Ă cet incident, alors que l’entreprise doit transmettre des donnĂ©es sur de potentielles dĂ©faillances.
| Type d’incident | Nombre d’incidents |
|---|---|
| Accidents impliquant le FSD | 58 |
| Blessés | 23 |
| Accidents graves | 14 |
Cette vidĂ©o surprise et d’autres incidents similaires augmentent la pression sur Tesla, surtout alors que l’entreprise peine Ă examiner près de 8 300 dossiers d’accidents liĂ©s au FSD. La demande d’une prolongation de dĂ©lai pour la remise des informations Ă la NHTSA en dit long sur la complexitĂ© de la situation actuelle.

Un contexte déjà tendu
La publication de cette vidĂ©o survient alors que Tesla a dĂ©jĂ du mal Ă maintenir une image de marque solide. Les ventes ont chutĂ© et les controverses autour d’Elon Musk n’ont rien fait pour amĂ©liorer la perception du public. L’impact de cette vidĂ©o pourrait s’Ă©tendre au-delĂ des simples discussions en ligne, en influençant les dĂ©cisions d’achat des consommateurs qui semblent de plus en plus rĂ©ticents face Ă ce type de technologie.
Les attentes des consommateurs vs. la réalité du FSD
Les vidĂ©os comme celle-ci soulignent les attentes irrĂ©alistes que certains utilisateurs peuvent avoir envers le FSD, pensant qu’il pourrait remplacer totalement un conducteur humain. ÉlĂ©ment Ă ne pas nĂ©gliger, ce système est encore loin d’ĂŞtre parfait, et de nombreux tĂ©moignages, comme ceux mentionnĂ©s dans cet article sur 01net, Ă©tayent ces prĂ©occupations.
- Risque accru d’accidents aux passages Ă niveau
- DĂ©faillances notables dans la dĂ©tection d’obstacles
- Pression réglementaire croissante sur Tesla
Qu’est-ce que le système Full Self-Driving de Tesla ?
Le FSD est un système d’aide Ă la conduite qui permet Ă certaines fonctionnalitĂ©s d’ĂŞtre automatisĂ©es, mais qui nĂ©cessite toujours que le conducteur reste vigilant.
Quels incidents ont été rapportés avec le FSD ?
Plusieurs incidents, y compris des accidents graves et des cas de non-dĂ©tection d’obstacles, ont Ă©tĂ© signalĂ©s lors de l’utilisation du FSD.
Que fait Tesla face Ă cette controverse ?
Tesla doit fournir des informations Ă la NHTSA sur les incidents liĂ©s au FSD. L’entreprise fait actuellement face Ă une enquĂŞte.
PassionnĂ© par l’automobile depuis mon enfance, j’explore chaque recoin de l’univers automobile. Ă€ 41 ans, je partage mon expertise et mes dĂ©couvertes pour Ă©veiller votre passion Ă travers des articles, des conseils et des analyses. Rejoignez-moi dans cette aventure sous le signe de la performance et du design.

