Lo sappiamo, per Elon Musk, la “guida completamente autonoma” di Tesla rappresenta il cuore dei suoi piani per i robotaxi e per gli altri veicoli dell’azienda. Il sistema FSD, Full Self Driving è infatti la pietra angolare della nuova Tesla. Più volte abbiamo sottolineato come Musk veda il brand come una società nascente che si occupa in particolar modo di intelligenza artificiale. Però, come provato in molti contesti e test, la guida autonoma è tutt’altro che perfetta.
Pare che l’FSD, il sistema di guida autonoma, potrebbe soffrire di un “difetto fondamentale” nel software, secondo un’inchiesta del Wall Street Journal. Negli Stati Uniti, numerosi incidenti sono stati attribuiti a questo sistema. L’autorità federale statunitense ha sottolineato che “Autopilot ha causato un uso improprio e incidenti che erano evitabili”.
Attualmente è necessario seguire un corso per poter utilizzare il sistema, ma molti continuano a diffidare del sistema e dell’insistenza di Musk: la sua sicurezza risiede nel risolvere i difetti con telecamere e software. La guida autonoma dell’Autopilot di Tesla utilizza una serie di telecamere posizionate davanti, dietro e ai lati del veicolo per monitorare gli elementi e i mezzi presenti sulla strada. Queste telecamere analizzano costantemente l’ambiente circostante. Nei casi peggiori, però, un ostacolo potrebbe non essere riconosciuto e l’auto potrebbe continuare la sua corsa senza accorgersene. Proprio questo difetto è stato evidenziato dall’indagine del Wall Street Journal, che ha analizzato più di 200 incidenti con veicoli Tesla dotati del sistema di guida autonoma.
Dei 1.000 incidenti segnalati da Tesla alla NHTSA (National Highway Traffic Safety Administration), il Wall Street Journal ha analizzato 222 casi. Di questi, 44 incidenti vedono i veicoli deviare improvvisamente dal loro percorso e 31 non si sono fermati o non hanno dato la precedenza.
Phil Koopman, professore associato di ingegneria elettrica e informatica alla Carnegie Mellon University, ha dichiarato: “I tipi di problemi che si verificano con questi sistemi sono del tipo: il sistema non è stato addestrato a riconoscere un semirimorchio ribaltato sulla strada, semplicemente non sa cosa sia”. L’esperto ha aggiunto che l’apprendimento automatico funziona con molti esempi. “Se ti imbatti in qualcosa di cui non hai molti esempi, potresti non avere la minima idea di cosa stia succedendo”.
Secondo l’inchiesta, il “difetto fondamentale” della tecnologia Autopilot e del software FSD di Tesla è la dipendenza esclusiva dalle telecamere. In seconda battuta, dagli esempi di apprendimento automatico. Questo si deve all’ostinazione di Elon Musk nel risparmiare sui costi utilizzando solo telecamere, evitando sensori come radar e lidar, che Tesla utilizzava fino a qualche anno fa.
Altri produttori di automobili, invece, utilizzano sensori più avanzati nei loro software di guida autonoma. Si tratta di componenti più costosi, ma offrono una sicurezza aggiuntiva. Se la telecamera non rileva un ostacolo, radar e lidar possono segnalare la sua presenza. Produttori come Nio, Xpeng, Volvo, Honda e Mercedes utilizzano una combinazione di telecamere, radar e lidar nei loro sistemi di guida autonoma.