Fact checking

L'incidente mortale con la macchina senza pilot della Tesla

tesla primo incidente mortale -1

Le macchine senza pilota sono più sicure di quelle guidate dagli esseri umani? Qualche tempo fa davamo conto del dibattito riguardante la capacità dei computer che controllano le cosiddette self driving car di compiere scelte morali, oggi invece è arrivata la notizia del primo incidente mortale nel quale è rimasto coinvolto l’autista (ma sarebbe meglio dire il passeggero) di una Tesla Model S. Si tratta del primo incidente di questo genere provocato da un errore del sistema di guida automatica. A quanto pare infatti al momento dell’impatto la vettura aveva il pilota automatico inserito.

Impossibile evitare la collisione

Stando a quanto riferisce il NYT l’incidente è avvenuto il 7 maggio in Florida; i rilievi della polizia stradale indicano che la causa del sinistro è stato un non specificato malfunzionamento della Tesla che non ha azionato i freni al momento in cui il mezzo pesante che la precedeva (un TIR) ha svoltato a sinistra. Il conducente, che era al volante non essendosi accorto del pericolo non è riuscito a prendere il controllo della vettura ed è morto nell’impatto. A quanto pare si tratta di Joshua Brown, 40 anni, abbastanza noto sull’Internet in quanto entusiasta “collaudatore” della tecnologia messa a punto dall’azienda di Elon Musk e soprattutto perché ad aprile aveva evitato un incidente proprio grazie al pilota automatico della sua Tesla che lo aveva avvertito di una possibile collisione. Le polemiche non sono legate tanto alla sicurezza del sistema quanto al fatto che gli utenti delle auto senza pilota si prendano spesso e volentieri troppe libertà. Ad esempio in questo video Brown si filma mentre “guida” senza mani (a dire il vero mentre l’auto è incolonnata e procede molto lentamente).

Il che in caso di rischio improvviso impedirebbe di poter disabilitare il pilota automatico e tornare alla guida manuale per evitare un’eventuale collisione. In merito all’incidente e all’indagine in corso sulla sicurezza del suo sistema di guida Tesla ha rilasciato una dichiarazione dove si parla di una tragica perdita ma ricorda che questo è il primo incidente mortale in poco più di 130 milioni di miglia “guidate” dall’Autopilot; in confronto le macchine normali negli Stati Uniti causano un incidente mortale ogni 94 milioni di miglia mentre la media mondiale è di circa un incidente mortale ogni sessanta milioni di miglia. Secondo Tesla quindi il sistema di guida assistita nonostante la morte di Brown rimane ancora più sicuro di quello tradizionale:

What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S. Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S. Had the Model S impacted the front or rear of the trailer, even at high speed, its advanced crash safety system would likely have prevented serious injury as it has in numerous other similar incidents.

L’azienda ricorda anche che il sistema di guida assistita richiede che il conducente tenga sempre entrambe le mani sul volante, in modo da poter intervenire in ogni momento; gli utenti delle Tesla devono essere costantemente in controllo della propria vettura e non devono delegare tutte le funzioni di guida al computer anche perché il sistema è ancora in fase di beta testing.

Cosa faresti se fossi il pilota automatico?

Molti hanno paura che la tecnologia non sia matura e che i computer che controllano le macchine come la Tesla o la Google Car manchino di senso morale. Perché allora non cimentarsi nei dilemmi morali che potrebbero porsi di fronte ai computer di bordo durante la navigazione? Ci ha pensato il MIT che ha messo online un sito, moralmachine, dove ci viene chiesto cosa dovrebbe fare un computer quando si trova di fronte alla possibilità di una collisione che potrebbe uccidere dei pedoni o gli occupanti del veicolo. È lo stesso genere di domanda che potrebbe essere posta anche ad un normale automobilista e non sempre la risposta è scontata. Naturalmente si tratta di un modello teorico, difficile che la macchina (o anche un guidatore normale) sappiano che stanno per investire un medico e che quindi possano compiere una scelta “ponderata” in base al “valore” della vita delle singole persone. Quello che per noi esseri umani è puro istinto però per i computer è frutto di calcolo, ed è interessante trovarsi di fronte alle modalità con le quali potrebbe operare una scelta il computer. Di fatto però si tratta dell’ennesima versione dei famosissimi trolley problems.