Qui un articolo che descrive la dinamica dell'incidente:
http://www.msn.com/en-us/news/us/us-opens-investigation-after-fatal-crash-of-tesla-in-autopilot-mode/ar-AAhOVGQ?ocid=ansmsnnews11Nel topic andato in malora in cui si toccò questo argomento si ragionava sui rischi derivanti dai limiti degli algoritmi che governano questi sistemi, in quanto non sembrano ancora in grado di districarsi in situazioni particolarmente complesse come quelle del traffico cittadino e delle sue infinite variabili.
Nell'incidente del 7 maggio in Florida, però, la questione sembra più "banale" (e per questo, forse, più grave): il sistema automatico non ha riconosciuto il fianco bianco di un TIR che incrociava il suo percorso, confondendolo con lo sfondo del cielo molto luminoso.
Insomma, un problema di videocamera e di decifrazione delle immagini, più che di interpretazione di una situazione imprevista.
C'è senz'altro da lavorare parecchio.
Quanto al guidatore "distratto", la considero un'anomalia fino a un certo punto.
Se si trattava - come penso - di un collaudatore professionista, allora si è certamente comportato da imbecille, perché doveva sapere che era necessaria la massima attenzione alla guida di un veicolo sperimentale.
Se però ragioniamo in termini di possibile immissione di questi veicoli sul mercato, è inevitabile che chi si trovasse a bordo di essi affidandosi al pilota automatico avrebbe una soglia di attenzione minore rispetto a chi guida davvero.
La situazione, infatti, è ben diversa da quella degli aeroplani, laddove, in caso di avaria, anche il pilota rilassato o distratto ha tutto il tempo di riprendere il controllo.
Per cui non avrebbe molto senso, a mio avviso, sostenere che le autovetture a guida interamente automatica "si possono mettere in circolazione con l'avvertenza al guidatore che resta a lui la responsabilità ultima di controllare il comportamento del veicolo".
Per ora si potranno mettere in vendita autovetture con
ausili alla guida sempre più sviluppati.
Ma per la guida
interamente automatica (o di "livello 4", come viene definito) bisognerà aspettare che sia perfettamente rodata.
Riprendo poi il filo del vecchio discorso anche in relazione alla necessità di comprendere a fondo i criteri con cui sono elaborati gli algoritmi che regolano i comportamenti di queste vetture in caso di emergenza.
Mi domandavo nel topic precedente:
1) Chi ha la responsabilità penale (che è profilo ben diverso da quello del risarcimento economico, affidato alle assicurazioni) in caso di incidenti gravi?
Il passeggero? Il costruttore/programmatore del software?
2) Chi definisce i profili etici che investono gli algoritmi posti alla base dei sistemi a guida automatica?
(Un esempio: un gatto mi attraversa la strada senza che vi sia spazio sufficiente per la frenata: il veicolo deve tirare dritto, avendo la certezza di uccidere il gatto ed evitando il mero rischio che una sterzata procuri uno sbandamento e un possibile danno ai passeggeri?
E se la strada è attraversata da un bambino anziché da un gatto?)
Quando si passa dalla fantascienza alla realtà, non bastano le leggi della robotica di Asimov...
Ovviamente tali questioni non me le pongo solo io:
http://www.tuttomotoriweb.com/2016/06/30/auto-senza-pilota-segreti-del-codice-della-morte/