Il Dilemma delle Auto Autonome

di Manuel Caso Flòrez*

Cosa sceglierà l’auto: colpire un pedone o schiantarsi con il veicolo, mettendo in pericolo la vita di chi è dentro?

Cosa sceglierà l’auto – colpire un pedone o schiantarsi con il veicolo mettendo in pericolo la vita di chi si trova all’interno? Questa è una delle domande che sentiamo spesso quando si parla di veicoli autonomi e della loro intelligenza artificiale.

La risposta è che non si dovrebbe mai arrivare a quella situazione. È necessario lavorare con un approccio di sistema sicuro, che non permetta di arrivare a situazioni in cui si pone il dilemma di dover scegliere tra due vite umane. Probabilmente l’auto sarebbe dovuta andare più piano, a una velocità che le permettesse di frenare entro il campo di visibilità esistente, se è vicino a una scuola ancora più piano, e proprio per la sua capacità di analizzare milioni di dati quasi istantaneamente, avrebbe dovuto tenere conto se la strada era bagnata, lo stato delle gomme, il peso esatto dell’auto, la situazione degli altri veicoli e le loro velocità, le caratteristiche della strada o della via… e l’auto “imparerà” con l’esperienza, come facciamo noi umani ma molto più velocemente.

Associare i veicoli autonomi a situazioni pericolose è un errore che possiamo pagare caro.

Il sistema sicuro dovrebbe evitare la stragrande maggioranza dei dilemmi in cui c’è una scelta tra vite umane, ma che dire dei rari casi che rimangono? Chiariamo prima che associare i veicoli autonomi a situazioni pericolose è un errore che possiamo pagare caro. La previsione è che i veicoli autonomi ridurranno gli incidenti del 90%, cioè passeremmo da 1.830 morti all’anno sulle strade in Spagna (fonte DGT 2017), a 183 morti all’anno, o meglio, salveremmo 1.647 vite all’anno e migliaia di feriti e disabili permanenti, un grande progresso che firmeremmo tutti.

Ma è anche chiaro che le auto autonome non porranno fine a tutti gli incidenti, né il sistema sicuro porrà fine a tutte le situazioni in cui è necessario decidere delle vite umane, quindi la domanda su come l’auto “deciderà” è legittima. Alcuni dicono che sarà risolto dal mercato, cioè gli occupanti del veicolo saranno protetti, perché chi comprerebbe un veicolo programmato per ucciderti? Altri dicono – soprattutto nei paesi anglosassoni – che sarà deciso dagli assicuratori. Chiaramente, né la marcatura, né gli assicuratori, né i produttori di automobili dovrebbero prendere queste decisioni. I governi, nel loro esercizio di rappresentanza dei cittadini, dovrebbero regolare su questi temi, e confermare con la società nel suo insieme le risposte che diamo a queste domande.

È urgente che i governi stabiliscano linee guida chiare e un quadro chiaro per lo sviluppo di questi veicoli.

La Germania è, ad oggi, l’unico paese che ha regolamentato l’etica delle decisioni dei veicoli autonomi. In una guida pubblicata l’anno scorso, il governo tedesco ha stabilito alcuni principi di base per la programmazione dell’intelligenza artificiale nei veicoli. Per esempio, che la vita umana è al di sopra di qualsiasi valore economico, cioè, se il veicolo deve scegliere tra uccidere una persona o causare danni per milioni di euro, deve privilegiare la vita. Ricordiamo che la legge 35/2015 prevede da 15.000 a 90.000 euro per ogni membro della famiglia per la morte in un incidente stradale in Spagna. I regolamenti tedeschi affermano anche che nessuna persona può essere privilegiata rispetto ad un’altra, sia per sesso, razza, età o capacità fisiche o mentali. Il risarcimento per morte o invalidità in Spagna tiene conto dell’età della vittima.

I veicoli e i programmi informatici che tra qualche anno prenderanno decisioni sulla nostra vita sono in fase di sviluppo proprio ora. È urgente che i governi, sostenuti da comitati di esperti etici, di programmazione e industriali, stabiliscano linee guida chiare e un quadro chiaro per lo sviluppo di questi veicoli.

Mentre aspettiamo auto intelligenti che possano evitare la maggior parte degli incidenti stradali, ricordiamoci che attualmente l’80% degli incidenti sono causati da errori umani, e che se questi non possono essere evitati, possono essere mitigati riducendo la velocità, non guidando dopo aver bevuto, non guidando quando si è stanchi… Se la mia auto attuale mi dice quanto veloce posso guidare e so qual è il limite di velocità, perché non uso la mia intelligenza per rispettarlo? Se so che ho bevuto o che sono stanco, perché non mi rifiuto di guidare? In attesa dell’intelligenza artificiale, usiamo la nostra ed evitiamo le disgrazie.

*Miguel Caso Flórez è direttore tecnico della World Road Association.