Il settore del ride sharing e quello delle auto a guida autonoma (due settori che, per motivi economici, tendono sempre di più a sovrapporsi) dovranno affrontare un aumento dello scetticismo e dei controlli, dopo il tragico incidente di Tempe (Arizona), in cui un’auto a guida autonoma di Uber ha investito e ucciso una donna.
I dettagli dell’accaduto saranno sicuramente oggetto di controversie, ma sembra piuttosto chiaro che alle 10 di sera circa una donna, Elain Herzber, abbia cercato di attraversare da sinistra a destra una strada a quattro corsie in un punto non consentito, sbucando all’improvviso di fronte all’auto di Uber che sopraggiungeva in modalità autonoma. L’auto procedeva a 65 KM/h, entro i limiti previsti per quella strada.
Secondo le prime ricostruzioni, la donna avrebbe deciso di non avvalersi degli incroci e dei sottopassi riservati ai pedoni, e si sarebbe avventurata in una zona non perfettamente illuminata, anche se non completamente buia. I video diffusi dalla polizia del posto mostrano un’uscita improvvisa del pedone, ma trattandosi di una dashcam (una telecamera a bassa risoluzione usata per riprendere costantemente la strada), molti esperti ritengono che un normale autista, pur con una buona dose di riflessi pronti, avrebbe avuto tempo di frenare o quantomeno di evitare l’impatto sterzando.
Invece, a quanto si vede dalle immagini, il guidatore non solo non era un tecnico specializzato addetto al monitoraggio della vettura, ma un autista “normale”, incaricato solo di intervenire in caso di emergenza, e soprattutto egli stava in realtà guardando il proprio smartphone invece di seguire il veicolo e prestare attenzione alla strada.
Uber (a testimonianza che forse qualcosa sta cambiando nella sua cultura aziendale), ha subito fermato i suoi esperimenti in tutti gli Stati Uniti, e dichiarato la massima collaborazione con le autorità. Ma ovviamente i suoi sistemi di guida autonoma ora saranno sottoposti ad accurati controlli, per verificare che non ci siano falle dal punto di vista della sicurezza. Diversi esperti stanno infatti mettendo in dubbio i livelli di sofisticatezza delle tecnologie di Uber (come ad esempio il lidar, una sorta di radar basato su impulsi laser) o le loro connessioni interne con l’impianto di guida.
Le conseguenze di medio-lungo termine
A prescindere dalle responsabilità di Uber, che saranno dimostrate nelle dovute sedi legali, l’incidente rischia di avere conseguenze su tutto il settore della mobilità autonoma e del ride sharing.
Questa è la prima volta in cui un’auto a guida autonoma uccide un pedone: ci sono infatti già stati alcuni incidenti, in passato, peraltro quasi sempre per colpa di altre vetture (e non di quelle a guida autonoma), e senza gravi conseguenze. L’evento sta sollevando diverse domande sulla rapidità con cui questi esperimenti sono passati da circuiti e laboratori chiusi alla strada aperta a tutti. Uber non è infatti l’unica azienda a testare queste tecnologie su strada, anzi: si tratta di un numero elevato di imprese, tra cui sia i colossi dell’automotive che piccole startup.
I governi locali sono spesso molto disponibili a concedere l’autorizzazione a questi esperimenti, un po’ perché portano posti di lavoro sotto forma di centri di ricerca, un po’ perché le auto che si guidano da sole potrebbero davvero ridurre di molto il numero di incidenti sulle strade, essendo di diversi ordini di grandezza più efficienti dei guidatori in carne e ossa. E la presenza di autisti umani accanto a quelli computerizzati ha sempre rappresentato un elemento di sicurezza in più.
Tuttavia, anche alla luce del caso Uber, sono molti i ricercatori che stanno sottolineando come sia molto difficile per i tecnici, e men che meno per gli autisti tradizionali, prestare attenzione a quello che fa la vettura autonoma. Un conto è guidare in prima persona, un conto è essere passeggeri senza pensieri: fare da controllori al sistema di guida è molto difficile, perché la noia e la disattenzione tipica di chi è passeggero prendono presto il sopravvento (come dimostrerebbe, se confermato dai fatti, il caso dell’autista di Tempe).
Un altro punto scottante sollevato da questa tragedia è il problema della presenza di umani (imperfetti e indisciplinati per natura) sulle strade: le macchine sapranno sempre usare i propri algoritmi per risolvere le interazioni tra loro, in quanto governate appunto da codici stretti a cui esse si attengono nel 100% dei casi. Ma la strada è un’altra cosa: oltre ai robot ci sono le persone, e queste sono inaffidabili e imprevedibili, anche per i sistemi che ad oggi sono i più avanzati.
Il dilemma del carrello
Il caso di Tempe fa emergere un dilemma etico e morale simile a quello del famoso “carrello”. Quest’ultimo recita più o meno così: un carrello su binari sta correndo a forte velocità contro un gruppo di persone: se non lo fermate verranno travolte, ma fermarlo del tutto è impossibile. Avete la possibilità di deviarlo, con uno scambio, e salvare quelle persone, ma questo vuol dire dirigerlo contro un’altra persona lì vicino, uccidendola. Che cosa fate?
Ora ci troviamo di fronte a un dilemma simile, anche se più rallentato ed esteso nel tempo: quante persone dovranno, purtroppo, morire in incidenti come quello di Tempe, affinché le auto a guida autonoma imparino a evitarli? Siamo disposti ad accettare questo fatto, in nome del progresso tecnologico e dei benefici che porta? Oppure dovremmo vietare del tutto questi esperimenti, per evitare che altri innocenti ci vadano di mezzo, ma chiudendo così definitivamente alla possibilità di avere auto che un giorno si guideranno da sole?
E’ possibile trovare un punto intermedio in cui la tecnologia riesce a svilupparsi, ma riducendo al minimo i rischi per i pedoni?
Da un lato ci sono infatti le vite come quella della vittima dell’Arizona, ma dall’altro c’è il rischio di perdere ai milioni di vite umane che, in futuro, le auto a guida autonoma potranno salvare, senza contare gli ulteriori benefici che potrebbero portare con sé.