Immagine: Shutterstock
Le auto a guida autonoma sono qui. Alcune di loro sono già sulle strade. Le principali case automobilistiche e i giganti della Silicon Valley chiedono con insistenza l'autorizzazione a produrle e diffonderle per trasportarci in modo sicuro ed efficiente. Alcuni dei loro modelli non includono nemmeno il volante. Ma oltre alle varie sfide, di natura tecnica e non, c'è una questione politica fondamentale che viene trascurata: chi decide in quale modo gli algoritmi di trasporto prenderanno decisioni sulla nostra vita, la morte e tutto quello che ci passa di mezzo?L'incidente che ha coinvolto una auto driverless di Uber non sarà l'ultimo nel quale si perderà una vita umana. Infatti, non importa quante vite verranno salvate dalle auto driverless: presto o tardi si verificheranno comunque altri incidenti.Immaginate di stare viaggiando a bordo di un'auto a guida autonoma quando, all'improvviso, degli enormi serbatoi di propano trasportati dal camion di fronte a voi cadono dal mezzo e volano nella vostra direzione. A quel punto, è necessario prendere una decisione in poche frazioni di secondo senza la possibilità di valutare le conseguenze di ogni scelta possibile. Fortunatamente, il sistema che guida la vostra auto diverless può esaminare migliaia di scenari a una velocità sovraumana. Tuttavia, come può determinare quali sono le priorità morali?Considerate le seguenti scelte che potrebbe prendere la vostra auto:Non esiste un metodo per determinare quali scelte dovrebbe prendere un'auto a guida autonoma che non sia di natura etica. La scelta tra le opzioni 1-7 non dovrebbe essere vista come un problema di calcolo che può essere "risolto" da big data, da algoritmi sofisticati, dall'apprendimento automatico o da qualsiasi forma di intelligenza artificiale. Questi strumenti possono aiutare a valutare ed eseguire le varie opzioni, ma in ultima analisi, qualcuno — nello specifico degli esseri umani — deve scegliere come agire e far sì che i propri valori vengano inseriti in un software.Chi dovrebbe avere il potere decisionale? I politici? Il mercato? Le compagnie assicurative? I manager del settore automobilistico? Gli esperti di tecnologia? I consumatori dovrebbero essere autorizzati a personalizzare il bagaglio morale delle loro automobili in modo che i loro veicoli eseguano scelte morali in linea con le loro preferenze?Non fatevi ingannare quando le persone parlano di IA come se questa sollevasse gli esseri umani dalla necessità di prendere queste decisioni morali, un po' come se l'IA potesse necessariamente prendersi cura di tutto per noi. Certo, l'intelligenza artificiale può essere progettata per prendere decisioni in casi di emergenza, in situazione non troppo trasparenti e persino inspiegabili. Tuttavia, poiché il passaggio dai conducenti umani alle automobili con guida autonoma sposta il processo decisionale dai conducenti ai progettisti e ai programmatori, la governance resta una fase essenziale. Si tratta solo di capire quale tipo di governance adottare.Concentriamoci sugli incidenti. Le auto a guida autonoma ridurrano il numero di incidenti, ma ancora una volta, non fatevi ingannare dal richiamo del sogno che diventino perfette. Potranno ancora causare:
Pubblicità
- Rimanere nella sua corsia e assorbire il colpo, mettendovi nella condizione di poter essere uccisi.
- Cercare di salvarvi sterzando nella corsia di sinistra, però colpendo un'auto che la occupa e causando la morte dei suoi passeggeri — i quali, secondo le informazioni estratte dai big data che li riguardano, hanno diversi figli che sono ancora bambini.
- Cercare di salvarvi sterzando nella corsia di destra colpendo però l'auto che la occupa e causando la morte del suo unico passeggero — il quale, sempre secondo le informazioni estratte dai big data che lo riguardano, è uno scienziato molto vicino a trovare una cura per il cancro.
- Supponiamo che ogni persona possa acquistare un'assicurazione contro questi tipi di incidenti rari ma inevitabili e che, di conseguenza, le automobili driverless diano la priorità nella scelta di chi salvare in base alla capacità e disponibilità economiche per pagare l'assicurazione.
- Cercare di salvarvi adottando un principio neutrale per scegliere come, forse lanciando una moneta virtuale sterzando a destra se esce testa e a sinistra se esce croce.
- Non dare la priorità alla vostra vita seguendo un principio neutrale ma scegliendo casualmente tra le tre opzioni.
- Eseguire qualsiasi opzione che si avvicina maggiormente al vostro sistema di valori personali e alle scelte morali che avreste preso se vi foste trovati in una situazione di emergenza. Immaginiamo che quando acquistate un'auto, prendiate parte a un test di moralità per auto driverless che considera una serie di scenari d'emergenza e che il veicolo venga "programmato" con i risultati personali del test.
Pubblicità
Pubblicità
Lo scenario che abbiamo descritto si basa su un vecchio dilemma filosofico chiamato problema del carrello. Nell'esperimento originale, una persona deve scegliere se azionare una leva per deviare la traiettoria di un carrello da un binario all'altro: su un binario si trovano cinque persone, sull'altro solo una. Qual'è la scelta migliore? Il MIT ne ha sviluppato una versione interattiva chiamata Moral Machine.Non c'è da stupirsi che il problema del carrello spunti in quasi ogni discussione sui veicoli autonomi. Finora, il dibattito si è incentrato principalmente sugli incidenti mortali sollevando importanti questioni riguardo la scelta di chi salvare. C'è chi sottolinea come determinare chi deve prendere le decisioni sia una questione che vada risolta prima di fare circolare liberamente le auto autonome sulle strade. Altri, invece, sostengono che decisioni del genere riguardino casi limite e dovrebbero essere rimandate nel tempo in modo da non frenare l'innovazione. Altri ancora addirittura negano che gli scenari del problema carrello continueranno a essere influenti una volta che i sistemi intelligenti di frenata saranno integrati in ogni auto.Le questioni cruciali di politica sociale vanno affrontate in modo proattivo durante la progettazione, la costruzione e la verifica dei sistemi. Altrimenti, i valori di chi svilupperà le tecnologie senza affrontare questi temi verranno incorporati nella tecnologia durante il suo sviluppo. Questo può essere l'obiettivo dei negazionisti che puntano a sistemi assolutamente sicuri o da chi si fa illudere in modo sincero da qualche sogno tecno-utopico. L'argomento dei casi limite diventa ragionevole se ci si concentra esclusivamente sul problema del carrello. Ma il problema del carrello cattura solo una parte ristretta per quanto importantissima dell'intero puzzle. Vanno considerati anche gli scenari che non comportano decisioni che hanno come conseguenza la vita o la morte.Le questioni cruciali sulle policy vanno affrontate in modo proattivo mentre i sistemi vengono progettati, realizzati e testati
Pubblicità
- danni fisici di grande entità, come la perdita di arti, ma non la morte;
- danni fisici di grande entità che rendono invalidi per 24 mesi;
- danni psichici di grave entità che limitano la capacità di guidare un'automobile e costringono ad utilizzare mezzi di trasporto meno efficienti;
- danni di grave entità al veicolo dell'interessato; o
- danni generici e ritardi.