Un rendering sulla guida autonoma

Guida autonoma: tra etica, giurisprudenza e realtà. Come districarsi su un tema spinoso ma di grande attualità

di Paolo Artemi (Vp Uiga)
  • condividi l'articolo

Come stabilire la responsabilità di un incidente tra intelligenza artificiale, case costruttrici ed eventuali interventi umani? – Come i principi etici devono guidare le decisioni drammatiche che una macchina a guida autonoma deve prendere per proteggere le vite umane? – L’aiuto può venire dalle tre leggi sulla robotica ideate da Isaac Asimov nel 1942? Volvo si accinge a sperimentare il modulo di controllo “Ride Pilot” in California, basato su più di 20 sensori e su tecnologie di rilevamento telematico che interagiscono con cinque radar, otto telecamere e sedici dispositivi di captazione di ultrasuoni, in grado di ricevere aggiornamenti software Over-the-Air. Sarà offerto in abbonamento sulla lussuosa Suv ad alimentazione 100% elettrica che sarà svelata nei prossimi mesi. In tutto il mondo, però, ci si chiede: ma le leggi da far rispettare ai veicoli a guida autonoma ci sono? Volvo Italia ne ha voluto discutere allo Studio Volvo di Milano, e ha coinvolto due esperti di fama mondiale: Enrico Al Mureden, docente di Diritto civile, sicurezza e responsabilità del prodotto automotive all’Università di Bologna, e Guido Calabresi, collegato da New York, professore emerito della facoltà di Giurisprudenza all’Università di Yale e autore, con Al Mureden, del volume “Driverless cars. Intelligenza artificiale e futuro della mobilità”, edito da Il Mulino.

Un argomento spinoso, delicato e di grande attualità in quanto dal prossimo luglio tutti i nuovi veicoli saranno equipaggiati con la scatola nera, una specie di intelligenza artificiale che raccoglie dati sul viaggio e che sarà utilizzata dalle assicurazioni per dirimere le controversie. Già oggi la convivenza tra vetture con dispositivi Adas di livello due e tre e quelle che non ne sono dotate non è semplice. Capita sentire di mezzi che si fermano repentinamente in mezzo a una rotonda perché i sensori della frenata automatica hanno individuato un fantomatico pericolo di collisione costringendo i veicoli che seguono a inimmaginabili frenate e talvolta a pericolosi e costosi tamponamenti. Figuriamoci quando i tir e le auto raggiungeranno il livello cinque e gli esseri umani a bordo saranno dei semplici passeggeri. Oltre ai codici della strada, rivisti alla luce di questi veicoli autonomi, e ai giudici illuminati, che dovranno stabilire colpe tra diverse intelligenze artificiali, emergerà più di un problema etico. Il professor Calabresi ha fatto un esempio pratico: “Chi salvare, fra due bambini o una persona anziana in caso di emergenza?”. Come in un film di fantascienza, l’intelligenza artificiale dovrà essere programmata per agire all’istante e quindi comportarsi di conseguenza. Chi deciderà quali principi etici applicare? La discussione è solo all’inizio, eppure un aiuto potrebbe venire dal passato.

Nel 1942, Isaac Asimov, un grande visionario, scrittore di fantascienza, biochimico e divulgatore scientifico russo naturalizzato statunitense, ideò le tre leggi della robotica.

1 - Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.

2 - Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.

3 - Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge.

Cosa pensa, come giudica, uno studioso come Enrico Al Mureden la sintesi di Asimov. Ecco il suo argomentato commento. “La risposta potrebbe essere in linea di massima affermativa. Il raffronto tra le leggi di Asimov e i principi enunciati nei primi documenti attraverso i quali i legislatori dell’Unione Europea e degli Stati Uniti stanno delineando le regole per le future auto a guida autonoma fa emergere una forte assonanza, al punto che si potrebbe giungere a scorgere un denominatore comune. “I principi di Asimov riflettono valori tendenzialmente condivisi a livello universale. Essi contemplano il valore della ‘auto-salvaguardia’ della macchina, ma al tempo stesso lo pongono su un piano subordinato rispetto a quello dell’integrità delle persone (terza Legge: ‘Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge’).

“In secondo luogo si istituisce una gerarchia tra la volontà umana e quella artificiale sancendo che in linea di principio la prima prevale sulla seconda (‘Un robot deve obbedire agli ordini impartiti dagli esseri umani,…’); è però significativo come questa gerarchia debba invertirsi in tutte le ipotesi in cui la volontà umana si diriga verso la realizzazione di finalità che non coincidono con i valori tutelati dall’ordinamento (…tranne nel caso che tali ordini contrastino con la Prima Legge). In quest’ultimo caso sarà la macchina a prevalere. Essa prevarrà in quanto progettata sulla base di istruzioni che riflettono ed interiorizzano le regole legali e quindi programmata per eseguire azioni in linea di principio conformi ai valori e ai principi che l’ordinamento ha scelto di tutelare. “Per questo, procedendo a ritroso, la prima e più importante ‘Legge’ di Asimov - chiarendo che ‘Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno’ -, esprime il principio per cui il robot è programmato per assicurare la massima tutela di tutti i valori fondamentali su cui l’ordinamento si regge e, in primo luogo, quello della salvaguardia della vita e dell’integrità della persona. È possibile concludere, quindi, che questi principi universalmente condivisi costituiranno la base minima sulla quale verranno edificate le future discipline che governeranno la circolazione delle auto driverless”. 

  • condividi l'articolo
Mercoledì 9 Febbraio 2022 - Ultimo aggiornamento: 10-02-2022 17:55 | © RIPRODUZIONE RISERVATA