Il problema “etico” riportato è buono per una tavola rotonda, un po’ meno per il campo di applicazione.
Qui siamo in un forum frequentato da fini collaudatori automobilistici, ma là fuori funziona differentemente. Nel mondo reale c’è tua zia che con la Megane con due gomme sgonfie sta percorrendo a 90 all’ora una provinciale sgarruppata, chiacchierando con sua cugina al telefono (in mano rigorosamente, perché il marito al bluetooth ha preferito i cerchi da 17”). Quando una qualsiasi cosa (gatto cane vitello bambino pezzo-di-polistirolo extracomunitario) spunta in mezzo alla strada tua zia come si comporta? Ragiona sulla massa del veicolo, l’aderenza di ogni pneumatico, calcola la distanza e la paragona alle tabelle di performance del sistema ed agisce in maniera differenziata in ogni caso? No, semplicemente se va bene pesta sul freno e sterza a caso finendo nel fosso o al frontale, altro che fisiologia del cervello ed altre cose. L’idea di poter definire, in pochi decimi di secondo per un pilota non allenato e non preparato su un veicolo che non conosce, se colpire l’ostacolo (gatto si bambino no) o provare a schivarlo, e nel caso in che modo, è semplicemente ridicola indipendentemente dalle considerazioni etiche. Una macchina questa operazione la può fare, e la Classe E ad esempio suggerisce di schivare l’ostacolo se non arriva nessuno dall’altra parte. Diversi veicoli quando sentono puzza di incidente si adattano opportunamente.
Capiteranno incidenti mortali con le auto a guida autonoma o comunque assistita nei prossimi mesi anche con quelle attualmente in commercio, è certo.
Non mi trovi d'accordo.
Innanzitutto, il metro di paragone della guida umana non può essere solo la zia rimbambita...
In secondo luogo, le decisioni che assumiamo in frazioni di secondo - in tutte le situazioni, non solo alla guida di un'automobile - non sono frutto di calcoli elaborati (che un computer è certamente in grado di fare meglio e più in fretta di noi), ma di quella che Angelo ha definito "memoria associativa": il cervello fornisce una risposta istantanea attingendo alle esperienze e alle emozioni vissute.
Io, se mi attraversa la strada un gatto, provo a frenare; se non c'è spazio tiro dritto.
Mi dispiace per il gatto, ma la mia sensibilità (scarsa?) verso questo simpatici amici dell'uomo non mi suggerisce neanche per un istante - a livello istintivo - di sterzare bruscamente e mettere a repentaglio la mia incolumità (o quella di altre persone che mi circondano) per salvare il gatto.
Se mi attraversasse la strada un bambino, ti assicuro che avrei l'istinto di sterzare.
Forse commetterei anche un errore di guida, ma il punto è che l'emozione di vedere una persona - o addirittura un bambino - davanti al mio veicolo scatenerebbe una reazione adrenalinica del tutto diversa da quella suscitata dal gatto.
Una "gattara" al volante, forse, avrebbe reazioni diverse.
La questione etica è diversa da quella tecnica (se cioè il mezzo automatico sia in linea generale meglio capace di prevenire gli incidenti).
La questione etica è: nel caso specifico, come deve essere impostato l'algoritmo? Chi decide? Chi si assume la responsabilità dei comportamenti?
La libertà delle singole persone - libertà che può comportare anche errori, sapendo però che esiste un soggetto che se ne deve assumere la responsabilità - da che cosa viene sostituita?
Proprio in questi giorni Grillo si diverte a lanciare la provocazione per cui ci vorrebbe un "algoritmo per decidere chi deve essere espulso dal M5S". Abbiamo consapevolezza che si tratta di una provocazione, o pensiamo davvero che possano esistere algoritmi che si sostituiscono a persone fisiche, le quali ci mettono la faccia e si assumono la responsabilità (politica, civile, morale, in altri campi anche penale) di quello che decidono?
Oppure gli "algoritmi" devono diventare la foglia di fico con cui ci vengono imposte le decisioni senza possibilità di replica?
Potrei fare numerosi altri esempi.
Un'autovettura a guida automatica è impostata per rispettare il codice della strada.
Esistono però dei casi in cui le regole del codice debbono essere violate: può essere necessario superare i limiti di velocità per un'emergenza sanitaria; bisogna imboccare un senso vietato perché la strada corretta è ostruita; ecc.
So che quando si tratta di aggirare le regole noi italiani siamo pronti a trovare diecimila giustificazioni valide. Ma anche a voler essere rigidissimi, non possiamo negare che esistono casi in cui la deroga alle regole - o un'interpretazione per un caso non previsto - si rende necessaria: chi lo fa valuta la necessità e se ne assume la responsabilità.
Può un algoritmo prevedere i casi in cui può essere violato il codice della strada? E su quali basi, secondo quale gerarchia di necessità? Chi si assume la responsabilità della violazione?
Esistono anche casi in cui la violazione del codice è inevitabilmente continua : il rispetto della distanza di sicurezza (che nelle strade trafficate non può mai essere quello previsto dal codice); l'obbligo di dare precedenza quando ci si immette in una strada trafficata (se aspetti che non passi nessuno, o se non "costringi" chi arriva a rallentare, non ti immetti mai)...
Finché non vengono risolti questi problemi (tecnici, oltre che etici), queste auto non sono pronte a fare il loro ingresso nel traffico.
Capiteranno incidenti mortali con le auto a guida autonoma o comunque assistita nei prossimi mesi anche con quelle attualmente in commercio, è certo.
Sì, ma i due casi sono completamente diversi.
I morti provocati dall'uomo sappiamo a chi imputarli (o ci penserà un giudice).
Quelli provocati dai sistemi automatici? Potranno essere imputati solo alla tecnologia non ancora matura, o potranno essere espressione di scelte arbitrarie dei programmatori (che si sostituiscono alla libertà delle persone)?
Ad ogni modo: non intendo sostenere che dobbiamo tenerci gli errori umani in nome della libertà. Benvenuti tutti i supporti tecnologici che aiutano l'uomo a diminuire gli errori.
Attenzione, però, a non cadere nell'errore ancor più grande di ritenere che la tecnologia sia "neutra", che possa sostituirsi in maniera indolore alle scelte libere e responsabili dell'uomo.
I problemi che ho evidenziato sono reali, la tecnologia deve affrontarli per divenire davvero matura, tutti coloro che hanno a cuore gli sviluppi tecnologici dovrebbero evitare di trascurarli.
Scusate il quotone ma credo sia pertinente (e metto insieme anche cose di altri utenti).
Ho iniziato il mio intervento avvisando che so che qui ci sono fior fiore di piloti che non rientrano nelle statistiche, e li lasciamo a tutte le loro capacità fuori dalla media. Tuttavia l'esempio che facevo della zia non è per nulla estremo. Mettiamo insieme 2 numeri: la zia si muove sulla Megane, perchè quelle ci sono in giro non solo le Porsche 911, a poco più di 90 all'ora. Fanno 30 metri al secondo. Non essendo una 911 in 30 metri a cento all'ora non si ferma, e su molte strade nemmeno la 911 lo fa. Io di dico che esce un ostacolo a 50 metri. Tu dimmi come può essere possibile per la sciura, che NON sta guardando come tutti noi piloti ogni foglia che si muove, ma guardicchia davanti tra le altre cose,
1. vedere che qualcosa occupa (o andrà ad occupare) la sua strada
2. capire cosa sia
3. decidere in base a cosa ha visto se fare una manovra Gatto o una Bambino
4. attuare la manovra
E' passato UN SECONDO e la sciura non ha MAI nella sua vita provato a pestare sul freno fino a fondo per vedere cosa succede. Tu assumi che vada tutto bene, io che vada tutto male. Le tue azioni istintive generate dal cervello blah blah blah funzionano quando fai manovra in un parcheggio purtroppo, perchè assunti tempi di reazione infinitesimali, e non lo sono, capacità di guida eccellenti, e non lo sono, resta il problema dell'energia della macchina da governare.
Questo non vuol dire che la macchina automatica avrebbe avuto un risultato migliore, ma solo che non possiamo criticare un sistema automatico perchè non fa quello che una frazione infinitesima dei piloti odierni riesce a fare. Non è un problema tecnico o etico, diciamo che è una tecnologia che vale poco perchè non fa cose che nessun altro comunque saprebbe fare. In un mondo misto automatico/umano non c'è verso di avere la soluzione definitiva ai problemi della circolazione. Se quello è l'assunto, continuiamo imperterriti con gli ubriachi al volante e non perdiamo altro tempo.
Sul "dover" violare le regole: ti seguo quasi in toto, il caso esiste. Come ogni sistema automatico devo poter per vari motivi prevedere il bottone "override". Non ci vedo nessun problema. In molti casi l'algoritmo potrebbe capire se violare una regola, quando non può c'è il bottone rosso da premere. Nel mischione più sopra sul FBW c'è l'esempio più evidente: non sempre l'autopilota in un aereo può essere ingaggiato, e quando lo è può emettere la campanella e ridare il controllo al pilota. Ma proprio anche in modalità manuale almeno il FBW proteggerà dal fare manovre che scassano l'aeroplano. E volendo si forzeranno anche quei limiti e si finirà in mare.
Altro argomento: se ieri notte hanno girato un senso unico che era così da anni, se hanno messo il cartello la macchina lo vedrà, se non l'hanno messo anche tutti gli umani infileranno la via contromano. Perchè alla macchina dovremmo rimproverare qualcosa? Nel tuo caso in cui esci dallo stop alla "saranno c***i di quello che arriva rallentare", l'automatismo eliminerebbe il problema del pilota umano frenando, quello che dici sarebbe un caso di situazione migliorativa ma sono certo che insieme ne troveremmo molte in cui il bottone rosso serve premerlo.
Non voglio in alcun modo proporre l'idea che le macchine automatiche saranno perfette e vivremo felici in un'oasi di amore, dico solo che rispetto a ciò che vedo ogni giorno per me è difficile fare peggio. Tu hai la fortuna di conoscere super zie, io nessuno che sappia fermare una Megane in 30 metri.
Sulla responsabilità di nuovo ti seguo, è roba offtopic rispetto al discorso iniziale però. Potremmo partire proprio dall'aeronautica dove incidenti imputabili alle macchine sono capitati e capiteranno, ma le analogie si fermano qui per molti degli assunti che non sono riportabili nel mondo automotive. Certamente c'è molto da ragionare, così come oggi se capita un incidente eccellente l'inchiesta sull'affidabilità della macchina viene comunque aperta, oltre a quella sulle persone.
Sulle macchine che girano chissà dove. Distinguiamo: Tesla ha fatto quel fottio di chilometri su strade aperte al pubblico in mano ad utenti normali, non con collaudatori su un circuito. E' proprio quello il valore della cosa. Tuttavia Tesla propone un ausilio alla guida, non un'autopilota. Ad ogni evoluzione fa qualcosina in più che prima non faceva.
Quello che scrivevo è che vedo loro molto avanti agli altri per le prossime evoluzioni.
Le Google car al contrario completamente autonome girano per strada da anni, da quando le leggi appositamente fatte glielo consentono, proprio per fare i km di esperienza. Che fa notizia sarà comunque l'incidente, non il percorso riuscito. Fuori di dubbio nasceranno anche nuove professioni di truffatori legate a questo.
Quoto anche il tuo ultimo paragrafo, eccetto l'assunzione che la tecnologia si evolva scopando sotto il tappeto i problemi. Il fatto che qualcuno non se ne occupi, o che le leggi in Italia latitino, non significa che tutti sviluppino ad minchiam e che nessuno ci stia ragionando.