In realtà nella catena degli eventi c'é soprattutto l'incapacità dell'equipaggio di gestire le situazioni critiche in cui l'auto pilota per qualche ragione viene disinserito e l'intelligenza artificiale deve in qualche modo condividere le decisioni col fattore umano. Che spesso si dimostra incapace.
Ci sono evidenti problemi di interazione tra piloti e macchina in situazioni di alternate Law, incapacità di riconscere le condizioni al contorno del volo, di rimanere in quello che si chiama "envelop", di interpretare correttamente i segnali e di convivere con le regole imposte dall'intelligenza artificiale.
Il risultato di questi corto circuiti logici, quasi sempre frutto di errori umani, sono fatalità a volte di una stupidità assurda nelle cause di origine.
Pensare ad una tecnologia capace di sostituire completamente l'uomo nello svolgimento di certe attività, e conseguentemente ad un uomo sempre più inetto e incapace di gestire macchine sempre più complesse in casi specifici solitamente anche legati a situazioni critiche, inevitabilmente espone a dei rischi.
Rischi che su strada, in mezzo a un numero potenzialmente infinito di input casuali, molto più che in aria, sono ancora più elevati.
Ammetto poi di non essere affascinato da questa idea di futuro in cui l'uomo debba solo "pensare" e le macchine debbano fare al posto suo, non lo ero già da ragazzo quando leggevo i fumetti che prefiguravano tutto questo e men che meno lo sono oggi che questo futuro appare sempre più presente.