Come deve comportarsi una macchina che si guida da sola, in caso di incidente? Deve massimizzare la sicurezza di chi la guida — tentando di salvare il guidatore/passeggero ad ogni costo — oppure optare per un’incidente che causa la morte del numero minore di persone — magari, così facendo, decidendo una brutta sorte per il guidatore?

Mentre quando è un umano alla guida, la reazione a un incidente viene appunto interpretata come una reazione, una macchina che si guida da sola prenderà una decisione, stabilita magari anni prima da chi l’ha programmata. Mettiamo Tesla facesse macchine che salvano il maggior numero di persone, mentre Apple si concentrasse sulla vita del guidatore: voi quale comprereste?

È, questo, il classico problema del carrello ferroviario.