Quanta responsabilità dare ai robots? Gli elementi della moralità delle macchine.

di Andrea Ballini psicologo

Membro Gruppo di lavoro aspetti etici, sociali e di sicurezza della Guida autonoma

PIARC – Italia

Il Gruppo di lavoro aspetti etici, sociali e di sicurezza della Guida autonoma si sta occupando dal suo insediamento a febbraio 2020 dei temi dell’etica dell’algoritmo che di fatto guida il veicolo autonomo e della sua accettazione sociale sotto l’aspetto psicologico, sociale e di sicurezza. In questo contesto è stato sviluppato un progetto di sondaggio sull’accettazione della guida autonoma che verrà proposto su una piattaforma web con l’obiettivo di diffondere la conoscenza e la consapevolezza della guida autonoma.

Andrea Bellini, di recente membro del Gruppo, propone un interessante articolo sull’etica morale della guida autonoma.

 

Man mano che i robots diventeranno più autonomi, le persone li vedranno sempre più responsabili di azioni illecite. La psicologia morale suggerisce che i giudizi sulla responsabilità del robot dipenderanno dalla consapevolezza della situazione percepita, dall’intenzionalità e dal libero arbitrio, oltre alla somiglianza umana e alla capacità del robot di fare del male. Questo lo vediamo soprattutto con i prossimi veicoli a guida autonoma. Dove le decisioni possono anche riguardare la vita e la morte dei passeggeri o di altri utenti della strada.
Quando i robot danneggeranno gli esseri umani, come capiremo la loro responsabilità morale?

Riporto questa riflessione leggendo l’articolo di Kurt Gray, uno psicologo sociale come me che si occupa, da tempo, di veicoli a guida autonoma.

La filosofia, il diritto e la scienza sono oggi concordi nell’affermare che i giudizi sulla responsabilità umana dipendono dall’autonomia. Questo lo vediamo nei bambini che hanno una autonomia limitata e, quindi, sono ritenuti meno responsabili di azioni illecite. Il motivo per cui le persone riflettono e discutono sulle implicazioni etiche dei droni e delle auto a guida autonoma (ma non di trattori o frullatori) è perché queste macchine possono agire in modo autonomo. Man mano che i robot diventano più autonomi, il loro potenziale di responsabilità morale non potrà che crescere.

Per i programmatori e gli sviluppatori, l’autonomia è intesa come la capacità di un robot di operare in ambienti dinamici del mondo reale per lunghi periodi di tempo senza controllo umano esterno. Per le persone comuni, invece, l’autonomia è più probabilmente legata alle capacità mentali del robot. Il modo in cui le persone vedono la mente, cioè la ‘percezione mentale’, predice i giudizi morali, ma la percezione della mente non è monolitica: ci sono molte abilità mentali, alcune delle quali (ad esempio, la capacità di pianificare in anticipo) sono maggiormente rilevanti per l’autonomia e il giudizio morale rispetto ad altre (ad esempio, la capacità di avere sete).

Nell’articolo di Kurt Gray si descrive un sottoinsieme di abilità mentali che sembrano rilevanti per l’autonomia e, quindi, il giudizio morale.

  • Consapevolezza della situazione
    Affinché gli osservatori percepiscano una persona moralmente responsabile di un illecito, tale persona deve sembrare essere consapevole delle preoccupazioni morali inerenti alla situazione. Ad esempio, un bambino ignaro del pericolo delle armi da fuoco non sarà ritenuto responsabile per aver sparato a qualcuno. Affinché un robot possa essere ritenuto responsabile di aver causato danni, probabilmente dovrà essere visto come consapevole che le sue azioni sono effettivamente dannose.
  • Intenzionalità
    Gli agenti sono visti come più responsabili delle azioni intenzionali che non intenzionali, spesso perché le persone deducono un desiderio o una ragione dietro gli atti intenzionali. Sebbene sia improbabile che le persone percepiscano i robot come capaci di desiderio, vedono i robot come capaci di intenzionalità, cioè, credendo che un’azione avrà un certo risultato.
  • Libero arbitrio
    La capacità di agire liberamente, o di “fare altrimenti”, è una pietra angolare dei giudizi laici di responsabilità morale. Sebbene le auto autonome non siano viste come in possesso di un ricco libero arbitrio simile a quello umano, viene loro attribuita la capacità di attuare azioni in modo indipendente. Il comportamento delle auto autonome è prevedibile data la trasparenza della loro programmazione (data dall’uomo) e la prevedibilità, mina la percezione del libero arbitrio. I progressi tecnologici (ad esempio, le reti neurali profonde) probabilmente renderanno le menti delle macchine meno trasparenti sia ai programmatori che ai percettori, aumentando così la percezione dell’imprevedibilità.
  • Somiglianza umana
    Le persone percepiscono la mente delle macchine in base alle loro capacità e comportamenti, ma anche al loro aspetto. Più una macchina ha l’aspetto umano, più le persone la percepiscono come avente una mente, un fenomeno chiamato antropomorfismo. Gli individui variano nella loro tendenza ad antropomorfizzare, ma le persone percepiscono costantemente più mente, e quindi più responsabilità morale, nelle macchine che sembrano e si comportano come gli esseri umani. Nei veicoli a guida autonoma si può agire sulla voce che interagisce con i passeggeri.
  • Potenziale danno
    Anche con potenti capacità di calcolo, i robot di oggi sono limitati nella loro capacità di agire sul mondo. Con l’avanzare della tecnologia, queste maggiori capacità (ad esempio la capacità di camminare, sparare, operare e guidare) consentiranno ai robot di causare più danni agli esseri umani. Gli studi rivelano che l’osservazione del danno e della sofferenza porta le persone a cercare un agente intenzionale che si ritenga responsabile di quel danno. Questo legame tra sofferenza e intenzione significa che più i robot causano danni, più sembreranno possedere intenzionalità e quindi portano a una maggiore percezione della responsabilità morale.

 

L’articolo di Kurt Gray si conclude ipotizzando due soluzioni ai problemi morali delle auto autonome.

  1. Le macchine possono proteggere gli esseri umani dalla responsabilità.
    Quando le persone danneggiano gli altri, spesso cercano di evitare la responsabilità puntando il dito altrove. I soldati che commettono atti atroci invocano il mantra che stavano “solo eseguendo ordini” da ufficiali superiori. Al contrario, gli ufficiali superiori si sottraggono alla responsabilità affermando di non aver effettivamente premuto il grilletto. Queste scuse possono funzionare perché la responsabilità percepita è spesso un gioco a somma zero. Più assegniamo la responsabilità all’agente prossimo (l’entità che ha perpetrato fisicamente il danno), meno assegniamo la responsabilità all’agente distale (l’entità che ha diretto il danno) e viceversa. Man mano che i robot si diffondono nella società, diventeranno più frequentemente l’agente prossimale nel fare danni: i danni collaterali saranno causati dai droni e gli incidenti saranno causati dalle auto a guida autonoma. Sebbene gli esseri umani rimarranno gli agenti distali che programmano e dirigono queste macchine, più le persone possono puntare il dito contro i loro robot autonomi, meno saranno ritenuti responsabili per illeciti, un fatto che le aziende ei governi potrebbero sfruttare per sfuggire alla responsabilità dei misfatti. Aumentare l’autonomia per i robot potrebbe significare aumentare l’assoluzione per i loro proprietari.
  2. Vogliamo macchine che prendano decisioni morali?
    la ricerca rivela che le persone sono riluttanti ad avere macchine che prendono decisioni morali, sia nell’esercito, nella legge, nella guida o in medicina. Una delle ragioni dell’avversione delle persone verso le macchine che prendono decisioni morali è che vedono i robot come privi di una mente umana completa. Senza la piena capacità umana di pensare e sentire, non vediamo i robot qualificati per prendere decisioni sulle vite umane. Questa avversione per il processo decisionale morale delle macchine è sembrata abbastanza robusta, ma può svanire con l’avanzare delle capacità mentali percepite delle macchine. Man mano che l’autonomia delle macchine aumenta, le persone possono diventare più a loro agio con i robot che prendono decisioni morali, anche se alla fine le persone potrebbero chiedersi se gli obiettivi delle macchine siano in linea con i propri.

“Sebbene ci concentriamo qui sulla responsabilità morale, notiamo che le persone potrebbero anche vedere macchine sofisticate come degne di diritti morali. Mentre alcuni potrebbero trovare ridicola l’idea dei diritti dei robot, l’American Society for the Prevention of Cruelty to Robots e un rapporto dell’Unione europea del 2017 sostengono entrambi di estendere alcune protezioni morali alle macchine. I dibattiti sull’opportunità di riconoscere la personalità dei robot spesso ruotano attorno al suo impatto sull’umanità (cioè, espandere il cerchio morale alle macchine può proteggere meglio le altre persone), ma implica anche domande sul fatto che i robot possiedano la mente appropriata richiesta per i diritti. Sebbene l’autonomia sia importante per i giudizi sulla responsabilità morale, le discussioni sui diritti morali si concentrano tipicamente sulla capacità di sentire. È una questione aperta se i robot saranno mai in grado di provare amore o dolore e, di conseguenza, se le persone percepiranno mai queste capacità nelle macchine.

Sia che stiamo prendendo in considerazione questioni di responsabilità morale o diritti, le questioni relative alla moralità dei robot possono attualmente sembrare fantascienza. Tuttavia, suggeriamo che ora, mentre le macchine e le nostre intuizioni su di esse sono ancora in movimento, è il momento migliore per esplorare sistematicamente le questioni della moralità dei robot. Comprendendo come le menti umane danno un senso alla moralità e come le persone percepiscono le menti delle macchine, possiamo aiutare la società a pensare più chiaramente all’imminente ascesa dei robot e aiutare i robotisti a capire come è probabile che le loro creazioni vengano accolte.”

Questo interessante articolo di Kurt Gray ci apre la strada sulla moralità dei veicoli a guida autonoma e sull’importanza di una discussione più filosofica e psicologica che non tecnica nella costruzione dei futuri robots. Anche il più sofisticato sistema tecnologico se non supportato dagli aspetti psicologici non avrà grande futuro, lo vediamo già ora con i sistemi di assistenza alla guida (ADAS) che spesso vengono disabilitati dal conducente per scarsa conoscenza del sistema, ma anche per poca fiducia nei loro confronti.

 

Bibliografia:
Kurt Gray et al.
Holding Robots Responsible: The Elements of Machine Morality
https://doi-org.proxy.unimib.it/10.1016/j.tics.2019.02.008