Indice |
Uno scenario futuro
Un robot entra in un bar, il barista gli chiede:
- Desidera?
- Prendo un dado ed un bullone, ma solo inox mi raccomando.
Una scena sicuramente surreale ma non improbabile.
Però sarebbe molto peggio se alla domanda del barista il robot dicesse:
- Dammi tutto quello che hai nel registratore di cassa.
Il tema immaginario degli operai artificiali che si sollevano contro i loro padroni umani è più antico della parola robot apparsa per la prima volta nell'opera teatrale di Karel Čapek del 1920.
Nel 1944 Isaac Asimov inventò le tre leggi della robotica per fornire un codice etico gerarchico ai robot descritti nelle sue storie:
- Non danneggiare mai un essere umano attraverso l'azione o l'inazione.
- Obbedire agli ordini umani.
- Proteggersi.
Purtroppo fin dalla prima storia in cui apparvero le leggi lo stesso Asimov ne esplorò le intrinseche contraddizioni.
Con una minima supervisione i robot sono sempre più operativi negli stessi spazi fisici ed organizzativi in cui operiamo anche noi umani, ma la prospettiva di macchine capaci di seguire principi morali, per non parlare di comprenderli, può sembrare oggi tanto remota quanto è antica la parola robot.
Molti tecnologi sperano in una imminente singolarità tecnologica che computers con intelligenza sovrumana la supereranno improvvisamente dato che danno per scontato che l’intelligenza sia fondamentalmente un processo computazionale, gli ottimisti tra i tecnologi credono anche che i computers avranno comportamenti amichevoli nei confronti degli esseri umani.
Al momento la singolarità tecnologica è molto lontana nel futuro e, anche se l'intelligenza artificiale di per se non è una contraddizione di termini, l'intelligenza artificiale amichevole richiederà importanti progressi scientifici su diversi fronti.
Nelle scienze neurologiche e cognitive hanno guadagnato terreno alternative alla metafora della mente come un computer, la teoria dei sistemi dinamici, la scienza delle reti, la teoria dell’apprendimento statistico, la psicobiologia dello sviluppo e la neuroscienza molecolare mettono tutte in discussione alcuni presupposti fondamentali dell’intelligenza artificiale e, più in generale, gli ultimi cinquanta anni di scienze cognitive.
Questi nuovi approcci analizzano la complessa struttura causale dei sistemi biologici inseriti a ogni livello nell’ambiente da quello molecolare a quello sociale e dimostrano l’inadeguatezza degli algoritmi altamente astratti che operano su simboli discreti con significati fissi per catturare la flessibilità adattiva del comportamento intelligente, sicuramente destrutturano l’idea che la mente sia fondamentalmente un computer digitale.
In ogni modo questi approcci hanno migliorato la nostra capacità di utilizzare i computer per simulazioni sempre più robuste di agenti intelligenti, simulazioni che controlleranno sempre meglio le macchine che occupano la nicchi cognitiva.
La riflessione sulla moralità delle macchine deve essere molto profonda, molti autori ritengono questa idea uno specie di scherzo ed insistono che le macchine fanno solo quello che viene detto loro di fare.
Il robot ladro del bar, come descritto in precedenza, dovrebbe essere istruito o costruito per fare il ladro, la moralità è un problema solo per soggetti come gli umani che possono scegliere come farlo, le persone sono moralmente buone solo nella misura in cui devono superare l’impulso di fare ciò che è male. Possiamo essere morali, si dice, perché siamo liberi di scegliere la nostra strada.
In questa affermazione sono presenti importantissimi temi: la libertà, la volontà, la spontaneità, la creatività umana, il ruolo della ragione nel decidere i comportamenti per non parlare della natura stessa della moralità.
L'azione morale a livello umano e tutte le responsabilità che ne derivano richiedono sviluppi nell’intelligenza artificiale o nella vita artificiale che sono, ma solo per ora, nel dominio della fantascienza.
Alcuni sviluppi
Le aziende stanno sviluppando robot per l’assistenza domiciliare agli anziani, aspirapolvere, tosaerba, macchine a guida autonoma e altri dispositivi che operano sempre più con una minima supervisione umana.
Ora viene spontaneo chiedersi quanto tempo ci vorrà prima che il prossimo rapinatore di banche userà un veicolo a guida autonoma per fuggire? Una autonomia nel senso dell'ingegnere, non del filosofo.
Le auto non dovranno avere il senso del libero arbitrio, nemmeno illusorio, possono scegliere i propri percorsi attraverso la città ma, almeno per il prossimo futuro, non dovranno scegliere i propri percorsi nei viaggi della loro vita operativa, ma mano a mano che gli strati di software si accumuleranno tra noi e le nostre automobili diventeranno sempre più indipendenti dal nostro controllo diretto.
Col passare del tempo sarà sempre minore il ruolo dei supervisori umani nel controllo dei robot che operano localmente o a centinaia o migliaia di miglia dai supervisori, questi robot dovranno adattarsi alle condizioni locali più velocemente di quanto possano essere segnalate ed elaborate dai teleoperatori umani.
E mentre, anche nell'esercito, nessuno raccomanda ancora che la decisione sull’uso della forza letale venga affidata al software, i militari sono molto impegnati nell’uso di sistemi autonomi da sponsorizzare, e ingegneri e filosofi per delineare le prospettive di una robotica militare autonoma come rischio per la gestione etica delle macchine sul campo di battaglia.
Che l'intelligenza artificiale amichevole sia uno scherzo o no, il tema della moralità delle macchine è presente e sarà sempre più presente.
Anche modesti livelli di autonomia ingegneristica rendono necessario delineare alcuni obiettivi, non importanti, per la progettazione di agenti morali artificiali.
Obiettivi non importanti perché non stiamo parlando di sistemi di guida per terminator o di altra tecnologia che ancora non esiste.
Sono obiettivi necessari poiché le macchine con autonomia limitata operano sempre più spesso in ambienti aperti, di conseguenza diventa importante progettare una sorta di moralità funzionale che sia sensibile alle caratteristiche eticamente rilevanti di quelle situazioni.
Questa moralità funzionale è modesta perché non riguarda l’agire morale auto riflessivo, ciò che si potrebbe chiamare un’attività morale piena, ma semplicemente il tentativo di rendere gli agenti autonomi più capaci di adattare le loro azioni alle norme umane, ciò può essere fatto con la tecnologia già disponibile e può essere realizzato entro i prossimi anni.
La volontà di progettare agenti morali artificiali provoca un’ampia varietà di reazioni negative, incluso il fatto che sarebbe assurdo, orrendo o banale, si può essere incentrati sull'uomo nelle opinioni sulla moralità ed eccessivamente ottimisti riguardo alle soluzioni tecnologiche e di porre troppa enfasi sull’ingegneria dei robot piuttosto che guardare all’intero contesto in cui le macchine operano.
Lungi dall’essere un esercizio di fantascienza, un serio impegno nella progettazione di agenti morali artificiali ha il potenziale per rivoluzionare la filosofia morale nello stesso modo in cui l’impegno dei filosofi con la scienza rivoluziona continuamente l’auto comprensione umana.
Si possono acquisire nuove conoscenze affrontando la questione se e come un’architettura di controllo per i robot possa utilizzare, o ignorare i principi generali raccomandati dalle principali teorie etiche.
La teoria etica
Forse la teoria etica sta agli agenti morali come la fisica sta ai super scienziati: una conoscenza teorica che non è necessaria per giocare una buona partita. Tale conoscenza teorica può ancora essere utile dopo il fatto per analizzare e adeguare le prestazioni future.
Il successo nella costruzione di agenti morali artificiali è difficile da valutare ma la competenza può aiutare a prevenire la propagazione di tecnologie inflessibili ed eticamente cieche.
Facciamo un esempio: se le auto sono abbastanza intelligenti da destreggiarsi nel traffico cittadino, lo sono sicuramente abbastanza da rilevare da quanto tempo sono rimaste parcheggiate fuori da un bar e da chiedere al guidatore di dimostrare che non è ubriaco prima di avviare il motore e poter tornare a casa.
Nel breve termine, sarà ancora necessario un essere umano responsabile per supervisionare queste auto intelligenti, quindi è meglio che il supervisore sia sobrio.
Ma questa supervisione richiede veramente una moralità artificiale quando si potrebbe semplicemente mettere un etilometro per attivare l'accensione della vettura?
Un sistema così stupido e inflessibile avrebbe una sorta di moralità operativa perché l’ingegnere ha deciso che nessuna macchina dovrebbe essere avviata da una persona con un certo livello di alcol nel sangue.
Ma sarebbe eticamente cieco, incapace, ad esempio, di riconoscere la differenza tra un autista che ha bisogno dell'auto semplicemente per tornare a casa da un altro autista che pur avendo bevuto un paio di drink durante la cena ha bisogno dell'auto perché sul sedile posteriore c'è un bambino che necessita di un ricovero urgente.
Rientra nelle attuali capacità umane la costruzione di macchine in grado di determinare, sulla base di informazioni in tempo reale sulle condizioni attuali del traffico e sull’accesso a tabelle attuariali, quanto sia probabile che la situazione descritta in precedenza possa portare a un incidente.
Naturalmente, questo rinvia solo la questione etica su come valutare il potenziale danno che ciascuna opzione presenta, ma un sistema ben progettato di interazione uomo macchina potrebbe consentire di registrare temporaneamente l'operatività manuale in una scatola nera simili a quelle utilizzate sugli aerei, in caso di incidente o di controllo ciò fornirebbe la prova che una persona si è assunta la responsabilità delle attività.
Proprio come possiamo immaginare dei robot con gradi crescenti di autonomia dalla supervisione umana, possiamo immaginare dei robot i cui controlli implicano gradi crescenti di sensibilità verso le cose che contano eticamente: robot certamente non perfetti, ma eticamente più presenti.
Questo discorso sugli agenti morali artificiali può ridurre l’autonomia umana e può abbassare le barriere nei confronti della guerra contribuendo alla nostra stessa disumanizzazione?
Se fosse così, gli agenti morali artificiali come faciliterebbero il percorso verso un futuro orrendo e distopico? Bisogna essere sensibili alle preoccupazioni, ma abbastanza ottimisti da pensare che questo tipo di pessimismo tecnologico sia stato, nel corso dei secoli, super valutato, i luddisti sono sempre sembrati bizzarri, tranne quando erano pericolosi.
La sfida sia per i filosofi che per gli ingegneri è di capire cosa deve e cosa può essere fatto ragionevolmente da robot in qualche modo autonomi ed in parte eticamente sensibili, anche se si potrebbe pensare che l’esplorazione di questo spazio sia troppo pericolosa per essere consentita.
I proibizionisti potrebbero avere successo in alcune aree, ad esempio nel controllo delle armi robotiche, ma non saranno in grado di contenere la diffusione di robot sempre più autonomi nelle case, nell'assistenza agli anziani e negli spazi pubblici, per non parlare degli spazi virtuali in cui molti software già operano senza alcuna persona che faccia controlli.
Sono sempre più necessarie macchine che svolgano lavori domestici e commissioni senza doverle monitorare ontinuamente.
I rivenditori e le banche dipendono da software che controllano tutti i tipi di operazioni, dagli acquisti con carta di credito al controllo delle scorte, liberando gli esseri umani che possono fare altre cose per le quali non sappiamo ancora come costruire e programmare dei robot. Ma un ingegnere del software potrebbe chiedere dove sia la sfida.
La governance etica per le macchine non è semplicemente la risoluzione dei problemi entro i limiti imposti? Se c'è confusione sulla natura di questi vincoli, non è forse un problema filosofico e non ingegneristico?
Non penso che l'etica umana sia la guida per fornire una regola dorata per i robot.
Il perché della moralità dei robot.
Gli agenti morali artificiali sono necessari e inevitabili. Le tecnologie innovative stanno convergendo verso sistemi sofisticati che richiederanno una certa capacità di prendere decisioni morali. Con l’implementazione delle auto senza conducente, il dilemma etico del treno inventato dagli studiosi di etica per studiare i dilemmi morali possono rappresentare sfide reali per gli agenti morali artificiali.
Il problema del treno.
Uno di questi scenari etici è il problema del treno, un esperimento mentale che esamina le scelte morali coinvolte nel processo decisionale dell’intelligenza artificiale. Proviamo a comprendere il problema del treno ed esploriamo casi d'uso nel mondo reale che evidenziano le sfide etiche che l'intelligenza artificiale pone in questi settori.
Cos'è questo problema.
Il problema del treno è un noto esperimento mentale di etica e filosofia morale. Presenta uno scenario ipotetico in cui una persona si trova vicino a una serie di binari ferroviari e vede avvicinarsi un treno in corsa. Ci sono più persone impossibilitate a muoversi sui binari e il treno si dirige dritto verso di loro.
Una persona che si trova nelle vicinanze ha la possibilità di tirare una leva e deviare il treno su un altro binario, dove è presente una sola persona.
Il dilemma morale sorge quando si deve decidere se agire e tirare la leva, facendo cambiare binario al treno e salvando potenzialmente la vita di molti al costo di una vita, o astenersi dall’intervenire, consentendo al treno di proseguire. il suo percorso attuale, provocando la morte di più persone.
La rilevanza del problema del treno.
L’intelligenza artificiale viene sempre più integrata nei processi decisionali, dai veicoli automatizzati alle valutazioni del credito e alla diagnostica medica. Man mano che i sistemi di intelligenza artificiale diventano più complessi con l’uso di iniziative di deep learning, il potenziale di conseguenze per le decisioni sta crescendo, rendendo necessarie considerazioni etiche per garantire un’implementazione responsabile dell’intelligenza artificiale.
Il problema del treno può verificarsi in varie applicazioni, incluse ma non limitate a:
Assistenza sanitaria: le diagnosi mediche basate sull’intelligenza artificiale possono sollevare preoccupazioni etiche nel determinare l’allocazione di risorse mediche limitate o nel dare priorità a determinate popolazioni di pazienti.
Finanza: le valutazioni del credito basate sull’intelligenza artificiale devono essere progettate per garantire equità ed evitare discriminazioni contro specifici gruppi demografici.
Veicoli autonomi: le auto a guida autonoma devono prendere decisioni in frazioni di secondo in potenziali scenari di incidente, sollevando interrogativi sulle considerazioni etiche che guidano le loro scelte.
Come affrontare il problema del treno.
Processo decisionale trasparente:
Per affrontare le sfide etiche del processo decisionale relativo all’intelligenza artificiale, è essenziale consentire alle organizzazioni di comprendere i fattori che contribuiscono ai risultati generati dall'intelligenza artificiale, promuovendo trasparenza e fiducia.
Mitigazione dei pregiudizi:
È fondamentale verificare regolarmente gli algoritmi di intelligenza artificiale per individuare potenziali pregiudizi e adottare misure attive per eliminare la discriminazione. Garantire un insieme di dati diversificati e inclusivi durante la formazione del modello di intelligenza artificiale può ridurre significativamente i risultati distorti.
Coinvolgimento umano:
Incorporare il giudizio umano e la supervisione nel processo decisionale relativo all’intelligenza artificiale può aggiungere un ulteriore livello di considerazione etica. Il coinvolgimento degli esseri umani nelle decisioni critiche può mitigare il rischio di conseguenze indesiderate.
Il problema del treno sfida ad affrontare complesse decisioni etiche nell’era dell’integrazione dell’intelligenza artificiale. Poiché l’intelligenza artificiale continua ad evolversi, è imperativo affrontarne le implicazioni etiche per costruire un futuro responsabile e inclusivo.
Moralità del robot ed etica umana
Si può pensare che, se gli ingegneri lasciano ai filosofi il compito di elaborare teorie che possono implementare, avranno una lunga attesa, ma se i filosofi lasciano agli ingegneri il compito di implementare qualcosa di realizzabile, probabilmente rimarranno delusi dal risultato.
La sfida è conciliare questi due modi piuttosto diversi di affrontare il mondo, per ottenere una migliore comprensione di come le interazioni tra persone e contesti ci consentono, a volte, di seguire un percorso ragionevole attraverso le esigenze concorrenti della nostra nicchia morale.
I diversi tipi di rigore forniti da filosofi e ingegneri sono entrambi necessari per informare la costruzione di macchine che, quando integrati in sistemi ben progettati di interazione uomo-macchina, producono decisioni moralmente ragionevoli anche in situazioni in cui le leggi di Asimov produrrebbero una situazione di stallo.
La ricchezza del processo decisionale morale umano è sottolineata dal progetto di sviluppo di un agente morale artificiale.
Questo breve epilogo discute il modo in cui il progetto di costruire agenti morali artificiali influisce sulla nostra comprensione di noi stessi come agenti morali e sulla natura della stessa teoria etica. I limiti dell’attuale teoria etica per lo sviluppo dell’architettura di controllo degli agenti morali artificiali mettono in luce domande profonde sullo scopo di tali teorie.