Definendo con Etica l’indagine speculativa sul comportamento umano e Roboetica quella relativa ai Robot, possiamo considerare l’una senza l’altra? Risposta breve: no. Risposta lunga:
1. Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e/o la Seconda Legge.
Queste sono le Tre Leggi della Roboetica che Isaac Asimov enunciò nelle sue opere. A queste tre leggi c’è da aggiungere la Legge Zero, la più importante, alla quale le altre tre devono sottostare secondo la postilla “A meno che non contrasti con la Legge Zero”.
Un robot non può danneggiare l’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva danno.
Queste quattro leggi fungono da “comandamenti” che un robot deve rispettare.
E’ da molti anni ormai che aziende investono in ricerche verso la costruzione di automi capaci di compiere mansioni quotidiane: dalla spesa al bricolage, dall’accudire i figli a cucinare. Ricercatori del Pentagono hanno stanziato circa 4 miliardi di dollari sulla ricerca di droni da mandare sul campo di battaglia. Svolta significativa: robot dovranno decidere sulla vita di esseri umani.
È per questo che la Roboetica e le relative Leggi di Asimov ritornano di moda
Tre osservazioni. In primo luogo queste leggi sono indirizzate ai Robots e solamente a loro, ma un particolare fondamentale viene trascurato. Nei romanzi di Asimov i Robots sono macchine coscienti, intelligenti, che sanno prendere decisioni, provare emozioni, hanno sentimenti. I nostri robots saranno capaci di tutto ciò? Una Roboetica sarebbe inutile se queste macchine si riscoprissero solamente dei tostapani giganti.
Ma i computer sono intelligenti quanto l’uomo?
C’è una tendenza a considerare l’intelligenza un insieme di procedimenti logici. Se così fosse il mio computer sarebbe più intelligente di me, in quanto non sono mai riuscito a batterlo a scacchi. Dal punto di vista morale serve ben altro che una successione di algoritmi. Memoria, rappresentazione del mondo sia interno che esterno, pianificazione, linguaggio e cooperazione tra esseri sono i punti base dell’intelligenza umana. Se un’intelligenza artificiale sarà in grado di compiere alla perfezione queste attività, allora una Roboetica potrebbe essere possibile.
In secondo luogo, nulla viene detto del comportamento che un essere umano deve avere nei confronti dei Robots. Se si parla di Robots capaci di seguire regole etiche e quindi moralmente attivi, ci deve essere rispetto nei loro confronti. Una Roboetica incentrata sul comportamento umano nei loro confronti è urgente tanto quanto una Roboetica incentrata sul comportamento robotico.
In terzo luogo, se i robot rimangono solamente macchine prive di autonomia, ovvero strumenti nelle mani dell’uomo, è inutile parlare di Roboetica quando ciò che conta è da regolare è il comportamento umano.
Una prima domanda da porsi e dunque: perché creare macchine capaci di provare dolore tanto quanto gli esseri umani? Emblematico il film Blade Runner dove i Replicanti soffrono proprio per la loro diversità dagli esseri umani.
Una seconda domanda: se queste macchine diventassero sempre di più simili all’Uomo, il confine tra noi e loro diventerebbe sempre più incerto. Dovremmo pensare che l’uomo altro non sia che una macchina evoluta?
Queste sono solo mie considerazioni sbrodolate in qualche riga, dopo aver letto l’articolo su Repubblica.it Il Pentagono riprende Asimov. “Regole etiche per i robot”.
Un commento su “Etica e Roboetica sono più collegate di quanto sembri”