Intelligenza artificiale

Che cos’è l’Intelligenza Artificiale o AI? La risposta a questa domanda riguarda sì l’informatica, ma anche la filosofia, poiché per identificare un’AI bisogna prima di tutto sapere cos’è e come agisce il pensiero umano.

Chiedersi dunque cosa sia Intelligenza Artificiale, come un’AI possa o non possa essere uguale alla mente umana, è un’indagine filosofica tanto quanto chiedersi cosa significhi pensare e com’è costruita l’intelligenza umana.

Le macchine riusciranno un giorno a pensare come gli esseri umani? E perché? Esisterà sempre una differenza tra uomo e macchina o in un futuro queste due entità potranno confondersi?

Antropomorfismo e Robotica: Perché se un robot ci somiglia può essere un problema?

CHE COS’È L’INTELLIGENZA ARTIFICIALE?

Il termine Intelligenza Artificiale ci evoca una serie di immagini che, per il comune sentire, hanno più a che fare con la fantascienza che con la realtà. Se si pensa ad un’AI viene subito in mente un Robot umanoide o una macchina con intelligenza propria.

In realtà l’Intelligenza artificiale è una vera e propria scienza ed è la scienza che si dedica allo sviluppo macchine intelligenti.

Il termine venne coniato nel 1955 dall’informatico John McCarthy, durante un convegno dedicato a computazione e sistemi intelligenti e la definì come il permettere alle macchine di far cose che, se fossero fatte dagli esseri umani, richiederebbero l’uso dell’intelligenza.

AI FORTE E AI DEBOLE

Dagli anni ’50 in poi l’informatica fece passi da gigante fino alla creazione dei primi computer. Il dibattito sull’Intelligenza Artificiale interessò quindi anche i filosofi che iniziarono a chiedersi: la mente umana e la mente artificiale dei computer presentano differenze insormontabili oppure in futuro potranno identificarsi?

Dalle risposte a questa domanda si formarono due scuole di pensiero che si basano su due differenti teorie dell’Intelligenza Artificiale.

Intelligenza Artificiale forte

Secondo i sostenitori della teoria dell’AI Forte, le macchine possono effettivamente definirsi intelligenti e un’intelligenza artificiale può essere paragonata ad una mente umana.

Un giorno potremo quindi avere macchine che ragioneranno e si comporteranno in maniera identica e quindi indistinguibile dall’uomo.

Quasi tutti i film di fantascienza con tematica robot, da Metropolis a Ex Machina passando per Blade Runner e Terminator, come i romanzi di Azimov o Dick, si basano su questa idea.

Intelligenza Artificiale debole

Secondo i sostenitori della teoria dell’AI Debole, le macchine non possono effettivamente definirsi intelligenti, ma possono comportarsi come se lo fossero. Un’intelligenza artificiale non può dunque essere paragonata ad una mente umana, ma agire come se lo fosse.

L’intelligenza artificiale non potrà mai dunque raggiungere le potenzialità della mente umana, sia per ragionamento che per comportamento, perché l’uomo possiede qualcosa in più che una macchina artificiale non potrà mai avere.

FUNZIONALISMO E APPROCCIO HIP: LA MENTE UMANA COME UN COMPUTER

Gli anni ’50 erano dominati da due principali teorie della mente che, sicuramente influenzate dai progressi dell’informatica, paragonavano la mente umana ad un computer.

Questa teoria erano il funzionalismo e la Human Information Processing ed entrambe teorizzavano una sorta di isomorfismo tra mente umana e computer.

Secondo il Funzionalismo, la mente umana agisce, come un computer, per input ed output, ovvero dati degli stimoli esterni (input) risponde con un determinato comportamento (output) sulla base di precise funzioni.

Come un computer è composto da un hardware, ovvero la struttura fisica della macchina, e un software, ovvero il programma che la fa funzionare sulla base di comandi che noi gli diamo, anche la mente umana ha un proprio hardware, il cervello, ed un software, la mente, che tramite la connessione di neuroni esegue determinati programmi in risposta a stimoli.

Principale esponente di questa teoria fu Hilary Putnam, che però se ne distaccò nel corso degli anni, fino a criticarla.

Lo Human Information Processing (HIP), in contrasto agli approcci comportamentisti (Pavlov) ritiene che l’essere umano può essere inteso come un sistema di elaborazione delle informazioni che, codificato un input, ottiene un’informazione, la memorizza, la recupera dalla memoria e produce un output di risposta, in termini di azioni e comportamento.

Come un computer che tramite la CPU processa informazioni contenute nella RAM, così la mente umana processa informazioni contenute nella memoria.

Queste teorie facevano sicuramente il gioco dei difensori dell’AI Forte, anche sull’onda dell’entusiasmo dovuto ai progressi dell’informatica: con sufficienti risorse computazionali, il ragionamento umano potrebbe essere simulato da un calcolatore e un macchina potrebbe riuscire ad avere le stesse capacità di una mente umana.

Quando però maggiori conoscenze sia dell’informatica che della mente umana mostravano più le differenze che le comunanze tra uomo e computer, soprattutto in materia di linguaggio, ecco che a prendere piede furono le teorie dell’AI Debole.

IL CONNESSIONISMO

Questa teoria si sviluppò attorno agli anni ’60 e, in contrapposizione al Funzionalismo (e al cognitivismo), vede la mente come qualcosa di diverso da un software. La mente non è solo un computer che lavora per input e output, ma agisce in maniera molto più complessa grazie a connessioni neuronali che non si possono ricreare attraverso calcoli algoritmici perché stimolati anche dalla memoria, dai ricordi di ciascuno di noi, attraverso relazioni intrinseche alla mente.

Queste connessioni sono così complesse da non poter essere nemmeno descritte e quindi, non potendo essere descritte, non potrebbero essere ricalcate e formalizzate da un software.

Ciò significa che, per i connessionisti, un algoritmo e quindi un’AI non potrà mai eguagliare le capacità di una mente umana, per quanto l’algoritmo risulti elaborato.

IL TEST DI TURING

Oltre al Funzionalismo, a dare man forte alle teorie dell’AI Forte intervenne il matematico Alan Turing, inventore nel 1936 di quello che verrà identificato come l’antenato dei moderni computer: la macchina di Turing.

Questa macchina riceve un input, ovvero una stringa di simboli su un nastro. La macchina può scorrere il nastro in entrambe le direzioni e leggerne il contenuto. La macchina è in grado, ad esempio, di capire se le sequenze di simboli presentano una certa forma.

Tuttavia, tale macchina ha dei limiti, ovvero ci sono calcoli per cui è importante che la macchina non proceda all’infinito, ma ad un certo punto concluda con una soluzione di un problema.

Data una macchina che sta processando un determinato programma dopo un input non è dato sapere se questa macchina arriverà ad un certo punto alla soluzione.

Questo, in breve è il problema della terminazione (che deve molto al Teorema d’incompletezza di Gödel) ovvero, ci sono casi nei quali si verifica l’arresto o si dimostra quando accadrà, casi in cui si procederà all’infinito e casi in cui, invece, non si saprà dare risposta.

Essendo quindi una macchina limitata, può dirsi intelligente?

Per rispondere a questa domanda, nel 1950 Turing pubblicò un articolo sulla rivista Mind in cui presentò un test che poi entrerà nella storia come Test di Turing.

Come si struttura il test di Turing?

Una macchina può definirsi intelligente quando, in una conversazione alla cieca, riesce ad ingannare un uomo facendogli credere di essere anch’essa un uomo.

In sostanza una macchina si definisce intelligente se riesce ad imitare il comportamento umano al punto da ingannare un uomo stesso.

Immaginiamo di porre una macchina all’interno di una stanza chiusa che comunica con l’esterno solo tramite una fessura. In questa fessura, un uomo, totalmente ignari di chi o cosa ci sia nella stanza, inserisce delle domande (input).
Il computer elabora queste domande e da una risposta (output) all’uomo.

Se, dopo aver fatto varie domande ed aver ricevuto varie risposte, quest’uomo non sa dire se all’interno della stanza ci sia un uomo o una macchina, allora questa macchina può dirsi intelligente.

Immagina di ricevere una chiamata da un tale che vuol prenotare, ad esempio, un tavolo nel tuo ristorante. Dopo una serie di domande e risposte, gli assegni il tavolo e la prenotazione.
Tu non hai idea minimamente avvertito che dall’altra parte del telefono ci sia in realtà Google Duplex e non una persona.
Secondo il test di Turing, Google Duplex può dunque definirsi intelligente.

JOHN SEARLE E IL TEST DELLA STANZA CINESE

La teoria dell’AI Forte supportata dal Test di Turing ebbe enorme successo, almeno fino agli anni ’80. Un filosofo della mente della corrente connessionista, John Searle, immaginò un contro esperimento al Test di Turing per dimostrare che non fosse conclusivo, ovvero che non bastava a identificare una macchina intelligente come un uomo.

Questo test passò alla storia come test della stanza cinese.

Immaginiamoci una stanza chiusa fatta eccezione di una fessura. Chi è fuori dalla stanza, come per il test di Turing, non sa chi ci sia dentro, uomo o macchina. A differenza del test di Turing, dentro la stanza ci sta però un uomo.

Quest’uomo ha con se un manuale cinese, composto da ideogrammi. In ogni pagina è presente un diverso ideogramma-domanda associato ad un altro ideogramma-risposta. L’uomo non conosce la lingua cinese e dunque non conosce il significato di questi ideogrammi.

Fuori dalla stanza un altro uomo inserisce nella fessura un foglio con un ideogramma. Quest’uomo conosce il cinese e dunque per lui questo ideogramma ha un significato.
Ricevuto il foglio, l’uomo all’interno della stanza consulta il manuale trova l’ideogramma-domanda e risponde scrivendo l’ideogramma-risposta proposto dal manuale.
L’uomo fuori dalla stanza si vede dunque recapitare una risposta che per lui ha un significato ed è logico e coerente con la domanda posta.

Questo perché il manuale è preciso.

L’uomo fuori dalla stanza, ottenendo risposte coerenti, non saprà dire se dentro la stanza ci sia un uomo o una macchina. Sicuramente c’è qualcuno/qualcosa che sa il cinese, perché risponde in cinese in maniera pertinente.

In realtà l’uomo all’interno della stanza non sa il cinese, non conosce il significato di ciò che riceveva o rispondeva. Si basava semplicemente su quanto scritto dal manuale.

SEMANTICA VS SINTASSI E INTELLIGENZA OLISTICA

Le macchine funzionano esattamente come quell’uomo dentro la stanza: l’ideogramma-domanda è l’input, l’ideogramma-risposta è l’output e il manuale è l’algoritmo o il codice di funzionamento.

Come l’uomo non conosceva il significato degli ideogrammi, ma grazie al manuale riesce a produrre risposte coerenti, così le macchine non conoscono la semantica, ma applicando delle regole producono risposte sintatticamente corrette.

Le macchine dunque non hanno coscienza né intenzionalità di ciò che stanno facendo.
Semplicemente applicano delle regole.

Una macchina, a differenza di un uomo, deve sottostare a queste regole e non può fare altrimenti. Per operare non può prescindere dalle regole scritte dall’algoritmo di base.
Un uomo, invece, pur conoscendo le regole, ma agendo anche con coscienza e intenzionalità può decidere di trasgredirle.

Una macchina può fare solamente ciò che il codice gli permette di fare. Se ad uno stimolo A il codice prevede una risposta B, la macchina può rispondere solo B e non C.

Questa linea venne sposata anche dall’heideggeriano Hubert Dreyfus che coniò il termine di intelligenza olistica, riferendosi all’intelligenza umana in confronto a quella di una macchina.

L’intelligenza olistica è un tipo di intelligenza che lavora non solo cogliendo le parti di ciò che analizza, ma anche la totalità e poiché il tutto non è la semplice somma delle parti che lo compongono, un’intelligenza olistica ha una visione ben più ampia.

La mente umana inoltre (e qui esce l’Heidegger che c’è in Dreyfus) è situazionale, ovvero è un esssere-nel-mondo, cioè è costantemente influenzata e in relazione con il corpo calato tra le cose.
Non è isolata come una mente artificiale, priva di un corpo, di contatti fisici, di relazioni.
Ciò significa che la mente umana ragiona in maniera diversa per situazioni diverse, perché, ad esempio, una determinata situazione ci evoca un ricordo, una credenza condivisa nel nostro orizzonte culturale, oppure perché abbiamo più interesse rispetto ad un’altra.

DANIEL DENNETT, NICK BOSTROM E LA SUPERINTELLIGENZA

Negli ultimi anni, grazie ai nuovi progressi dell’intelligenza artificiale soprattutto dovute alle machine learning, l’idea di un AI forte è tornata alla ribalta.

Daniel Dennett è un filosofo della mente le cui teorie si possono iscrivere all’interno del Funzionalismo.
Secondo Dennett, l’esperimento della stanza cinese è riduttivo. Questo esperimento non aiuta a comprendere che anche la coscienza può essere un software, in quanto si tratta sempre di stimoli e risposte e rielaborazione di dati.

Anche se ora non siamo in grado di creare un software che replichi esattamente la mente umana, non è detto che in futuro ciò sia possibile.

Questa idea di avere in futuro un software in grado di replicare esattamente la mente umana e dunque in grado di apprendere ha messo in allarme Nick Bostrom, che nel 2005, nel suo saggio Superintelligenza. Tendenze, pericoli, strategie mette in guarda da un rischio esistenziale dovuto a AI in grado di avere una propria coscienza.

In sostanza, secondo Bostrom, una superintelligenza potrebbe acquisire motivazioni e obiettivi propri diversi da quelli della nostra specie.

Un esempio che porta a sostegno della sua preoccupazione è ormai diventato famoso: immaginiamo che a questa Superintelligenza venga chiesto semplicemente di massimizzare la produzione di una fabbrica di graffette. Per raggiungere questo suo scopo, una super-AI potrebbe tranquillamente trasformare la Terra stessa in una grossa fabbrica di graffette e in futuro tutto l’universo.
Questo perché una Super-Ai non ragionerebbe all’interno degli schemi di noi esseri umani e quindi diventerebbe per noi imprevedibile, inconcepibile e quindi pericolosa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *