Potrà mai una macchina diventare autocosciente?

Giorgio Buttazzo
http://feanor.sssup.it/~giorgio


Dal film Terminator 2 - Judgment Day

"Los Angeles, anno 2029. Tutti gli elicotteri da guerra ed i caccia bombardieri saranno completamente autonomi ed equipaggiati con processori neurali in grado di controllare la guida e prendere decisioni di comando. Uno di essi, Skynet, comincerà ad apprendere con una velocità esponenziale e diventerà autocosciente alle 2:14 del 29 Agosto."

Questa è la visione del futuro descritta nel film "Terminator 2 - Judgment Day", diretto da James Cameron nel 1991. La presa di coscienza di Skynet e il successivo attacco contro l’uomo segnano l’inizio di una guerra tra robot e umani, che costituisce la scena iniziale del film.

Sin dalla metà di questo secolo, i film di fantascienza hanno spesso ritratto i robot come macchine sofisticatissime costruite dall’uomo per effettuare operazioni complesse di elevata precisione, affiancare l’uomo in missioni pericolose da compiere in ambienti ostili o, più spesso, guidare astronavi in viaggi interstellari. Al tempo stesso, però, i robot intelligenti sono ritratti come macchine pericolose, capaci di rivoltarsi contro l’uomo tramando piani diabolici. L’esempio più significativo di robot con queste caratteristiche è rappresentato da HAL 9000, protagonista del film "2001 Odissea nello Spazio", di Stanley Kubrick e Arthur Clarke.

Solo in pochissimi film, i robot sono visti come collaboratori affidabili, che cooperano con l’uomo, anziché cospirare contro di esso. Nel film Ultimatum alla Terra, diretto da Robert Wise nel lontano 1951, Gort è forse il primo esempio di robot (extraterrestre in questo caso) che affianca fedelmente il capitano Klaatu nel compito di annunciare il messaggio alieno agli abitanti della Terra.


Anche Robocop (Paul Verhoeven, 1987) è un robot affidabile che collabora con l’uomo per il rispetto della legge. Tuttavia, è bene precisare che esso non è un automa completamente robotico (come Terminator) ma ibrido, costruito integrando parti organiche umane con parti sintetiche (ossia un cyborg).

La duplice connotazione che spesso viene attribuita ai robot della fantascienza rappresenta chiaramente l’espressione dei desideri e dei timori che l’uomo ha nei confronti della sua stessa tecnologia. Da un lato, infatti, l’uomo proietta nel robot il desiderio irrefrenabile di immortalità, incarnato in un essere artificiale potente e indistruttibile, le cui capacità intellettive, sensoriali e motorie sono molto più accentuate rispetto a quelle umane. Dall’altro lato, però, incombe la paura che una tecnologia troppo avanzata (e pertanto misteriosa per la maggior parte delle persone) possa sfuggire di mano e che la macchina artificiale possa prendere il sopravvento sull’uomo, ritorcendosi contro lo stesso creatore (vedi Frankenstein, HAL 9000, Terminator, e i robot di Matrix). A tal proposito, viene in mente il cervello positronico dei robot di Isaac Asimov [Asi 68], frutto di una tecnologia talmente sofisticata che nessuno ormai sapeva spiegarne il vero funzionamento, pur essendo il processo di costruzione completamente automatizzato.

I recenti progressi della tecnologia informatica hanno fortemente influenzato le caratteristiche dei robot della nuova fantascenza. Ad esempio, le teorie informatiche sul connessionismo e sulle reti neurali artificiali (mirate a replicare alcuni meccanismi di elaborazione tipici del cervello) hanno ispirato film come Terminator, in cui i robot, oltre ad essere potenti ed intelligenti, sono anche in grado di apprendere sulla base della propria esperienza.

"Potrà mai un essere artificiale, se pur sofisticatissimo, diventare autocosciente?"

Prima di rispondere a tale quesito, dovremmo forse chiederci: "come possiamo verificare che un essere sia autocosciente?". Nel 1950, il pioniere dell’informatica, Alan Turing, si pose un interrogativo simile ma relativo all’intelligenza e, al fine di stabilire se una macchina possa essere ritenuta intelligente quanto l’uomo, propose un famoso test, noto come test di Turing: un esaminatore ha davanti a sé due terminali, uno connesso con un computer e l’altro connesso con un umano. Utilizzando i terminali, l’esaminatore pone delle domande e osserva le rispettive risposte sul terminale corrispondente. Se dopo un tempo ragionevole l’esaminatore non è in grado di determinare chi è la controparte, allora diciamo che la macchina ha superato il test di Turing. Attualmente, nessun computer è in grado di superare il test di Turing, a meno che non si restringa l’interazione ad un settore molto specifico, come quello degli scacchi.

L’11 Maggio 1997, alle 19:00 ora di Greenwich, per la prima volta nella storia, un computer denominato Deep Blue ha battuto in torneo il campione del mondo di scacchi Garry Kasparov, per 3.5 a 2.5. Come tutti i computer attuali, tuttavia, Deep Blue non comprende il gioco degli scacchi, ma applica solo delle regole per trovare la mossa che conduce ad una posizione per esso più vantaggiosa, secondo un criterio di valutazione programmato da esperti. Se accettiamo la visione di Turing, dunque, possiamo affermare che Deep Blue gioca a scacchi in modo intelligente, ma possiamo altrettanto affermare che esso non comprende il significato delle mosse effettuate, così come un televisore non comprende il significato delle immagini che visualizza.

Il problema di stabilire l’esistenza di una coscienza in un essere intelligente risulta ancora più complesso. Infatti, se l’intelligenza è l’espressione di un comportamento esteriore che può essere misurato mediante dei test, l’autocoscienza è l’espressione di uno stato interno del cervello che non può essere misurato.

Da un punto di vista puramente filosofico, non è possibile verificare l’esistenza di uno stato cosciente in un altro essere (sia esso umano, che artificiale), poiché questa è una proprietà che può essere osservata solo da chi la possiede. Non potendo entrare nella mente di un altro individuo, non si può essere certi della sua coscienza. Tale problema è affrontato in modo approfondito e stimolante da Douglas Hofstadter e Daniel Dennett, nel libro The Mind's I [Hof 85].

Da un punto di vista più pragmatico, invece, si potrebbe seguire l’approccio di Turing e dire che un essere può essere considerato autocosciente se è in grado di convincerci, superando dei test mirati allo scopo. Tra gli esseri umani, inoltre, la convinzione che una persona diversa da noi sia cosciente è basata, oltre che su valutazioni oggettive, anche su considerazioni di similitudine: poiché siamo fatti di organi simili e possediamo un cervello simile, è ragionevole supporre che anche la persona che abbiamo davanti sia cosciente come noi. Chi metterebbe in discussione la coscienza dei nostri genitori, dei nostri amici, o di qualsiasi altro essere umano? Se però l’essere che abbiamo di fronte, pur comportandosi come un essere umano, fosse costruito con tessuti sintetici, organi meccatronici e processori neurali, le nostre conclusioni sarebbero forse diverse.

Con l’avvento delle reti neurali artificiali, il problema della coscienza artificiale pone interrogativi ancora più sottili, perché le reti neurali, replicando il comportamento elettrico del cervello, forniscono un supporto adatto alla realizzazione di un meccanismo di elaborazione simile a quello adottato dal cervello umano. Nel libro "Impossible Minds", Igor Aleksander [Ale 97] affronta tale argomento con profondità e rigore scientifico.

Dunque, se è vero che un computer basato sui paradigmi di elaborazione classici, pur essendo enormemente potente, non ha le caratteristiche per diventare autocosciente, possiamo affermare la stessa cosa per una rete neurale artificiale? Se abbattiamo anche la barriera della diversità strutturale tra cervello biologico e artificiale, la questione sulla coscienza non può che diventare religiosa. Ossia, se si crede che la coscienza umana sia determinata da un intervento divino, allora è chiaro che un sistema artificiale creato dall’uomo non potrà mai diventare cosciente. Se invece si crede che la coscienza sia uno stato elettrico neuronale sviluppato spontaneamente dai cervelli complessi (come quello dell’uomo), allora la possibilità di realizzare una coscienza artificiale rimane aperta. Se sosteniamo l’ipotesi della coscienza come caratteristica fisica del cervello, allora la domanda che viene da porsi è:

"Quando un sistema artificiale potrà sviluppare una coscienza di sé?"

Rispondere anche in modo approssimativo a questa domanda è a dir poco azzardato. Tuttavia è possibile determinare una condizione necessaria, senza la quale una macchina non può sviluppare una coscienza di sé. L’idea si basa sulla semplice considerazione che, per poter sviluppare autocoscienza, una rete neurale artificiale deve avere una complessità almeno paragonabile a quella del cervello umano.

Il cervello umano è composto da circa 1012 neuroni, e ciascun neurone effettua in media 103 connessioni (sinapsi) con altri neuroni, per un totale di 1015 sinapsi. In una rete neurale artificiale, una sinapsi può essere efficacemente simulata con un numero reale (floating point) rappresentabile su 4 byte di memoria. Di conseguenza, la quantità di memoria richiesta per simulare 1015 sinapsi è di 4*1015 byte (4 milioni di gigabyte). Diciamo che per simulare l’intero cervello umano siano necessari 8 milioni di gigabyte, includendo la memoria necessaria a memorizzare i valori di uscita dei neuroni ed altri stati cerebrali interni. Allora, la domanda diventa:

"Quando tale quantità di memoria sarà disponibile su un computer?"

Durante gli ultimi 20 anni, la capacità della memoria RAM nei computer è cresciuta in modo esponenziale, decuplicando circa ogni 4 anni. Il grafico riportato in Figura 1 illustra le tipiche configurazioni di memoria installate sui personal computer a partire dal 1980.

Figura 1: Tipiche configurazioni di memoria RAM (in byte) installate nei personal computer negli ultimi venti anni.

Interpolando i punti del grafico si ricava la seguente relazione, che consente di stimare la dimensione (in byte) della memoria installata in funzione dell’anno:

bytes = 10[(year - 1966)/4].

Ad esempio, dall’equazione si ricava che, nel 1990, un personal computer era dotato tipicamente di 1 Mbyte di memoria RAM. Nel 1998, una configurazione tipica prevedeva circa 100 Mbyte di RAM, e così via.

Invertendo la relazione, è possibile prevedere l’anno in cui sarà disponibile una data quantità di memoria (sempre che la crescita segua lo stesso andamento rilevato negli ultimi anni):

year = 1966 + 4 log10 (bytes).

Ora, per conoscere l’anno in cui un computer disporrà di 8 milioni di gigabyte di RAM (8*1015 byte), dobbiamo solo sostituire tale numero nell’equazione precedente e calcolare il risultato. La risposta che si ottiene è:

year = 2029.

Un’interessante coincidenza con la data predetta nel film Terminator!

Per comprendere il significato del risultato ottenuto, è importante fare alcune considerazioni. Innanzitutto, è bene ricordare che la data ricavata si riferisce solo a una condizione necessaria, ma non sufficiente, per lo sviluppo di una coscienza artificiale. In altre parole, l’esistenza di un calcolatore potente dotato di milioni di gigabyte di memoria RAM non è sufficiente da sola a garantire che esso diventi "magicamente" autocosciente. Ci sono altri fattori altrettanto determinanti, come il progresso delle teorie sulle reti neurali e sulla conoscenza dei meccanismi del pensiero, per i quali è impossibile fare delle previsioni precise. Inoltre, qualcuno potrebbe obiettare che il calcolo effettuato è basato sulla memoria RAM dei personal computer, che non rappresentano il top della tecnologia, oppure che la stessa quantità di memoria potrebbe essere raggiunta mediante una rete di computer o sfruttando lo spazio di hard disk attraverso meccanismi di memoria virtuale. Comunque si modifichi il calcolo, tuttavia, l’idea portante rimane invariata e la data ottenuta potrebbe essere anticipata solo di qualche anno.

Infine, dopo tutto questo discorso sulla coscienza artificiale, qualcuno potrebbe domandarsi:

"Perché costruire una macchina tanto intelligente da sviluppare autocoscienza?"

A parte i problemi etici, che potrebbero influenzare il progresso in questo settore, la motivazione più forte è sicuramente dettata dal desiderio innato dell’uomo di scoprire nuovi orizzonti e allargare le frontiere della scienza. In secondo luogo, la costruzione di un cervello artificiale basato sullo stesso principio di funzionamento del cervello umano (lo scambio di informazioni tra neuroni) potrebbe fornire la possibilità di trasferire la nostra mente su un supporto hardware più duraturo, aprendo una via verso l’immortalità. Liberati da un corpo fragile e degradabile, gli esseri umani dotati di un corpo sintetico più potente e di un cervello artificiale in grado di essere duplicato, potrebbero rappresentare il nuovo gradino evolutivo dell’uomo. Questa nuova specie, risultato naturale del progresso umano (e non della volontà di una dittatura) potrebbe cominciare l’esplorazione dell’universo alla ricerca di altre civiltà, sopravvivere alla morte del nostro sistema solare, controllare l’energia dei buchi neri, e viaggiare alla velocità della luce trasmettendo le informazioni necessarie alla sua replicazione su altri mondi.

L’esplorazione dello spazio per la ricerca di civiltà intelligenti è già cominciata nel 1972, quando la sonda robotica Pioneer 10 è stata lanciata oltre i confini del sistema solare con lo scopo di trasmettere nello spazio un insieme di informazioni sulla nostra civiltà e sul nostro pianeta.

Come in tutte le scoperte importanti dell’uomo, dall’energia nucleare alla bomba atomica, dall’ingegneria genetica alla clonazione umana, il vero problema è stato e sarà quello di controllare che la tecnologia sia utilizzata per il progresso dell’umanità, e non per la sua distruzione. In questo senso, il messaggio lanciato da Klaatu nel film Ultimatum alla Terra, nel lontano 1951, sembra essere il più attuale!


References

[Ale 97] Igor Aleksander, "Impossible Minds: My Neurons, My Consciousness", World Scientific Publishers, October 1997.

[Asi 68] Isaac Asimov, "I, Robot" (a collection of short stories originally published between 1940 and 1950), Grafton Books, London, 1968.

[Hof 85] Douglas R. Hofstadter and Daniel C. Dennett, "The Mind's I", Bantam Books, 1985.

[Sto 97] David G. Stork, "HAL's Legacy: 2001's computer as dream and reality", edited by David G. Stork, Foreword by Arthur C. Clarke, MIT Press, 1997.