In un saggio del 1950 Alan Turing si chiedeva se i computer potessero pensare. Turing sosteneva che la domanda era priva di senso a meno che non si riuscisse a indicare qualcosa che un agente pensante è in grado di fare e un agente non pensante no. Quale sarebbe questa differenza? I computer facevano già dei calcoli che precedentemente avevano richiesto l'opera di esseri umani intelligenti e impegnati. Turing capì che il test sarebbe dovuto essere qualcosa di più sottile che, diciamo, giocare una buona partita a scacchi. I computer l'avrebbero fatto presto, molto prima di avvicinarsi alla capacità di "pensare". Turing proposte come test ciò che chiamò il "gioco dell'imitazione".
Una persona è seduta al terminale di un computer e rivolge domande a due esseri, A e B, nascosti in altre stanze. Uno dei due è una persona, l'altro un sofisticato programma per computer che si presume in grado di pensare. L'obiettivo dell'interrogante è dire quale dei due sia l'essere umano e quale il computer. Frattanto, sia l'essere umano che il computer fanno del loro meglio per convincere l'interrogante che sono umani. È come un gioco a quiz televisivo in cui lo scopo sia distinguere una persona sconosciuta da un impostore.
Il fatto che l'interrogante comunichi soltanto tramite il terminale del computer gli impedisce di usare qualcosa di diverso dall'effettivo testo delle risposte. Non può aspettarsi di riconoscere una voce sintetizzata per via del suono metallico o da altri indizi non pertinenti. L'essere umano nascosto può dire cose come "Ehi, sono umano!" Questo forse non servirebbe a molto, perché il computer può dire la stessa cosa. Il computer non è tenuto a confessare di essere il computer, nemmeno se gli viene chiesto direttamente. Entrambi sono autorizzati a mentire se e quando pensano che serva allo scopo. Se l'interrogante chiede dati "personali" come il cognome da nubile della madre di A o il numero di scarpe di B, il computer può inventarseli di sana pianta.
Per "superare" il test, un programma di computer deve essere in grado di fornire risposte umane tali da essere ritenuto un essere umano per circa la metà della durata del gioco. Se un computer passasse questo test, diceva Turing, dimostrerebbe davvero intelligenza, nella misura in cui l'intelligenza sia definibile mediante azioni e reazioni esterne. Non è un'affermazione di poco conto.
Detto questo, un computer sarebbe in grado di pensare? Turing concluse che l'interrogativo originario, se i computer siano in grado di pensare, sia "troppo privo di senso da meritare una discussione. Nondimeno, ritengo che alla fine del secolo l'uso delle parole e le opinioni generali della gente colta saranno mutati al punto che si potrà parlare di macchine che pensano senza aspettarsi di essere contraddetti."
Negli anni trascorsi dal saggio di Turing, è diventato comune nelle scienze cognitive associare i processi mentali ad algoritmi. Se eseguite un certo algoritmo per calcolare le cifre del pi greco, una piccola parte del vostro processo di pensiero è direttamente paragonabile all'azione di un computer che calcoli il pi greco per mezzo dello stesso algoritmo. Un'opinione diffusa e ben nota è che l'intelligenza e perfino la coscienza siano come programmi per computer che possono "girare" su diversi tipi di "hardware", compreso quello biologico del cervello. Le funzioni dei neuroni cerebrali e le loro condizioni e interconnessioni potrebbero in linea di principio essere ricreate esattamente da un programma per computer incredibilmente complesso. Se tale programma fosse fatto girare, anche su un computer composto da microchip e cavi, dimostrerebbe forse la nostra stessa intelligenza e perfino coscienza.
Per lungo tempo si è pensato alla mente come anima, o slancio vitale, o parte del dualismo cartesiano. Gran parte della comunità intellettuale ha abbandonato questi modelli in favore di un'immagine meccanicistica della coscienza. L'esperimento mentale di John Searle, del 1980, presenta una caricatura della mente ridotta a un gioco delle tre carte. Se la coscienza non è che un algoritmo, dove sta la mente? Searle scopre l'ultima carta e mostra che l'asso non c'è più.
La stanza del cinese
Immaginate di trovarvi segregati in una stanza chiusa. La stanza è praticamente vuota. Vi è un grosso libro dal titolo poco promettente: Che cosa fare se infilano sotto la porta un foglio scritto in cinese.
Un giorno un foglio di carta con dei caratteri cinesi viene infilato sotto la porta chiusa. Per voi, che non sapete niente di cinese, contiene simboli privi di senso, nient'altro. Ormai cercate disperatamente un modo per passare il tempo. Pertanto consultate Che cosa fare se infilano sotto la porta un foglio scritto in cinese. Descrive un tedioso ed elaborato passatempo solitario che potete "giocare" con i caratteri cinesi del foglio. Dovete cercare nel testo certi caratteri cinesi e registrare la loro frequenza secondo complicate regole descritte nel libro. Sembra tutto privo di senso ma, non avendo niente da fare, seguite le istruzioni.
Il giorno seguente ricevete un altro foglio di carta con altri caratteri cinesi. Anche questa eventualità è prevista nel libro. Il libro ha ulteriori istruzioni per correlare e manipolare i simboli cinesi del secondo foglio, e abbinare queste informazioni al lavoro eseguito con il primo foglio. Il libro si conclude con le istruzioni per copiare certi simboli cinesi (alcuni tratti dai fogli, altri dal libro) su un nuovo foglio di carta. I simboli che copiate dipendono, in modo molto complicato, dal vostro lavoro precedente. Poi il libro dice di infilare il nuovo foglio sotto la porta della stanza chiusa. Così fate.
A vostra insaputa, il primo foglio di caratteri cinesi era un racconto cinese, e il secondo foglio conteneva domande sul racconto, come in una prova di lettura. Il foglio di caratteri che avete copiato seguendo le istruzioni conteneva (sempre a vostra insaputa!) le risposte alle domande. Avete manipolato i caratteri attraverso un algoritmo molto complesso scritto in italiano. L'algoritmo simula il modo in cui pensa una persona di madrelingua cinese, o almeno il modo in cui una persona di madrelingua cinese legge qualcosa, lo capisce e risponde a domande su ciò che ha letto. L'algoritmo è talmente buono che le "risposte" che avete dato sono indistinguibili da quelle che avrebbe dato una persona di madrelingua cinese, che avesse letto lo stesso racconto e a cui fossero state poste le stesse domande.
Coloro che hanno costruito la stanza affermano che contiene un maiale addestrato che capisce il cinese. Portano la stanza alle fiere di paese e dicono alla gente di sottoporre racconti in cinese e porre domande basate sui racconti. La gente all'esterno è scettica riguardo alla storia del maiale. Le risposte sono così coerentemente "umane" che tutti immaginano che in realtà li dentro vi sia una persona che capisce il cinese. Fintanto che la stanza rimane chiusa, niente dissuaderà le persone all'esterno da questa ipotesi.
Il ragionamento di Searle è questo: voi capite il cinese? Naturalmente no! Essere in grado di seguire complesse istruzioni in italiano non è la stessa cosa che sapere il cinese. Voi non sapete, e non avete dedotto, il significato di nessun carattere cinese. Il libro di istruzioni non è assolutamente un corso accelerato di cinese. Non vi ha insegnato niente. È un'operazione puramente meccanica, e non vi rivela mai perché facciate una data cosa o che cosa significhi un dato carattere.
Per voi, tutto ciò non è che un passatempo. Prendete i simboli dai fogli in cinese e li copiate su fogli bianchi seguendo le regole. È come se faceste un solitario spostando un fante rosso sopra una donna nera seguendo le regole del gioco di carte. Se, nel solitario, qualcuno vi chiedesse che cosa "significa" una carta, direste che non significa niente. Oh, certo, il gioco delle carte un tempo aveva un significato simbolico, ma voi insistereste nel dire che niente di tale simbolismo fa parte del contesto del gioco. Una carta è chiamata sette di quadri solo per distinguerla dalle altre carte e semplificare l'applicazione delle regole del gioco.
Se voi, essere umano, potete eseguire l'algoritmo del cinese e continuare a non capire il cinese (tanto meno avere esperienza della coscienza di una persona che parla cinese), sembra tanto più ridicolo pensare che una macchina possa eseguire un algoritmo e avere esperienza della coscienza.
Pertanto, afferma Searle, la coscienza non è un algoritmo.
Bibliografia: “Labirinti della ragione”, di William Poundstone. Edizione Club, 1991.