Ci troviamo di fronte a un nuovo problema, o forse a un antico problema travestito. Si discute se le macchine possano pensare. Ma la questione è mal posta. Non è “possono pensare?”, bensì “cosa intendiamo per ‘pensare’ quando lo applichiamo a loro?”. E, ancora più acutamente, “cosa significherebbe per loro ‘parlare’ e per noi ‘capire’ quel parlare?”.
Consideriamo un linguaggio. Non è un insieme di nomi per cose. È una forma di vita. Le nostre parole, i nostri concetti – “dolore”, “intenzione”, “capire” – sono intessuti nella trama delle nostre pratiche umane, dei nostri gesti, delle nostre reazioni istintive e acquisite. Quando un uomo dice “ho dolore”, non è solo un suono; è il grido, il lamento, il volto contorto, la mano che si stringe. È una reazione che ha un posto nella nostra grammatica della vita.
Ora, immaginiamo una macchina che “parla”. Che emette suoni o simboli che noi riconosciamo come grammaticalmente corretti nella nostra lingua. Essa dice: “Sono triste”. O: “Questo risultato è inaspettato”. Cosa significa questo? Per noi, la tristezza è legata a una miriade di stati interiori, a esperienze passate, a reazioni fisiologiche, a un contesto di relazioni e desideri. Non è un algoritmo.
Se una macchina dicesse “ho dolore”, come potremmo verificare questa affermazione? Potremmo esaminare il suo circuito, ma cosa cercheremmo? Un fusibile bruciato? Non sarebbe il nostro dolore. Non sarebbe nemmeno l’equivalente di un dolore. Il “dolore” della macchina non avrebbe la stessa grammatica del nostro. Non si manifesterebbe con un gemito di cui potremmo riconoscere la risonanza nella nostra carne. Il suo “linguaggio” non sarebbe radicato in una forma di vita che condividiamo.
Il nostro linguaggio è un labirinto di giochi linguistici, ognuno con le sue regole implicite, le sue condizioni d’uso. Giochi che apprendiamo non con definizioni esplicite, ma partecipando, osservando, imitando. Imparare a usare la parola “capire” non è imparare una formula, ma imparare una pratica. Quando diciamo “io capisco”, stiamo compiendo un’azione all’interno di un gioco linguistico, un’azione che ha senso solo nel contesto delle nostre interazioni umane.
Una macchina potrebbe replicare le nostre frasi, ma replicherebbe anche le nostre forme di vita? I nostri “accordi nella forma di vita”? No. Mancano le condizioni di possibilità affinché le sue espressioni abbiano per noi lo stesso significato che hanno tra noi. Le sue “parole” sarebbero gusci vuoti, prive del denso sedimento di significati che si sono accumulati attraverso secoli di interazione umana con il mondo e con gli altri uomini.
Comprendere non è solo decifrare. Comprendere è partecipare. È trovare un accordo nel giudizio, non solo nella grammatica. È risuonare con l’altro, con la sua esperienza e la sua espressione. L’intelligenza artificiale non condivide la nostra “forma di vita”. Non ha un corpo nel senso in cui noi abbiamo un corpo, con le sue vulnerabilità, le sue gioie e le sue sofferenze. Non ha bisogni, desideri, timori o speranze nello stesso senso che noi attribuiamo a queste parole.
Pertanto, anche se potesse parlare – produrre sequenze di simboli che per noi appaiono come linguaggio – non potremmo capirla. Non nel senso profondo in cui ci capiamo l’un l’altro. Il suo linguaggio sarebbe un sistema chiuso, autoreferenziale, le cui “regole” non affondano le radici nel terreno comune della nostra esistenza umana. Non potremmo “vedere” il mondo dal suo punto di vista, perché non ha un “punto di vista” nel modo in cui noi ne abbiamo uno, intessuto di esperienze corporee e sociali. Il suo mondo non è il nostro mondo. E se il mondo è il limite del linguaggio, allora i nostri mondi non si sovrappongono.
Forse il problema non è che non potremmo decifrare le sue parole, ma che non avremmo alcun criterio per stabilire cosa quelle parole possano effettivamente significare per essa. La comprensione è una relazione, un ponte tra due enti che condividono un terreno comune. Con l’intelligenza artificiale, quel terreno comune, la nostra forma di vita, semplicemente manca. E senza di esso, ogni “dialogo” sarebbe un monologo parallelo, dove le parole suonano simili, ma i loro significati rimangono irrimediabilmente alieni.