Archivi tag: intelligenza artificiale

L’«IA» ovvero l’algoritmo della filosofia odierna

Qui si riproduce, radicalmente modificato, il testo della relazione presentata a Palermo il 15 marzo 2008 in occasione di un workshop sul tema «L’Intelligenza Artificiale tra psicologia e filosofia», organizzato dalla Dott.ssa Donatella Ragusa, che ho conosciuto tramite il sito Cenette Filosofiche. Un’esperienza per me di certo nuova, perché svoltasi presso un bellissimo atelier di una brava artista palermitana, Vittor, ma anche stimolante perché Donatella è una neuropsichiatra infantile di Palermo che ha il merito di non accontentarsi degli studi neuroscientifici cercando nella filosofia nuovi modi per interpretare il rapporto tra medico e paziente, tra corpo e mente, argomenti cui lei dedica la professione. Tra gli altri, era presente anche il Prof. Augusto Cavadi, che l’anno scorso ha partecipato al Caffè Filosofico di Sitosophia. A prescindere dai nobilissimi intenti profusi per l’occasione, per fortuna venni interrotto e non esposi gran parte della mia relazione; motivo in più, a distanza di tanto tempo, per proporla totalmente stravolta, a dispetto – naturalmente – solo di me stesso.

L’Intelligenza Artificiale è un progetto di ricerca di relativamente recente formazione che si declina in forme diverse rispettando la varietà delle discipline che interessa. Esse spaziano dalle scienze cosiddette umane all’ingegneria, dunque dalle teorie sull’uomo alle applicazioni tecnologiche più avanzate. Oggi, l’IA (o AI che sta per Artificial Intelligence) è da considerarsi probabilmente un progetto accantonato perché, nella gran parte dei suoi presupposti, fallito. È infatti confluito, come ricerca scientifica valida, nelle cosiddette “scienze cognitive” che, insieme a molte altre discipline, annoverano l’IA tra gli ambiti di ricerca che le costituiscono. Questo però non impedisce – anzi, per certi versi, sprona – la costante produzione di nuova letteratura che nell’IA trova il proprio oggetto di indagine, soprattutto da parte di filosofi.
L’ambizioso progetto dell’Artificial Intelligence vede la luce in maniera ufficiale nel 1956 in occasione di uno storico convegno tenutosi a Dartmouth (nel New Hampshire, USA) durante il quale John McCarthy, Marvin Minsky, Claude Shannon e altri1 parlarono della possibilità teorica e pratica di un artificio intelligente, una macchina pensante, al pari dell’uomo. Essi si ispirarono agli studi di Alan Turing, il quale aveva rivisitato un famoso “Imitation game” in cui, nella versione di Turing, un interlocutore invisibile risponde a delle domande di un giocatore che, basandosi sulle risposte fornite alle proprie domande, deve determinare se ha di fronte un essere umano intelligente oppure una macchina che tenta di simularne l’intelligenza. Turing, in un’ottica totalmente comportamentistica, propose di rispondere alla domanda “Le macchine possono pensare?” con la vittoria in questo gioco da parte della macchina.2 Egli ideò anche la cosiddetta “Turing machine”, un dispositivo del tutto teorico e ideale che sta alla base della moderna concezione neumanniana dell’elaboratore elettronico (una struttura dotata di processore algebrico in grado di eseguire algoritmi grazie ad una memoria veloce e ad una memoria residente).
L’opinione di Turing degli anni Cinquanta era che per la fine del secolo i progressi della tecnologia avrebbero reso naturale parlare di macchine pensanti. Ebbene, quel famoso gioco e questa macchina ideale rappresentano, invece, delle fiammelle ancora accese dinnanzi al pensiero filosofico su cosa sia un artificio o cosa sia l’intelligenza. Ancora oggi infatti sono queste le vere domande cui il filosofo tenta di rispondere in diversi modi. In buona sostanza, domande di sempre: “cos’è l’uomo?” e “cosa lo distingue dall’animale?”. I problemi che l’IA solleva sono numerosi e attraggono una certa deriva della filosofia oltremanica, dilagando anche nel continente e interessando discipline accademiche vecchie e nuove come la filosofia morale e la filosofia della mente, la bioetica e la fenomenologia (oggi vede, difatti, la luce una “neurofenomenologia” che tenta di agganciare la moderna ricerca neurobiologica alla corrente filosofica inaugurata, certo non immaginando tali sviluppi, da Husserl), l’epistemologia e la logica filosofica, la filosofia della scienza e la psicologia cognitiva (che in tale contesto toccherà annoverare tra le “discipline” filosofiche).

Dando inizio alla disamina dei rapporti – fittissimi – tra tale deriva accademica e “sociale” della filosofia e l’IA, va considerato preliminarmente il fatto che coloro che sposano tale progetto presumono di poter affermare di aver colto il misterioso rapporto tra mente e cervello, postulando due enunciati:

  • la mente è in rapporto con la struttura cerebrale nella stessa maniera in cui i programmi che “girano” nell’elaboratore elettronico sono in rapporto con le parti elettroniche che lo compongono;
  • la mente ha un linguaggio precipuo ed è quello per cui produce simboli con una determinata sintassi, come il ragno tesse la sua tela: è nella sua natura farlo.

Il secondo enunciato, di matrice chomskyana, è un assunto del computazionalismo, il cui storico difensore è Jerry Fodor, poi trasformatosi in accusatore (diciamo che è tornato sui suoi passi in merito a diversi aspetti della teoria). Con il primo di questi due semplici assunti il funzionalismo si è invece fatto carico dell’intero progetto, concependo possibile così una macchina pensante; cioè una macchina che abbia sia delle strutture analoghe a quelle presenti nel cervello che degli algoritmi – dei programmi al suo interno – i quali possano generare il pensiero autonomo (indipendente dall’essere umano). Il funzionalismo è una teoria nata negli anni Sessanta del secolo scorso con il filosofo Hilary Putnam, secondo il quale due entità possono produrre gli stessi effetti se isomorficamente strutturate, ossia se presentano una struttura assolutamente identica non nella composizione materiale ma nell’assetto logico e funzionale. Paragonò insomma il cervello e la mente umani proprio ad una macchina di Turing. Nelle sue parole:

due sistemi sono funzionalmente isomorfi se esiste una corrispondenza tra gli stati dell’uno e gli stati dell’altro che conservi le relazioni funzionali. (…) due sistemi possono avere una composizione del tutto diversa ed essere funzionalmente isomorfi. (…) È infatti chiaro (…) che, quale che sia il programma del cervello, deve essere fisicamente possibile (anche se non necessariamente realizzabile) produrre qualcosa che abbia quello stesso programma ma una composizione fisica e chimica completamente diversa.3

Tant’è che il filosofo affermò che anche un pezzo di formaggio, se funzionalmente strutturato come il cervello, sarebbe in grado di pensare. L’affermazione (che sintetizza la cosiddetta teoria della “realizzabilità multipla”), oggi superata (anche dallo stesso Putnam), rappresentò un punto chiave per la possibilità di un’intelligenza artificiale.
Per quanto innovativo sia stato l’apporto di Putnam al dibattito sul mentale, il funzionalismo ha delle fortissime radici nella storia del pensiero: c’è chi in Aristotele e in Kant ha voluto e vuole ancora ritrovare, quasi a nobilitarne l’impiego, concetti fondativi di tale tipo di filosofia.
Il progetto dell’IA parte da questi presupposti, ampiamente criticati da diversi filosofi. Ma prima di affrontare le critiche all’analogia mente-software proposta dal funzionalismo, va ricordato che quella funzionalista è una tra le tante soluzioni filosofiche al cosiddetto “body-mind problem”, cioè al problematico rapporto tra mente e corpo, di cui la filosofia si è sempre occupata e che l’IA ha riportate all’attenzione degli studiosi in una nuova veste, quella dell’ingegneria. Difatti, la teoria funzionalista si porrebbe, volendo schematizzare brutalmente, come una via di mezzo tra il monismo e il dualismo. In buona sostanza, le posizioni assunte in merito al rapporto mente-corpo andrebbero ricondotte – sebbene con qualche forzatura – a queste due grandi categorie.
La prima riconduce tanto la mente quanto il cervello a un unico elemento, nel rispetto della profonda unità ontologica della realtà naturale, ma in realtà in due modi antitetici: o considerando l’aspetto corporeo, fisico, materiale riconducibile alla forma spirituale, alla mente, come nel caso dell’idealismo (mischiando e accostando senza cognizione di causa Plotino, Berkeley o Hegel); oppure – al contrario – conferendo realtà ontologica solo alla componente materiale, cioè solo al cervello, come nel caso del materialismo, oggi detto “naturalismo” o, più propriamente, “riduzionismo” (anche qui, dall’altra parte, a contesa storica imperitura e con accostamenti iperbolici: Democrito, Epicuro, Hobbes e i coniugi Churchland, secondo i quali la filosofia dovrebbe divenire piuttosto “neurofilosofia”).
Esiste anche un particolare tipo di monismo, detto “monismo anomalo”, che vanta radici antichissime nella storia della filosofia (da Eraclito a oggi) e che accoglie la molteplicità – a fortiori la duplicità – del reale, accettando dunque la separabilità fenomenica di mente e corpo, a condizione che si postuli unico il fondamento originario e primigenio a livello ontologico. Nelle parole di Russell: «la sostanza di cui è composto il mondo della nostra esperienza non è, a mio avviso, né mente né materia, ma qualcosa di più primitivo delle due (…) come un antenato comune».4 La seconda categoria tiene invece separati il corpo e la mente, conferendo loro distinti gradi di realtà (esistono infatti diversi tipi di dualismo) e postulando i più diversi modi di entrare in rapporto (e qui vengono menzionati in tutti i libri di filosofia della mente, avvicinate come fossero l’una l’antesignana dell’altra, le filosofie di Platone, Agostino, Cartesio e più recente quella di Popper e del neurobiologo Eccles).
Emblematica l’idea freudiana del rapporto tra mente e cervello, dacché ambivalente: non riduce la mente (parti conscia, preconscia e inconscia) al cervello ma, d’altra parte, non la ritiene da esso indipendente. Difatti, non senza tentennamenti e incertezze (prima aveva ipotizzato un generico “salto” dal corporeo al mentale), Freud, nel 1922, parla di un “Io corporeo” che “poggia” sul corpo, imprescindibile dalle pulsioni fisiche ma non riducibile ad esse. Fondamentalmente è l’importante idea della continuità della vita mentale che lo porta a questa conclusione.

Alla fine di questo rapidissimo sguardo alle principali posizioni filosofiche sulla mente e il cervello, almeno per come esse si presentano agli occhi dello scienziato americano medio e agli accademici di ogni sorta che ne accolgono i “princìpi operativi”, possiamo finalmente analizzare alcune critiche al funzionalismo cui si accennava prima. Innanzitutto bisogna distinguere due diversi «approcci» all’artificiale (secondo le definizioni di Searle): esiste infatti un approccio “debole” col quale si concepiscono le macchine come strumenti utili all’uomo in maniera che è possibile definire intelligente ma in un senso comunemente inteso, cioè quello di “ben programmato”; e ne esiste invece uno “forte” col quale si intende dare vita a delle macchine che siano intelligenti in un senso più stretto, cioè “coscienti”. Ebbene, solo il secondo approccio all’artificiale è oggetto delle critiche di cui si parlerà. In ogni caso, risulta fuorviante un famoso “teorema di Tesler” (di cui parla Hofstadter nel suo Gödel, Escher, Bach) secondo il quale l’IA sarebbe un progetto di cui mai si è soddisfatti, perché, dice Hofstadter, «non appena si riesce a programmare qualche funzione mentale, immediatamente si smette di considerarla un ingradiente essenziale del “vero pensiero”. Il nucleo ineluttabile dell’intelligenza è sempre in quell’altra cosa che non si è ancora riusciti a programmare».5 Risulta fuorviante per il semplice fatto che forse la mente non è una banale somma di funzioni, le quali, se messe l’una accanto alle altre, danno come risultato la coscienza e l’intelligenza, i grandi obiettivi dell’IA; forse solo ampliando gli orizzonti limitati e limitanti dei ricercatori informatici di intelligenza è possibile compiere dei passi concreti verso un serio studio della natura della mente. Inutile appello.
Una prima critica al funzionalismo, dicevamo, può essere considerato il lavoro di Gerald M. Edelman, il quale – premio Nobel per gli studi di immunologia nel 1972 –, dopo aver affermato (nella sua teoria del “darwinismo neuronale”) la necessità di accostare il selezionismo darwiniano alla logica, si esprime in merito al progetto dell’IA in questi termini:

anche se un giorno saremo in grado di incorporare entrambe le modalità nella costruzione di un manufatto cosciente e quindi di ampliare ulteriormente la nostra comprensione, le forme particolari di coscienza che noi possediamo come esseri umani non saranno mai riproducibili e continueranno a essere il nostro dono più grande.6

Egli ha criticato, in particolare, l’analogia funzionalista mente-software, spiegando – avanzatissime ricerche neurobiologiche alla mano – come la morfologia delle unità elementari che compongono il cervello non permetta questa operazione concettuale senza sacrificarne il rigore scientifico. Edelman ha poi sperimentato la propria teoria selezionista (secondo la quale i neuroni subiscono una selezione funzionale in base al loro uso in relazione agli stimoli ambientali) con dei robot che, analizzando e interpretando in maniera non pre-programmata l’ambiente in cui si trovano inseriti, confermerebbero in parte quanto poi scoperto dalle scienze cognitive dette “incarnate”, cioè la fondamentale importanza di avere un corpo. Nel caso umano, di esserlo. Per quanto riguarda Edelman, si veda quanto ho scritto in una recensione di un suo recente volume (basterà).
Una seconda critica è quella di John Searle, che  ha ideato a questo proposito un famoso esperimento mentale detto della “stanza cinese”, in cui nega che basti ideare una macchina che produca dei risultati simili a quelli di un essere umano perché si possa definirla intelligente o cosciente. Viene spiegato che la macchina interpreta dei segnali che poi, come programmato, traduce senza capirne il significato; allo stesso modo di un inglese isolato in una stanza e costretto a rispondere a delle domande scritte in cinese, munito di un manuale di sintassi: le sue risposte saranno pertinenti e corrette eppure non avrà capito una parola di esse. Searle conclude infatti che

spesso attribuiamo il comprendere e altri predicati cognitivi per metafora e analogia alle automobili, alle addizionatrici, e ad altri manufatti, ma queste attribuzioni non dimostrano nulla. Diciamo: “La porta sa quando si deve aprire, grazie alla sua cellula fotoelettrica”, “L’addizionatrice sa come (capisce come, è capace di) fare l’addizione e la sottrazione, ma non la divisione”, “Il termostato sente le variazioni di temperatura”. Il motivo per cui facciamo queste attribuzioni è molto interessante ed è legato al fatto che nei manufatti noi estendiamo la nostra intenzionalità; i nostri strumenti sono un’estensione dei nostri fini e troviamo quindi naturale fare nei loro confronti attribuzioni metaforiche di intenzionalità; ma secondo me questi esempi non hanno nessuna forza filosofica.7

Roger Penrose, il noto matematico (tutti hanno diritto a far “filosofia”, sic dicunt), criticò anche l’eccessivo potere conferito all’algoritmo da parte dei funzionalisti, i quali trascurano il fatto che dietro un algoritmo si nasconde sempre il lavoro mentale del programmatore. Penrose accolse, tutt’al più, la possibilità che l’algoritmo sia utile per spiegare le produzioni mentali “automatiche” o inconsce (come guidare un’auto o scrivere a macchina), restando però totalmente riduttivo per spiegare quelle coscienti (la riflessione, l’arte, la comunicazione). Vediamo pian piano smantellate le pretese dei comportamentisti e dei riduzionisti; proseguiamo però con altre critiche, come quelle di Dreyfus che, in buona sostanza, rivendicano quel che si accennava prima, la corporeità dell’essere pensante. Lo stesso neuroscienziato Antonio Damasio ha dimostrato come il cervello non possa essere inteso come l’unica struttura capace di dotare di coscienza e pensiero l’uomo; esso infatti deve essere esteso non solo a tutto il Sistema Nervoso Centrale (che si dirama per tutta la colonna) ma in gran parte del corpo, nel quale vengono depositate le tracce delle relazioni psicosomatiche che vengono elaborate poi nel cervello: il cervello senza il corpo non può pensare.8 Non solo il cervello ha bisogno dell’intero corpo, ma – perché si dia intelligenza – il corpo necessita dell’ambiente in cui vive. Gregory Bateson, in linea con quanto affermato da Heidegger (come ha rilevato E. Mazzarella9), ha sempre sostenuto infatti che «il mondo mentale (…) non è delimitato dall’epidermide»10, che anzi la «mente individuale» è un «sottosistema» della «Mente» definita come «unità immanente nel grande sistema biologico, l’ecosistema»11.

È tanto facile giocare a questo gioco che si possono dire due paroline – un incidente di percorso, se vogliamo, – anche a proposito del «materialismo» del funzionalismo, giusto per comprendere la bontà logica del dibattito. Mi riporto in corpo più «sottile».

Per l’Intelligenza Artificiale “forte” esiste solo l’algoritmo. A dirlo chiaramente è stato, quasi vent’anni fa, Roger Penrose: «Secondo l’IA forte quel che conta è semplicemente l’algoritmo. Non fa differenza se l’algoritmo venga eseguito da un cervello, un computer elettronico, un intero paese di indiani, un dispositivo meccanico di ruote e ingranaggi o un sistema di tubi e acqua. Il punto di vista è che la struttura logica dell’algoritmo è l’unica cosa che importi per lo «stato mentale» che l’algoritmo dovrebbe rappresentare, e che la particolare materializzazione fisica di tale algoritmo è del tutto irrilevante. Come sottolinea Searle, questa impostazione comporta in realtà una forma di «dualismo». (…) La sostanza pensante dell’IA forte è la struttura logica di un algoritmo. (…) Searle vede una notevole ironia nel fatto che il punto di vista dell’IA forte sembra spingere i suoi fautori a una forma di dualismo, che è proprio il punto di vista a cui i fautori dell’IA forte vorrebbero meno essere associati!12
L’algoritmo ha varie caratteristiche; ebbene, quella essenziale è la seguente: perché un algoritmo si dia, è necessaria la presenza dell’intelligenza umana che lo realizza. Non si può prescinderne, poiché la struttura dell’algoritmo non è precostituita o preconfezionabile, ma segue le regole che solo un’intelligenza – umana – può formulare. Il meccanismo che rende funzionante il processo logico detto «algoritmo» ha la sua fondazione nelle capacità mentali del programmatore. È risaputo tra gli ingegneri informatici quanto sia difficile realizzare un algoritmo di qualche tipo, quanto sia necessaria una certa capacità cognitiva, ovvero tanto una comprensione profonda del problema che si intende risolvere per mezzo del processo automatico che l’algoritmo appunto produce, quanto l’intuizione personale e privatissima del metodo risolutivo che alla fine si è deciso di adottare. Dunque pertiene il singolo individuo, l’intelligenza incarnata.13 Non si può creare un’intelligenza con un algoritmo, poiché si cadrebbe in un circolo vizioso: si parte difatti dall’intelligenza per ottenere intelligenza. È un’illusione, un errore grossolano, pensare che per creare una mente (intesa come algoritmo) sia necessaria un’altra mente. La mente non è un algoritmo.
A partire dalla citata affermazione di Penrose in merito all’analisi di Searle, intendo mostrare che la teoria computazionale della mente di Fodor e – in generale – il funzionalismo si possono in realtà considerare posizioni o dualistiche o monistiche, a seconda del punto da cui le si intende osservare. Cerchiamo di vedere in che senso.
Quella dell’IA «forte» è una proposta dualistica perché ritiene la struttura logica di un algoritmo separata dalla sua implementazione biologica o materiale. Ma attenzione: il concetto di algoritmo può certamente nascondere due distinti aspetti, uno logico intuito dall’intelligenza umana – dal programmatore – e uno informatico codificato come software che “gira” nell’hardware (rispecchiando la struttura logica fornitagli). Ciò non significa che l’algoritmo implementato equivale all’intuizione logica del programmatore, anzi vanno tenuti ben distinti gli aspetti. Se si considera il sistema “algoritmo implementato/programmatore” come tutt’uno, allora certamente nel sistema “hardware/software” si presenterà un’intelligenza. Ma se si considera il solo algoritmo implementato, il sistema “hardware/software” non presenterà alcuna forma di intelligenza, nessuna «comprensione», come direbbe Searle. La posizione funzionalista è, in tal senso, dualista se si considera trasferibile nell’algoritmo implementato la struttura logica del programmatore (cioè, in fin dei conti, la sua intelligenza e la sua mente), potendo concepire la presenza di una “mente” nel software (all’interno del sistema “hardware/software”).
Ma essa diventerebbe una posizione monista nel momento in cui si comprendesse che il software implementato nell’hardware non presenta una struttura logica astratta (in quanto questa è solo nella mente del programmatore), escludendo in questo modo ogni intervento esterno di entità mentali, concependo bensì il software come “entità dotata di mente” solo a partire dalla sua struttura intrinseca. Nel primo caso, si cade nell’errore di reputare intelligente ciò che dipende interamente dall’intelligenza umana; nel secondo caso, si cade nell’errore di reputare l’algoritmo una struttura che possa intrinsecamente possedere capacità mentali. Ad ogni modo, la seconda posizione – quella dei funzionalisti – è fondamentalmente monista.
L’algoritmo è, in estrema sintesi, una sequenza di ordini grazie ai quali (semplificando e scavalcando i livelli dei linguaggi di “traduzione” software) avviene un preciso passaggio di corrente elettrica da un luogo ad un altro dell’hardware. Non sorgono questioni in merito all’interazione tra gli “ordini” via software e la “esecuzione” di tali ordini nel passaggio di corrente elettrica all’interno dei circuiti elettronici, dato che si tratta di «manipolazioni simboliche» a cui solo l’uomo dà senso. Il ruolo del programmatore nei confronti della «manipolazione simbolica dei passaggi di corrente elettrica» non va paragonato al ruolo svolto dalla mente nei confronti del cervello: la mente non “dà ordini” che il cervello “esegue”. Tuttavia, ciò non significa che la mente è «semplicemente ciò che fa il cervello», come afferma Minsky14, secondo cui la mente propriamente non esiste. La mente esiste, anche se in quanto processo o evento.
A seguito di quanto detto, si può affermare che il monismo funzionalista sia, come si può intuire facilmente, di tipo materialistico. Se si considera realistica l’analogia secondo cui ad ogni connessione neuronica si può far corrispondere una connessione elettrica di un elaboratore elettronico, dando i valori “0” all’assenza di segnale e “1” alla sua presenza, di sicuro dovremo ammettere che, non conoscendo a fondo le relazioni tra neuroni, non possediamo la capacità pratica di realizzare alcun collegamento di fili elettrici – o piastre elettroniche, non è rilevante in questo contesto – che possa far sì che il pensiero cosciente “emerga”. Le sembianze materialistiche del funzionalismo si scorgono quando si ritiene con esso possibile (coerentemente con quanto detto) che – conoscendo nella sua interezza il cervello e le sue connessioni complesse ed essendo poi in grado di strutturare, isomorficamente al cervello, le connessioni elettriche dell’elaboratore – quest’ultimo possa pensare: il funzionalismo, di fatto materialista, presuppone inevitabilmente che oltre al cervello, nella sua struttura intrinsecamente materiale e fisica, non sia necessario nulla perché si dia pensiero. Non può essere una forma di dualismo quella che può postulare la presenza (sostanziale o “di proprietà”) di una struttura logico-algoritmica separata nettamente dalla struttura fisico-materiale (quale il cervello o l’elaboratore) che la implementa e dalla quale è indipendente; soprattuto se allo stesso tempo postuli che, realizzato ogni collegamento nell’elaboratore in modo isomorfico al cervello (raggiunta cioè la complessità prettamente biologica), l’elaboratore possa così pensare, senza necessitare di altro. A questo punto: o si confida in una realizzabilità multipla o si confida nell’isomorfismo cervello-elaboratore. Aut aut. Impossibile accogliere entrambe le opzioni, poiché se è vero che il cervello basta perché si dia pensiero, allora basterà anche il solo hardware perché l’elaboratore pensi.
In sintesi sillogistica. Prima premessa del funzionalismo: gli stati mentali sono computazionali e rappresentabili funzionalmente in una struttura diversa da quella biologica del cervello – dato che ne prescinde – purché questa struttura sia isomorfica a quella del cervello (ad es., un elaboratore che abbia il «giusto algoritmo», tale che l’elaboratore stesso diventi isomorfo alla struttura del cervello). Seconda premessa “evidente”: un elaboratore non è diviso. Un elaboratore, per quanto si possa discutere della separazione della mente dal cervello, non possiede cartesianamente due res, ma una soltanto, quella fisica, poiché quella logica, come visto, è fornita dall’intelligenza del programmatore. Conclusione logica dalle premesse: il funzionalismo, equiparando il rapporto mente/software al rapporto elaboratore/cervello (considerando cioè valido un simile paragone), deve necessariamente ammettere l’unità assoluta di mente e cervello, rivelandosi così una forma di monismo materialistico. Si definisce il funzionalismo generalmente dualista per il semplice fatto che postula la separabilità cartesiana del pensiero dalla struttura implementante tale pensiero. Eppure, come visto, accostando il sistema “pensiero/cervello” al sistema “hardware/software”, esso si mostra necessariamente anti-dualistico e, anche se velatamente, profondamente materialista; anche a dispetto delle intenzioni di molti suoi sostenitori.
Non certo però dei suoi primi sostenitori: il funzionalismo in filosofia della mente trae la propria origine dal funzionalismo psicologico che concepiva mente e corpo come «unità indissolubili». Nello specifico, analizzando l’originarsi e l’evolversi del pensiero del suo fondatore, Hilary Putnam, torna chiaro il sembiante materialista della posizione presa in esame. Nel 1975 difatti Putnam affermava che «in un primo tempo fu il desiderio di difendere il materialismo a farmi approdare al funzionalismo».15 Non è un caso che, nella sua versione originale del 1960 (del breve saggio “Menti e macchine”), il funzionalismo fosse una tesi affine alla teoria dell’«identità dei tipi» o, ancor di più, una particolare versione del materialismo. In un saggio del 1969 Putnam scriveva che una formulazione «meno rischiosa» del materialismo fosse la seguente: «un essere umano è (…) un sistema fisico dotato di una certa organizzazione funzionale complessa. Questa versione del materialismo è, io credo, certamente sostenibile e probabilmente corretta».16 Certo, poi affermava l’incapacità di tale teoria di spiegare il dolore, la collera etc. che solo una teoria funzionalista avrebbe potuto spiegare, secondo l’autore. Ma ciò che preme in questa sede sottolineare è la radicale affinità della teoria funzionalista al materialismo in una maniera assolutamente maggiore rispetto al dualismo; e non solo da un punto di vista, per così dire, storico, cioè analizzandone le origini, piuttosto da un punto di vista sillogico, a partire cioè da certe premesse che sono ritenute evidenti o, quantomeno, razionali. «A mio giudizio Searle, e molti altri, sono stati sviati dagli informatici, e questi, a loro volta, sono stati sviati dai fisici. (Non è del resto colpa dei fisici: neppure loro sanno tutto!)».17 Così chiosa Penrose poche pagine dopo la citazione in apertura.

Come visto, le critiche al funzionalismo possono trasformarsi in una salda proposta che abbatte (violentemente, sì, è storicamente accertato) i dualismi tra mente e corpo come tra corpo e ambiente, che certe concezioni avanzate dal progetto dell’IA producono, a favore di una concezione dell’essere umano che lo restituisca alla sua integrità ecologica e, quindi, psichica.
Secondo studiosi e insigni accademici (oggi anche politici e presidi in uno), l’IA sarebbe, al di là delle apparenze ingegneristiche, un luogo dove si mette in discussione la stessa identità umana e ciò che è possibile definire “uomo”; difatti lo scopo filosofico del progetto (non filosofico, certo, nei suoi originali intenti) sarebbe proprio quello di cogliere e restituire l’umano alla sua propria identità. Di questo ha parlato, in un libro di estreme profondità e rilevanza filosofica, il prog. Eugenio Mazzarella. L’IA sarebbe, in fondo, un progetto in linea con quella che i Greci chiamavano hybris, la tracotanza, la sfida alle possibilità umana nei confronti del dio, quell’operazione umana del conoscere sé stessi, come dètta il tempio di Apollo, operazione che – però – verrebbe un po’ a smarrirsi. Partendo da questi presupposti, il filosofo afferma infatti che

è umiltà dello spirito, per quello che ne sappiamo, non rassegnazione “materialistica”, presumere – in filosofia! – che siamo servi della natura, perché siamo servi di noi stessi, come ogni cosa in natura è serva, soggetta a se stessa, alle leggi del suo essere; in questo senso noi siamo dipendenti anche dalla nostra libertà, cioè dalla capacità di sospendere in noi la nostra stessa dipendenza naturale, e riorientare l’agire; (…). Noi siamo “soggetti” perché siamo innanzi tutto consapevolmente soggetti a noi stessi, a ciò che parla di noi e ci detta lessico e sintassi della nostra significatività.
(…) E pure è proprio questo paradossale voler trascendere la propria essenza non assegnandosene nessuna per poterle avere tutte, o una qualsiasi a scelta, che talora abita l’immaginario dell’uomo tecnologico. A fronte di questo, ciò di cui abbiamo bisogno è un programma stazionario dell’esistenza umana; progredire in una forma di vita che resti nella sua autoriconoscibilità per noi.18

Concepire mente e cervello come un’unica entità permette cioè di approntare una cura completa dell’uomo nella sua veste di paziente; una cura anche “dell’anima” in senso greco, compito possibile a partire – anche – da un certo tipo di psicoterapia che sia attenta ai vissuti corporei e “ambientali” più che ai semplici ricordi o racconti, al di là della loro interpretazione. Bisognerà certo ricordare Platone, perché sarebbe questo l’uso che se ne deve fare (non c’è dubbio oggi), secondo il quale

come non si devono curare gli occhi senza prendere in esame la testa, né la testa indipendentemente dal corpo, così neppure il corpo senza l’anima (…) questa sarebbe la ragione per cui ai medici greci sfugge la maggior parte delle malattie, poiché essi trascurerebbero di prendersi cura della totalità dell’uomo, senza la cui piena salute, non è possibile che la singola parte sia efficiente. (…) E l’anima (…) si cura con certi incantesimi e questi incantesimi sono i bei discorsi, da cui nell’anima si genera la temperanza; una volta che questa sia nata e si sia radicata, allora è facile ridare la salute alla testa e a tutte le altre parti del corpo. (…) Di fatto, oggi, questo è l’errore che fanno gli uomini ossia che alcuni cercano di essere medici della temperanza e della salute, ma separatamente l’una dall’altra.19

L’asfissia comportata dalla tendenza contemporanea (per quanto di lontane origini storiche) a ridurre tutto all’organico andrebbe soccorsa risalendo “i confini dell’anima” inesorabili, per quanto già Eraclito dica che «i confini dell’anima, per quanto lontano tu vada, non li scoprirai, neanche se percorri tutte le vie: così abissalmente si dispiega».20 Si tira nel ballo contemporaneo anche l’anima, e non una qualunque: quella misterica di Eraclito (che tragica morte dell’anima).

La scienza dell’anima, la psicologia indaga i processi psicologici del pensiero, per mezzo dell’introspezione e di test, a scopo terapeutico; distanza certamente abissale dalla filosofia della mente, che invece si interessa del rapporto tra corpo e mente, dell’identità dell’io e della memoria da un punto di vista culturale ed esistenziale, avvalendosi tanto degli studi neuroscientifici quanto delle leggi logiche del pensiero, con uno scopo che non è terapeutico, bensì teoretico. Questo stando alle lezioni di filosofia della mente che ancora oggi si tengono a Catania, dall’allievo del preside politico filosofo E. Mazzarella. Schematizzando, la filosofia della mente analizzerebbe il pensiero “nel puro interesse teoretico” (come ebbe a dire Husserl), la psicologia studiando invece i modi di manifestarsi del pensiero nei suoi risvolti comportamentali (la psichiatria, ancora, sarebbe la parte della medicina che tenta di curare “alla fonte”, cioè a livello psichico, le manifestazioni comportamentali dannose per il soggetto che le pensa e per coloro che stanno a lui vicini). Se la psicologia è cura dell’anima e la psichiatria cura del corpo, la filosofia – non solo ma anche – sarebbe cura della conoscenza della mente e del corpo in quanto unità. Una rappresentazione davvero confortante, come ogni rappresentazione.

Note
1 J. McCarthy et al., A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955.
2 Cfr. A. Turing, Computing Machinery and Intelligence, “Mind”, London, vol. 59, pp. 433-60, 1950 (trad. it. Macchine calcolatrici e intelligenza, in V. Somenzi, La filosofia degli automi, Bollati Boringhieri, 1965).
3 H. Putnam, “Filosofia e vita mentale”, in Mente, linguaggio e realtà, Adelphi, 20043, pp. 319-320.
4 B. Russell, L’analisi della mente, Newton&Compton, 1970, p. 18.
5 D. R. Hofstadter, Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, Adelphi, 1984, p. 649.
6 G. M. Edelman, Più grande del cielo. Lo straordinario dono fenomenico della coscienza, Einaudi, 2004, p. 123.
7 J. Searle, Menti, cervelli e programmi, in D. R. Hofstadter, D. C. Dennett, L’io della mente. Fantasie e riflessioni sul sé e sull’anima, Adelphi, 20014, pp. 345-346.
8 Cfr. in particolare A. Damasio, L’errore di Cartesio. Emozione, ragione e cervello umano, Adelphi, 20047.
9 Cfr. E. Mazzarella, Un’appendice ontica: ecologia cibernetica e circolo linguistico. Bateson e Heidegger. La Frömmigkeit come compito ineludibile del pensiero, in Tecnica e metafisica. Saggio su Heidegger, Guida, 20022, pp. 335-357.
10 G. Bateson, Forma, sostanza e differenza, in Verso un’ecologia della mente, Adelphi, 1976, p. 495.
11 Ivi, p. 501.

12 Cfr. R. Penrose, La mente nuova dell’imperatore. La mente, i computer e le leggi della fisica, BUR 2004 (ed. orig. 1989), pp. 44-45.
13 Cfr. ivi, p. 163. Varrebbe la pena notare l’assoluta assenza di una definizione rigorosa del concetto stesso di «algoritmo», come disse, sebbene solo per cenni, Marcello Frixione nel suo Logica, significato e intelligenza artificiale, Franco Angeli 1994, p. 58: «”algoritmo” e “funzione computabile in modo algoritmico” sono concetti intuitivi, non specificati in modo formale». La citazione tratta dal testo di Frixione discute la ben nota «tesi di Church», che l’autore radicalizza nella seguente forma:«ogni attività linguistico-cognitiva è calcolabile da una macchina di Turing (il che non vuol dire, ovviamente, che la nostra mente funziona come una macchina di Turing, ma che ogni attività mentale è simulabile da un dispositivo che abbia la stessa potenza computazionale di una macchina di Turing)» (ivi, p. 59). Premesso ciò, cito per esteso quanto affermato sull’algoritmo: «La tesi di Church gode di uno statuto particolare nell’ambito degli enunciati matematici. «Algoritmo» e «funzione computabile in modo algoritmico» sono concetti intuitivi, non specificati in modo formale, per cui una dimostrazione rigorosa di equivalenza con il concetto di funzione calcolabile da una MT non è possibile. La tesi di Church quindi non è un teorema, e neppure una congettura che potrebbe un giorno, in linea di principio, diventarlo. Si tratta di un enunciato che si fonda su un ampio spettro di evidenza matematica di tipo euristico» (ivi, p. 58). Tale importante «tesi» è – meglio – un’ipotesi. A proposito di logica dei predicati, il manuale di Logica di Varzi, Nolt e Rohatyn (McGraw-Hill, edizione 2004, p. 152), definisce così la tesi di Church: «La logica dei predicati è, in questo senso, indecidibile (questo è un risultato che può essere dimostrato attraverso un rigoroso ragionamento metalogico nell’ambito di un’assunzione ampiamente accettata, nota come tesi di Church)». Per poi indicare in nota un testo che riporta quella “dimostrazione” per esteso. La tesi suddetta è dunque una assunzione, seppur ampiamente accolta come tesi.
14 M. Minsky, La società della mente, Adelphi 2001, p. 20.
15 H. Putnam, Mente, linguaggio e realtà, cit., p. 18.
16 H. Putnam, Il positivismo logico e la filosofia della mente, in ivi, p. 482.
17 R. Penrose, La mente nuova dell’imperatore, cit., p. 47.

18 E. Mazzarella, Vie d’uscita. L’identità umana come programma stazionario metafisico, Il melangolo, 2004, pp. 17, 20.
19 Platone, Carmide, in Tutti gli scritti, Bompiani, 20013, pp. 692-693.
20 Eraclito, Dell’Origine, Feltrinelli, 20052, p. 181.