139 21 12MB
Italian Pages 659 Year 2012
Terrence W. Deacon
Natura incompleta Come la mente è emersa dalla materia Traduzione di Alfredo Tutina
lA BIBLIOTECA DELLE SCIENZE
lA BIBLIOTECA DELLE SCIENZE Terrence W. Deacon Natura incompleta Come la mente è emersa dalla materia Traduzione di Alfredo Tutino Titolo originale Incomplete Nature How Mind Emerged from Matter © 2012 by Terrence W. Deacon Published by W.W. Norton & Company Inc., New York Ali rights reserved © 2012 Edizione speciale per il mensile Le Scienze pubblicata su licenza dell'Agenzia Letteraria Roberto Santachiara
Le Scienze Direttore responsabile: Marco Cattaneo Registrazione del Tribunale di Milano n. 48/70 del 5 febbraio Rivista mensile, pubblicati da Le Scienze S.p.A. Via Cristoforo Colombo 98 - 00147 Roma www.lescienze.it
1970
Foto di copertina: Stéphane Fouquet, Institut de la Vision/INSERM - Parigi Tutti i diritti riservati. Ogni violazione sarà perseguita a termini di legge. Edizione non vendibile separatamente dal mensile Le Scienze. Supplemento al numero di questo mese. Stampa e legatura: Puntoweb s.r.l. Stabilimento di Ariccia (Roma). Finito di stampare ad agosto
2012
Ai miei genitori, Bill e ]oAnne Deacon (e ai "Pirati'')
Indice
Ringraziamenti
9
Capitolo o Assenza
13
Capitolo I Interi e buchi
33
Capitolo 2 Homunculi
65
Capitolo 3 Golem
105
Capitolo 4 Teleonomia
135
Capitolo 5 Emergenza
175
Capitolo 6 Vincoli
219
Capitolo 7 Omeodinamica
247
Capitolo 8 Morfodinamica
279
Natura incompleta
8
Capitolo 9 Teleodinamica
309
Capitolo IO Autogenesi
335
Capitolo Lavoro
377
II
Capitolo I2 Informazione
423
Capitolo IJ Significatività
447
Capitolo I4 Evoluzione
479
Capitolo Sé
523
I5
Capitolo I6 Sensibilità
549
Capitolo IJ Coscienza
577
Epilogo
613
Glossario
621
Note
629
Bibliografia
641
Ringraziamenti
Se qualcuno di noi può sostenere di guardare al mondo da un nuovo punto di vista è perché, come osservò una volta Isaac Newton, siamo in piedi sulle spalle dei giganti che ci hanno preceduto. Nel mio caso è senz'altro vero, visto che ognuno dei tanti fili di cui è fatto il tessuto della teoria presentata in questo libro risale, nelle sue origini, al lavoro cui .hanno dedicato la vita alcune delle più grandi menti della nostra storia. Ma poi spesso accade che ci voglia la convergenza di parecchie menti, unite nel mettere ostinatamente in discussione anche il meno incerto dei nostri assunti collettivi, per far cadere i paraocchi che limitano un certo paradigma concettuale. Come appunto in questo caso. Poche delle nuove ide~ esplorate in questo libro son~ emerse dalle mie personali riflessioni già pienamente formate, e poche potevano esibire anche solo la forma rozzamente sbozzata qui presentata. Queste idee embrionali hanno avuto la fortuna di essere nutrite dalle fatiche, davvero costanti e libere da ogni egoismo, di una manciata di colleghi brillanti, acuti e pieni di spirito indagatore, che sono venuti a riunirsi nel mio soggiorno, settimana dopo settimana e anno dopo anno, per mettere in discussione assunti consolidati, escogitare creativamente il termine più adatto per una nuova idea o semplicemente cercare di afferrare un concetto che ogni volta sembrava doverci scivolare tra le dita. Ci hanno chiamato «Terry e i Pirati» (dal titolo di una striscia a fumetti del dopoguerra) a causa del nostro intenso cameratismo intellettuale e della nostra sfida ai paradigmi consolidati. Questo filo ininterrotto di conversazione si è mantenuto nel corso di quasi un decennio e ha con-
IO
Natura incompleta
tribuito a fare di qualcosa che all'inizio era pressoché inconcepibile una cosa che è soltanto controintuitiva. Pirati fin dall'inizio sono stati (in ordine alfabetico) Tyrone Cashman, Jamie Haag, Julie Hui, Eduardo Kohn, Jay Ogilvy, e Jeremy Sherman, con Ursula Goodenough e Michael Silberstein nel ruolo di periodici visitatori provenienti dall'altra parte del paese. Più di recente si sono uniti a noi Alok Srivastava, Hajime Yamauchi, Drew Halley, e Dillon Niederhut, mentre ]arnie ed Eduardo sono andati a proseguire altrove le loro carriere. La maggior parte di loro ha attentamente riletto ampie porzioni del presente manoscritto, proponendo utili commenti e contributi. Parti del capitolo sul sé sono rielaborazioni di un lavoro che ho scritto in collaborazione con Jay Ogilvy e ]arnie Haag, e vari frammenti di parecchi capitoli sono stati influenzati da lavori scritti in collaborazione con Tyrone Cashman o Jeremy Sherman. Jeremy Sherman ha inoltre contribuito a redigere in bozza i sommari dei capitoli, a organizzare i riferimenti e alla realizzazione del glossario. Senza l'intelligenza collettiva e il lavoro di questa mente (e corpo) allargata, mi è difficile immaginare in che modo queste idee avrebbero mai potuto venire alla luce in forma almeno semi-leggibile. In più, devo anche considerevoli ringraziamenti ai tanti colleghi un po' di tutte le parti del paese che hanno letto parti del dattiloscritto e offerto i loro saggi consigli. Ursula Goodenough, Michael Silberstein, Ambrose Nahas, e Don Favereau, in particolare, hanno riletto le prime versioni di varie parti del manoscritto, offrendo ampi contributi · di discussione e correzione. Hilary Hinzman, editor del mio libro del 1997 intitolato The Symbolic Species, ha ampiamente revisionato i primi quattro capitoli anche di questo, che quindi saranno i più leggibili. Questi contributi sono serviti a migliorare grandemente la presentazione eliminando qualche trascuratezza e qualche confusione, e sono stati utili a semplificare la mia prosa a volte contorta. In effetti, le risposte e i contributi editoriali che ho ricevuto sono stati assai di più di quelli che sono riuscito a mettere a frutto, dati i limiti di spazio e di tempo. È dunque solo grazie alla fortuna di trovarmi nel posto e nel momento giusto della storia delle idee - erede di innumerevoli menti di genio - e a quella di aver avuto con me una vera banda di leali compagni di viaggio, che queste idee possono essere condivise in
Ringraziamenti
II
una forma che risulta almeno minimamente comprensibile. Questa leale banda di «pirati» ha avuto senso critico, capacità di supporto, pazienza e insistenza proprio nella giusta miscela perché questo potesse accadere. Questo libro è testimonianza della meravigliosa sinergia di tanti contributi convergenti. E ciò ha fatto di questo tentativo un viaggio entusiasmante e insieme un motivo di duratura amicizia. Grazie a tutti voi. Infine, della massima importanza è stato il sicuro e costante incoraggiamento della mia consorte e migliore amica, Ella Ray, che più di ogni altro capisce i limiti della mia mente, così facile a distrarsi, e sa .come aiutarmi a concentrarmi sulla sfida di mettere queste idee sulla carta, mese dopo mese, anno dopo anno. Berkeley, settembre 2orn
Capitolo o
Assenza 1
Nella storia della cultura, la scoperta dello zero spiccherà sempre come uno dei massimi singoli risultati della razza umana. Tobias Dantzig, 1930
Il segno mancante La scienza è arrivata al punto in cui possiamo disporre con precisione singoli atomi su una superficie metallica, o identificare il continente degli antenati di una persona analizzando il DNA dei suoi capelli. Ironia della sorte, però, ci manca una comprensione scientifica di come possano le frasi scritte in questo libro essere riferite ad atomi, DNA o qualunque altra cosa. È un problema serio. In sostanza significa che il meglio della nostra scienza - quell'insieme di teorie che presumibilmente arriva più vicino a spiegare ogni cosa - non include proprio questa fondamentalissima caratteristica distintiva del fatto che io sono io e tu, lettore, sei tu. In effetti, la nostra attuale «teoria del tutto» implica che noi non esistiamo, se non come collezioni di atomi. Cos'è che manca, dunque? Per dirlo con un po' di ironia, e in stile enigmatico, manca qualcosa che manca. Consideriamo i seguenti, familiari fatti. Il significato di una frase non è il gruppo di scarabocchi che rappresentano le lettere su un pezzo di carta o su uno schermo. Non sta nei suoni che questi scarabocchi possono farci emettere. Non è neppure il ronzio dei neu-
14
Natura incompleta
roni nel cervello di chi li legge. Ciò che significa una frase, e ciò cui essa si riferisce, manca proprio delle proprietà che le cose devono tipicamente avere per fare una differenza nel mondo. L'informazione trasmessa da questa frase non ha massa, né quantità di moto, né carica elettrica, né solidità, e neppure una chiara estensione nello spazio, dentro di noi o intorno a noi, o da qualsiasi altra parte. Più sconcertante ancora, le frasi che state leggendo in questo momento potrebbero essere insensate, e in tal caso non ci sarebbe nulla, nel mondo, cui potrebbero corrispondere .. Ma persino questa proprietà di pretendere di avere un significato farà una differenza concreta nel mondo se influenzerà, in un modo o nell'altro, il pensiero o l'azione di una persona. Ovviamente, malgrado questo qualcosa di non presente che caratterizza il contenuto dei miei pensieri e il senso di queste parole, le ho scritte per i significati che - forse - potrebbero trasmettere. Ed è presumibile che questo sia il motivo per cui tu, lettore, stai focalizzando il tuo sguardo su di esse, e che potrebbe spingerti a fare un certo sforzo mentale per trovarci un senso. In altre parole, il conte.,. nuto di questa, o di ogni altra frase - qualcosa che non è una cosa - ha conseguenze fisiche. Ma come fa? Il significato non è la sola cosa che presenti un problema di questo tipo. Parecchie altre relazioni del nostro quotidiano condividono questo aspetto problematico. La funzione di una pala non è la pala né il buco nel terreno, ma la possibilità di fare buchi più facilmente che ci mette a disposizione. Ciò a cui si riferisce la mano che fa un gesto di saluto non è il movimento della mano, e neppure la convergenza fisica degli amici, ma l'avvio di una possibile condivisione di pensieri ed esperienze richiamate alla memoria. Lo scopo del mio scrivere questo libro non è battere sui tasti, né depositare inchiostro su pezzi di carta, e neppure produrre e far distribuire un gran numero di copie di un libro come oggetto materiale; sta nel condividere qualcosa che non è contenuto in nessuno di questi processi e oggetti della realtà fisica: idee. E, bizzarramente, è proprio perché queste idee mancano di simili attributi fisici che possono essere condivise con decine di migliaia di lettori senza mai esaurirsi. Cosa ancora più enigmatica, accertare il valore di questa impresa è quasi impossibile da ricollegare a qualche specifica conseguenza fisica. È qualcosa di quasi interamente virtuale: forse nulla più che rendere certe idee più
Assenza
15
facili da concepire o, se i miei sospetti dovessero risultare corretti, accrescere la nostra sensazione di avere un posto nell'universo. Ogni fenomeno di questo genere - funzioni, riferimenti, propositi, valori - è in qualche modo incompleto. C'è qualcosa che non è li. Senza questo «qualcosa» che manca non sarebbero che puri e semplici eventi od oggetti fisici, destituiti di questi altrimenti curiosi attributi. Nostalgia, desiderio, passione, appetito, lutto, perdita, aspirazione - sono tutti basati su un'analoga intrinseca incompletezza, un «essere privi» che di essi è parte integrante. Nel riflettere su questo curioso stato delle cose, mi colpisce il fatto che non ci sia una specifica parola che sembri riferirsi a questo elusivo carattere delle cose di questo tipo. Quindi, a rischio di iniziare questa discussione con un goffo neologismo mi riferirò a questo carattere chiamandolo assenziale 2 , per denotare i fenomeni la cui esistenza è determinata in riferimento a un'essenziale assenza. Assenza che può essere di uno stato di cose ancora non realizzatosi, dello specifico e separato oggetto di una rappresentazione, di un tipo di proprietà generale che potrebbe esistere o no, una qualità astratta, un'esperienza e così via; ma non ciò che effettivamente è presente. Questa paradossale qualità intrinseca di esistere in rapporto a qualcosa di mancante, separato e che può anche non esistere è irrilevante quando si tratta di cose inanimate, ma è una delle proprietà che definiscono la vita e la mente. Una teoria completa del mondo che includa noi stessi e la nostra esperienza del mondo deve trovare un senso al modo in cui siamo formati da questo specifico tipo di assenze e in cui da esse emergiamo. Ciò che è assente conta, eppure la nostra attuale comprensione dell'universo fisico suggerisce che non dovrebbe avere alcuna importanza . Dalle scienze naturali sembra essere assente ogni ruolo causale per l'assenza.
Che cosa è importante, materialmente importante? La scienza moderna, ovviamente, si occupa di spiegare le cose che sono presenti, come materia ed energia. Ci interessa sapere come si comportano gli oggetti fisici in ogni sorta di circostanze, di che tipo di oggetti siano a loro volta composti, e come le proprietà fisiche espresse nelle cose a un dato momento influenzeranno ciò che accadrà in momenti successivi. Questo vale persino per feno.:.
16
Natura incompleta
meni (esito a chiamarli oggetti o eventi) strani e difficili da concepire chiaramente come i processi quantistici, che si svolgono a scale subatomiche di inimmaginabile piccolezza. Ma anche se i fenomeni quantistici sono spesso descritti in termini di possibili proprietà fisiche ancora non attualizzate, sono comunque fisicamente presenti in qualche senso ancora non specificato, e non assenti o rappresentati. Uno scopo ancora non realizzato, la qualità di un sentimento, un valore funzionale appena scoperto; questi però non sono mere sovrapposizioni di rapporti fisici probabili. Sono aspetti intrinsecamente assenti di cose presenti. Il fatto che al centro della scienza vi siano cose presenti e attualizzate contribuisce anche a spiegare come mai, storicamente, le descrizioni scientifiche abbiano dovuto sopportare una sgradita coesistenza ton le descrizioni assenziali del perché le cose si presentano come si presentano. Un esempio è dato dal rapporto delle une e delle altre con la nozione di ordine. Lasciata a se stessa, una certa disposizione di un insieme di oggetti inanimati tenderà naturalmente verso il disordine; noi esseri umani però, e anche molte altre specie, preferiamo certe disposizioni. Molte funzioni e finalità sono determinate in termini di dispo~izioni preferite, che si tratti della posizione delle parole in una frase o di quella dei ramoscelli in unnido d'uccello. Ma le cose tendono a non essere organizzate regolarmente (cioè a essere disordinate). Sia la termodinamica che il senso comune predicono che le cose, da sole, non faranno che diventare più disordinate. Quando dunque ci capita di incontrare fenomeni ordinati, o di osservare cambiamenti che vanno in senso inverso a quello che dovrebbe essere naturale, per spiegarli tendiamo a invocare l'influsso di fattori assenziali, come un disegno umano o l'intervento divino. Fin dagli albori dellà storia scritta la regolarità dei processi celesti, l'apparente squisita perfezione dei corpi degli animali e delle piante e i motivi delle coincidenze che parevano significative sono stati attribuiti a cause soprannaturali di ordine mentale, che fossero demoni invisibili, onnipotenti artefici divini o qualche altro genere di volontà trascendentale; influenze che poi non sorprende siano state immaginate come provenienti da fonti disincarnate e prive di forma fisica. Man mano, tuttavia, che le descrizioni meccanicistiche di fenomeni inorganici carichi di mistero come calore, reazioni chimiche
Assenza
17
e magnetismo prendevano nel XIX secolo ad assurgere al rango di ,scienza formalizzata, ogni genere di descrizione e spiegazione assenziale è stato via via rimesso in discussione. Quando dunque nel 1859 Charles Darwin propose e descrisse un processo - la selezione naturale - che poteva spiegare la notevole corrispondenza funzionale dei tratti 'delle specie con le condizioni della loro esistenza, persino lo speciale ordine del disegno degli esseri viventi sembrò soc., combere a una spiegazione non assenziale. Il successo delle descrizioni meccanicistiche di fenomeni un tempo considerati spiegabili solo in termini mentali ha raggiunto un suo acme nella seconda metà del XX secolo con lo studio dei cosiddetti processi inorganici auto-organizzati. Man mano che processi assai comuni come la formazione dei cristalli di neve e la convezione regolarizzata del calore prendevano a essere visti come naturalmente paralleli a fenomeni inattesi come la superconduttività e la generazione della luce laser, è divenuto sempre più frequente sentir descrivere le spiegazioni assenziali come anacronismi e illusioni di un epoca prescientifica. Numerosi studiosi ritengono oggi che lo sviluppo di una scienza capace di caratterizzare aècuratamente i fenomeni auto-organizzati complessi sarà sufficiente a descrivere infine i rapporti organici e mentali in termini interamente non assenziali. Concordo sul fatto che una raffinata comprensione dei processi darwiniani, unita alle acquisizioni della dinamica dei sistemi complessi, ha condotto a enormi progressi nella nostra comprensione dell'ordine che si riscontra nei processi viventi, neuronali e anche sociali. Le argomentazioni proposte in questo libro si serviranno anzi ampiamente di questo corpus di ricerche per ricavarne passaggi critici della via che porta a una teoria completa. Sosterrò tuttavia che questo approccio può darci soltanto i passi intermedi di un'analisi che di passi dovrà compierne molti altri. Le teorie dei sistemi dinamici non possono da ultimo che eliminare, con le loro spiegazioni, gli aspetti finalizzati e normativi degli organismi, perché implicitamente assumono che ogni fenomeno causalmente rilevante deve essere istanziato da qualche differenza di substrato materiale o di energia. Di conseguenza, la loro possibilità di trattare gli aspetti di rappresentazione ed esperienza della mente risulta limitata quanto quella delle semplici descrizioni meccanicistiche. Dall'una come dall'altra prospettiva, gli elementi assenziali devono, per definizio-
r8
Natura incompleta
ne, esser trattati come glosse epifenomeniche da ridurre a specifici substrati fisici, o altrimenti da escludere dall'analisi. L'ambito di ciò che è meramente rappresentato, che potrebbe essere, che potrebbe essere stato, che dà sensazioni, o che serve a, non può avere, presumibilmente, alcuna rilevanza fisica. A partire dagli anni ottanta, è cominciato a diventare chiaro per alcuni studiosi che gli approcci alla vita e alla mente basati sulla dinamica dei sistemi e la teoria dell'evoluzione non potevano essere al1'altezza di questa pretesa di universalità. In seguito alla loro necessaria fondazione in ciò che è fisicamente qui e ora, questi approcci non avrebbero potuto sfuggire a questo implicito dualismo. Ricercatori che erano stati fortemente influenzati dal pensiero della teoria dei sistemi - come Gregory Bateson, Heinz von Foerster, Humberto Maturana e Francisco Varela (per nominarne solo qualcuno) - hanno preso ad articolare questo problema, sforzandosi in vari modi di arricchire il pensiero sistemico di contributi utili a reintegrare nella teoria la finalizzazione dei processi viventi e la componente esperienziale dei processi mentali. Ma il problema metafisico di reintegrare finalizzazione e soggettività in una teoria dei processi fisici ha spinto molti pensatori a proporre una specie di forzato matrimonio di convenienza tra le modalità di spiegazione fisica e mentale. Heinz von Foerster, per esempio, ha sostenuto che una teoria totale dovrebbe comprendere, e non escludere, l'atto dell'osservazione. Partendo da un quadro teorico collegato, Maturana e Varela hanno sviluppato il concetto di autopoiesi (letteralmente «autocreazione») per descrivere il nucleo della dinamica autoreferenziale sia della mente che della vita che costituisce una prospettiva osservazionale. Ma nel loro tentativo di fàre del sé-osservatore autonomo un elemento fondamentale delle scienze naturali, le origini di questa dinamica di autocreazione sono date semplicemente per scontate, prese come assioma. La teoria sfugge così alle sfide poste dai fenomeni la cui esistenza è determinata con riguardo a qualcosa di rimosso, assente o non ancora attualizzato, perché questi sono definiti in forma autoreferenziale internalizzata. In questo modo di vedere, l'informazione non riguarda qualcosa, è una relazione formale co-creata sia all'interno che all'esterno di questa chiusura autopoietica. I fenomeni assenziali non sembrano compatibili, semplicemente, con le restrizioni esplicative della scienza contemporanea, e dunque non è sorpren-
Assenza
19
dente, per molti, che si giunga alla conclusione che tutto ciò cui si può arrivare è una sorta di armonia prestabilita tra la prospettiva interna e quella esterna, le descrizioni assenziali e quelle fisiche. Dunque, malgrado il problema sia ormai antico, e la debolezza delle metodologie contemporanee riconosciuta, una soluzione equilibrata non c'è. Nella maggior parte dei casi la metà mentale di ogni spiegazione è data nelle scienze della natura per meramente euristica e probabilmente illusoria. E anche i più raffinati sforzi volti a integrare le teorie fisiche capaci di dar conto dell'ordine spontaneo con una teoria della causazione mentale finiscono per postulare una sorta di dualismo metodologico. Limitarsi ad asserirne la necessaria unità - il fatto che un soggetto che osserva deve essere un sistema fisico a carattere autoreferenziale - evita l'implicita assurdità di negare i fenomeni assenziali ma al tempo stesso li mette, per via di definizione, fuori dall'esistenza. Sembriamo ancora avvolti dall'ombra di Cartesio. La cosa in cui questo persistente dualismo si rende forse più evidente è la recente folata di interesse verso il problema della coscienza, e le vedute teoretiche spesso estreme che in merito alla sua natura e alla sua posizione scientifica sono state proposte: tutto e il contrario di tutto, dal trovarne un embrione in tutti i processi materiali al negarne interamente l'esistenza. Il problema per la coscienza, come per tutti i fenomeni che presentano un carattere assenziale, è che non sembra avere chiari correlati fisici, anche se poi è associata, senza la minima ambiguità, con l'avere un cervello funzionante e desto. Il materialismo, l'idea secondo cui nel mondo vi sono solo le cose materiali e le loro interazioni, qui pare impotente. Anche con grandi passi avanti nel campo delle neuroscienze, il mistero potrebbe restare intatto. Per riprendere il filosofo David Chalmers: Per ogni processo fisico .che specifichiamo ci sarà una questione irrisolta: perché questo processo dovrebbe dar luogo a un' esperienza? Dato un tale processo, è concettualmente coerente pensare che potrebbe essere istanziato in assenza di esperienza. Ne segue che nessuna mera descrizione di processi fisici ci dirà perché insorge l'esperienza. L'emergenza dell'esperienza va al di là di ciò che si può derivare dalle teorie fisiche 3.
20
Natura incompleta
Che cosa può dunque sigrùficare dire che la coscienza non può essere derivata da alcuna teoria fisica? Chalmers sostiene che dobbiamo semplicemente accettare il fatto che la coscienza non è fisica e però al tempo stèsso non è trascendente nel senso di un'effimera anima eterna. Come possibile opzione, Chalmers sostiene l'idea che la coscienza potrebbe essere una proprietà del mondo altrettanto fondamentale per l'universo della carica elettrica o della massa gravitazionale. È disposto a considerare questa possibilità perché ritiene che non ci sia modo di ridurre le qualità esperienziali a processi fisici. La coscienza è sempre un fenomeno residuale, che rimane inspiegato anche dòpo che siano stati descritti tutti i correlati processi fisici. Quindi, per fare un esempio, anche se riusciamo a dire come si potrebbe costruire un congegno per distinguere la luce rossa da quella verde - e possiamo addirittura spiegare come riescono a farlo le cellule della retina - questa spiegazione non ha alcuna presa quando si tratta di spiegare perché la luce rossa appare rossa. Ma è proprio vero che l'accettazione di questa posizione antimaterialistica sulla coscienza richiede che vi siano proprietà fisiche fondamentali che ancora devono essere scoperte? In questo libro propongo un approccio meno spettacolare, anche se forse più lontano dall'intuizione. Non è che la difficoltà di localizzare la coscienza in mezzo alle forze di segnalazione neurale ci costringa a cercarla in qualche altra cosa, cioè in qualche altra sorta di substrato speciale, o di etere ineffabile, o di reame extrafisico. La posizione antimaterialistica è compatibile con un altro approccio che però è del tutto materialmente fondato. Come propositi e sigrùficati, la coscienza può essere qualcosa che non è presente, nel tipico senso di essere in qualche modo concretizzata in materia o energia, ma può ancora essere causalmente rilevante in senso materiale. . L'opzione che è passata inosservata è che abbiamo a che fare, anche qui, con un fenomeno che è definito dal suo carattere assenziale, anche se in una forma alquanto più complessiva e inevitabile. L'esperienza cosciente ci mette davanti a una variante dello stesso problema che abbiamo di fronte quando si tratta di funzione, sigrùficato o valore. Nessuno di questi fenomeni ha una presenza materiale, eppure essi sono, per così dire, di materiale importanza. In ciascuno di questi casi è qualcosa di presente a segnare questa biz-
Assenza
21
zarra relazione intrinseca con qualcosa di assente. Nel caso della coscienza, la cosa presente è un cervello funzionante e sveglio, fonnicolante di migliaia di miliardi di processi di segnalazione al secondo. Ma c'è un'ulteriore questione, quando si tratta di coscienza, che rende il caso particolarmente ostinato, ben più di altre relazioni assenziali: ciò che esplicitamente è assente sono io.
Calcolare con l'assenza Le difficoltà cui andiamo incontro nel trattare di assenze che hanno importanza hanno un sorprendente parallelo storico: i problemi posti dal concetto di zero. Come proclama la frase posta in esergo a questo capitolo, la scoperta dello zero è stata uno dei massimi progressi della storia della matematica. Disporre di un simbolo che designasse la mancanza di una quantità non è stato importante solo come espediente di notazione per le quantità grandi. Ha trasformato invece il concetto stesso di numero, e rivoluzionato i processi di calcolo. Per molti versi, la scoperta dell'utilità dello zero segna l'alba della matematica moderna. Ma come hanno notato molti storici, lo zero è stato di volta in volta temuto, bandito, evitato ed esaltato nel corso dei millenni che hanno preceduto la sua accettazione in Occidente. E malgrado sia una pietra angolare della matematica e un essenziale elemento costitutivo della scienza moderna, resta comunque problematico, come impara presto ogni bambino quando gli tocca studiare l'operazione della divisione. Un segno convenzionale per contrassegnare l'assenza di un valore numerico è stato uno sviluppo tardivo nei sistemi numerici del mondo. Sembra aver avuto origine come modo per annotare lo stato di un abaco 4 quando nel corso di un calcolo una data linea di biglie viene lasciata ferma. Ma ci sono voluti letteralmente millenni perché l'idea di contrassegnare il valore nullo entrasse a far parte della matematica in Occidente. Quando poi lo fece, ogni cosa è cambiata. Di colpo, rappresentare grandi numeri non richiedeva più l'invenzione di nuovi simboli o la scrittura di stringhe di simboli lunghe e poco maneggevoli. Fu possibile escogitare procedure regolari, algoritmi, per sommare, sottrarre, moltiplicare e dividere. Fu possibile considerare quantità in tennini sia positivi che negati-
22
Natura incompleta
vi, definendo così una retta dei numeri. Le equazioni potevano rappresentare oggetti geometrici e viceversa, e molto di più. Dopo aver negato per secoli la legittimità del concetto - con l'assunto che incorporarlo nei ragionamenti sulle cose del mondo avrebbe avuto un influenza corruttrice, e vedendo nelle sue proprietà perverse un motivo per escluderlo dall'analisi quantitativa - alla fine gli studiosi europei si resero conto che queste nozioni non erano che deplorevoli pregiudizi. Per molti aspetti, lo zero può essere visto come la levatrice della scienza moderna. Finché gli studiosi occidentali non sono stati in grado di impadronirsi delle proprietà sistematiche di questa «non quantità», la comprensione di molte delle più comuni proprietà del mondo fisico è rimasta al di là della loro portata. Ciò che lo zero ha in comune con i fenomeni della vita e delle mente è che anche questi processi naturali devono il loro carattere più fondamentale a ciò che è specificamente non presente. E sono anche, in effetti, segni fisici di questa assenza. Funzioni e significati sono esplicitamente intrecciati con qualcosa che non è intrinseco agli artefatti o ai segni che li costituiscono. Esperienze e valori sembrano inerire ai rapporti fisici ma non sono lì allo stesso tempo. Questo «qualcosa che non è lì» permea e organizza ciò che è fisicamente presente in questi fenomeni. Il suo modo assente di esistere, per così dire, è al massimo una potenzialità, un segnaposto. L'esemplare paradigmatico di un simile segnaposto è lo zero. Contrassegna la posizione colonnare in cui è possibile inserire le quantità da 1 a 9 nello schema ricorsivo che costituisce la nostra comune notazione decimale (per esempio la colonna delle decine, quella delle centinaia, quella delle migliaia), ma di per sé non significa una quantità. Analogamente le molecole di emoglobina che ho nel sangue sono anch'esse segnaposto per qualcosa che esse stesse non sono: l'ossigeno. L'emoglobina è squisitamente sagomata in forma di immagine negativa delle proprietà di questa molecole, come uno stampo d'argilla, e allo stesso tempo riflette le esigenze del sistema vivente che le ha dato origine. Lega la molecola di ossigeno appena a sufficienza per trasportarla attraverso la circolazione sanguigna, ove poi la cede ad altri tessuti. Essa esiste, e presenta queste proprietà, perché media il rapporto tra l'ossigeno e il metabolismo di un corpo ammale. Similmente, una parola scritta è an-
Assenza
23
ch'essa un segnaposto. È qualcosa che punta a uno spazio in una rete di significati, ove ogni elemento punta anche reciprocamente agli altri e a potenziali aspetti del mondo. Ma un significato è qualcosa di virtuale e di potenziale. Anche se un significato ci è più familiare di una molecola di emoglobina, la trattazione scientifica di concetti come funzione e significato resta essenzialmente di secoli più arretrata della scienza che tratta di fenomeni più tangibili. Sotto questo aspetto, siamo un po' come i nostri antenati del Medioevo, che avevano piena familiarità con i concetti di assenza, vuotezza e simili, ma non riuscivano a immaginare come la rappresentazione di un'assenza potesse essere incorporata in operazioni riguardanti le quantità di cose che sono presenti. Noi diamo significati e finalità per scontati nella nostra vita quotidiana, eppure non siamo stati capaci di incorporarle nel quadro delle scienze naturali. Sembriamo disposti ad ammettere nella scienza delle cose viventi e mentali solo quanto è materialmente presente., . Per i matematici medievali, lo zero era il numero del diavolo. Il modo innaturale in cui si comportava rispetto agli altri numeri quando lo si incorporava nei calcoli faceva pensare che potesse essere pericoloso. Anche gli scolari dei nostri tempi sono avvertiti dei pericoli del dividere per zero. Se lo si fa, si può dimostrare che I = 2 o che tutti i numeri sono uguali fra loro s. Negli approcci delle neuroscienze, della biologia molecolare e della teoria dei sistemi contemporanee alla vita e alla mente, vi è un analogo assunto a proposito di concetti come rappresentazione e finalità. Molti dei più rispettati ricercatori di questi campi hanno deciso che questi concetti non sono utili neppure a livello euristico. Non è raro trovare vere e proprie ingiunzioni esplicite contro il loro uso quando si tratta di descrivere proprietà di organismi o operazioni cognitive. L'assunto pressoché universale è che i moderni approcci computazionali e dinamici a queste materie hanno reso questi concetti anacronistici come il flogisto 6 • Dunque l'idea di permettere alle conseguenze potenzialmente realizzabili che caratterizzano una funzione, un riferimento o un obiettivo da raggiungere di assumere un ruolo causale nella nostra spiegazione dei cambiamenti fisici è stata bandita dalla scienza. Uno scopo o un significato potenziale deve essere riducibile a un para-
24
Natura incompleta
metro meramente fisico identificabile nel fenomeno in questione, oppure deve essere trattato come un'utile finzione che è consentito introdurre nella discussione solo come un richiamo stenografico alla psicologia ingenua per facilitare una comunicazione non tecnica. Secoli di lotta contro le spiegazioni basate su superstizione, magia, esseri soprannaturali e volontà divine ci hanno insegnato a essere altamente diffidenti verso ogni menzione di simili proprietà intenzionali e teleologiche, in cui cioè le cose sono spiegate in quanto esistenti «in vista di» qualche altra cosa. Questi fenomeni non possono essere quel che sembrano. E, per di più, ammettere che siano quel che sembrano condurrà quasi certamente ad assurdità non meno problematiche della divisione per zero. Eppure imparare a lavorare con lo zero, malgrado violasse principi che valgono per tutti gli altri numeri, ha aperto un vasto nuovo repertorio di possibilità analitiche. Misteri che parevano logicamente incontrovertibili e tuttavia ovviamente falsi non solo sono divenuti trattabili ma hanno fornito spunti che hanno condotto a costruire strumenti potenti e attualmente indispensabili di analisi scientifica, come il calcolo, infinitesimale e integrale. Consideriamo il famoso paradosso di Zenone, a suo tempo formulato nei termini di una gara tra il piè veloce Achille e una tartaruga cui fosse stato concesso un certo vantaggio iniziale. Zenone sostenne che coprire una distanza comporta doverne percorrere un'infinita serie di frazioni (per esempio 112, 1/4, 1/8, 1/I6 e così via, della distanza). Dato il numero infinito di frazioni, pareva che Achille non potesse percorrerle tutte, e quindi non potesse mai arrivare al traguardo. Peggio ancora, pareva che Achille non potesse mai neppure raggiungere la tartaruga, perché ogni volta che copriva la frazione della distanza necessaria a raggiungere la posizione in cui la tartaruga si trovava un attimo prima, questa nel frattempo sarebbe andava avanti ancora un po'. Per risolvere questo paradosso i matematici hanno dovuto capire come trattare divisioni infinitamente numerose di spazio e tempo e distanze e durate infinitamente piccole. Il rapporto con il calcolo è che differenziazione e integrazione (le due operazioni base del calcolo) rappresentano e sfruttano il fatto che molte serie infinite di operazioni matematiche convergono a una soluzione finita.
Assenza
25
Questo è. il caso anche del problema di Zenone. Così, correndo a velocità costante, Achille potrebbe coprire la metà della distanza fino al traguardo in 20 secondi, poi il successivo quarto in IO secondi, poi la successiva e più piccola frazione in un tempo corrispondentemente più breve, e così via, con ciascuna frazione microscopicamente sempre più piccola della distanza che richiede per esser percorsa una frazione sempre più piccola di secondo. Il risultato è che la distanza totale può ancora essere percorsa in un tempo finito. Tenendo contro di questa caratteristica di convergenza, l'operazione di differenziazione usata nel calcolo ci consente di misurare velocità, accelerazioni e altre grandezze istantanee, anche se in realtà la distanza percorsa in un istante è pari a zero.
Un paradosso di Zenone della mente Credo che siamo tutti vittima di una sorta di paradosso di Zenone della mente. Come gli antichi matematici sconcertati dal comportamento dello zero, e maldisposti a contemplarne l'incorporazione nei propri calcoli, sembriamo sconcertati dal fatto che referenti ass.enti, fini non realizzati e valori astratti hanno conseguenze fisiche definite, malgrado l'apparente mancanza di concretezza fisica. Il risultato è che\ abbiamo escluso queste relazioni da ogni ruolo costitutivo nelle scienze naturali. Così che malgrado l'ovvia e indiscussa importanza di funzioni, scopi, significati e valori nell' organizzazione del nostro corpo e della nostra mente, e nei mutamenti che avvengono nel mondo intorno a noi, le nostre teorie scientifiche devono ancora ufficialmente negare loro ogni legittimità, salvo che, in qualche modo, a livello euristico. Ciò ha contribuito a far nascere un gran numero di lambiccati trucchi teoretici e contorte manovre retoriche volti a oscurare questa profonda incoerenza o a sostenere che deve per sempre rimanere al di là della portata della scienza. Esploreremo alcune delle goffe risposte che sono state date a questo dilemma nei capitoli seguenti. Più grave, peraltro, è il modo in cui ciò ha diviso le scienze naturali da quelle umane, e tutte e due dal settore umanistico. In questo processo, si è inoltre alienato il mondo della conoscenza scientifica dal mondo dell'esperienza e dei valori umani. Se gli aspetti più
26
Natura incompleta
fondamentali dell'esperienza umana sono in qualche modo considerati illusori e irrilevanti per gli andamenti fisici del mondo, allora noi stessi, insieme alle nostre aspirazioni e valori, veniamo nei fatti resi irreali. Non c'è da stupirsi se il pervasivo successo della scienza nell'ultimo secolo è stato parallelamente accompagnato da una rinascita di fedi fondamentaliste e dalla profonda sfiducia nella determinazione laica dei valori umani. Dunque il fatto di non poter integrare queste tante specie di causalità basate su assenze nelle nostre metodologie scientifiche non .ci ha soltanto assoggettati a una grave'limitazione; ha anche lasciato che una vasta frazione del mondo fosse lasciata orfana da teorie che si vuole valgano per ogni cosa. Proprio l'attenzione che è stata necessaria per escludere sistematicamente che questo genere di spiegazioni potesse minare le nostre analisi causali dei fenomeni fisici, chimici e biologici ha contemporaneamente frustrato i nostri sforzi volti a penetrare al di là della superficie dei fenomeni della vita e della mente. In effetti, quelli che possono essere chiamati i due più difficili misteri della nostra epoca - spiegare l'origine della vita e quella dell'esperienza cosciente - sono entrambi ostaggio di questa presunta incompatibilità. Riconoscere questo parallelo contemporaneo con l'inconsapevole handicap auto-imposto che limitava la matematica del Medioevo è, a mio avviso, un primo passo per uscire da quest'impasse. È venuto il momento di capire come integrare i fenomeni che definiscono la nostra stessa esistenza entro il regno delle scienze fisiche e biologiche. Ovviamente non basta riconoscere semplicemente questa analogia delle due· situazioni. Da ~ltimo abbiamo bisogno di identificare i principi attraverso i quali questi indisciplinati fenomeni assenziali possono essere effettivamente integrati nell'esigente intreccio di fili di. cui è fatto il tessuto delle scienze naturali. Ci sono voluti secoli, e vite intere di lavoro di alcune delle massime menti della nostra storia, per arrivare a domare il difficoltoso non-numero zero. Ma fino a quando le regole per lavorare con lo zero non sono state finalmente articolate con precisione la strada per lo sviluppo delle scienze fisiche non si è aperta. Analogamente, finché continueremo a non essere in grado di spiegare in che modo queste curiose relazioni tra qualcosa che non c'è e ciò è presente possano fare una diffe-
Assenza
27
renza nel mondo, resteremo ciechi alle possibilità di un nuovo vasto reame del sapere. Prevedo un tempo, nel prossimo futuro, in cui questi paraocchi finalmente cadranno, e si aprirà una porta che metta in comunicazione queste due culture attualmente incompatibili del sapere, quella fisica da una parte e quella del significato dall'altra; e questa casa divisa si ritroverà unita.
Semplice quanto possibile, ma non troppo semplice In questo libro propongo un modesto passo iniziale verso l'obiettivo di unificare queste due maniere di concettualizzare il mondo e il posto che occupiamo in esso, che per tanto tempo sono rimaste fra loro isolate e apparentemente incompatibili. Sono consapevole che nell'articolare questi ~ensieri corro il rischio di incorrere in una sorta di eresia scientifica. Quasi certamente, molte reazioni iniziali saranno sprezzanti: «Ma questo genere di idee non era stato relegato da un bel pezzo nella pattumiera della storia?», «Influenza causale dell'assenza? Poesia, non scienza». «Scemenze mistiche». Già il suggerire che ci sia una simile evidente macchia cieca nella nostra corrente visione del mondo è un po' come sostenere che il re è nudo. Peggio però che essere etichettato come eretico è essere considerato troppo poco informato e troppo sicuro di sé per riconoscere la propria cecità. Mettere in discussione qualcosa di così fondamentale, di così ampiamente accettato, che pare così ovviamente vero, è, più spesso che no, il segno che distingue l' eccentrico isolato o il dilettante male informato e mal consigliato. Proporre un così radicale ripensamento di questi assunti fondamentali della scienza, dunque, rischia inevitabilmente di mettere in luce la presunzione di chi lo propone. Chi può onestamente sostenere di avere una sufficiente padronanza dei tanti campi tecnici che sono importanti per sostenere una cosa del genere? Nell'articolare la mia sfida mi aspetto di incorrere in non pochi infortuni tecnici e di lasciare incompleti passaggi esplicativi anche seri. Ma se le crepe nelle fondamenta fossero evidenti, se le questioni intellettuali che si pongono potessero essere messe in discussione senza rischi, se i dettagli tecnici fossero facili a padroneggiarsi, la questione sarebbe divenuta banale già da tempo. Il fatto che le que-
Natura incompleta
stioni che coinvolgono fenomeni assenziali continuino a segnare confini disciplinari invalicabili, che i più durevoli misteri della scienza appaiano essere centrati intorno a esse, e che tuttora erompano sconvolgimenti sia accademici che culturali nelle discussioni su questi argomenti, indicano che queste questioni sono lontane dall'essere ormai risolte e relegate nella pattumiera della storia della scienza. Lo sviluppo di strumenti formali capaci di integrare questa cifra mancante - l'influenza assenziale - nel tessuto delle scienze della natura è un'impresa che dovrebbe stare al centro del dibattito filosofico e scientifico. Dovremmo essere preparati al fatto che ci vorranno decenni di lavoro da parte delle più brillanti menti del secolo appena iniziato per fare di queste intuizioni precisi strumenti scientifici. Ma il processo non può avere inizio se non siamo disposti a correre il rischio di uscire dal vicolo cieco degli assunti correnti, di cercare di determinare se il nostro cammino non abbia preso una direzione che non era esattamente quella giusta. L'attuale esclusione di queste relazioni da ogni legittimo ruolo nelle nostre teorie sul funzionamento del mondo ha implicitamente negatola nostra stessa esistenza. C'è davvero da stupirsi, allora, se il sapere scientifico è visto da molti con diffidenza come nemico dei valori umani, servitore del cinico secolarismo e araldo del nichilismo? L'intollerabilità di questa visione alienante del mondo, così, e l'assurdità dei suoi assunti, dovrebbero bastare a giustificare un'esplorazione dell'idea apparentemente folle che qualcosa di non immediatamente presente possa essere nei fatti un'importante fonte di influenze fisiche nel mondo. Ciò significa che se riusciremo a dare un s~nso alle relazioni assenziali questo non servirà solo a illuminare certi misteri della vita quotidiana. Se l'esempio dello zero può suggerirci qualcosa, anche solo un barlume dei lineamenti di una sistematica integrazione di questi fenomeni nelle scienze della natura potrebbe illuminare un cammino che porti a interi nuovi campi di ricerca. E arrivare a capire per via scientifica, senza svilirle, queste proprietà della natura che sono le più vicine alla nostra persona può forse trasformare il modo in cui ciascuno di noi personalmente vede se stesso nello schema delle cose. Il sottotitolo di questa sezione è la spesso citata regola empirica di Albert Einstein per il lavoro teorico dello scienziato. Un motto
Assenza
29
come «semplice quanto possibile, ma non troppo semplice» chiarisce bene il mio modo di vedere il problema. Nel nostro sforzo di spiegare il modo in cui funziona il mondo con il minor numero possibile di assunti di base ci siamo accomodati in un quadro di riferimento che attualmente è troppo semplice per incorporare quella parte del mondo che è senziente, cosciente e capace di valutazioni. La sfida è determinare in che modo i nostri concetti fondativi sono troppo semplici, e quale sia il minimo che va fatto per c~m plicarli quanto basta per tornare a incorporare noi stessi. Il monito di Einstein è anche una ricetta per pensare con chiarezza e comunicare bene. Questo libro non è indirizzato a futuri fisici o biologi, e neppure ai filosofi della scienza. L'argomento che affronta ha una rilevanza di larghissima portata, e quindi questo tentativo di sondarne i misteri merita di essere accessibile a chiunque sia disponibile a considerare le idee, difficoltose e controintuitive, in esso esplorate. Di conseguenza ho cercato con tutte le mie forze di renderlo accessibile a chiunque sia stato condotto dalla sua curiosità intellettuale a questo labirinto di misteri scientifici e filosofici. Mi sono fatto guidare dal principio che se non riesco a spiegare un'idea a ogni lettore istruito, con il minimo di strumenti tecnici, probabilmente vuol dire che io stesso non la capisco fino in fondo. Dunque, al fine di raggiungere un pubblico vasto, e dato che questa è la miglior garanzia della mia stessa comprensione, ho cercato di presentare l'intera discussione in termini puramente qualitativi, anche a rischio di sacrificare il rigore. Ho ridotto al minimo il gergo tecnico e non ho inserito nessuna formalizzazione matematica dei principi e delle relazioni che descrivo. Nella maggior parte dei casi ho cercato di descrivere meccanismi e principi rilevanti in modo da ridurre al minimo le conoscenze già presupposte nel lettore, e proponendo esempi che sono i più semplici che sono riuscito a immaginare, pur continuando a trasmettere la logica che informa le varie argomentazioni. Questo può far si che alcune presentazioni sembrino troppo semplificate e pedanti ai lettori tecnicamente preparati, ma spero che la chiarezza così ottenuta risulterà più importante del tempo speso a ripercorrere passo passo esempi già familiari per arrivare a concetti controintuitivi e capaci di mettere in discussione idee consolidate. Ammetterò fin dall'inizio che mi è sembrato inevitabile co-
30
Natura incompleta
niare un certo numero di neologismi per designare alcuni dei concetti per cui non sono riuscito a trovare buoni termini già in uso. Ma ogni volta che mi è parso che una terminologia non tecnica fosse adeguata, anche a rischio di trascinarmi appresso un bagaglio teoretico non rilevante, ho resistito alla tendenza a usare terminologie specialistiche. Ho aggiunto un glossario che definisce i pochi neologismi e i termini tecnici sparsi un po' in tutto il testo. Questo libro è fondamentalmente diviso in tre parti: una che articola il problema, una che delinea una teoria alternativa e una che ne esplora le implicazioni. Nei capitoli dal primo al quinto mostro che gli enigmi concettuali posti dai fenomeni assenziali non sono stati affrontati, malgrado si sostenga che siano stati superati, ma sono stati invece nascosti sotto il tappeto in svariate ingegnose maniere. Criticando i tentativi di spiegarli, o di renderli irrilevanti, sostengo che i nostri vari sforzi sono serviti solo a insinuare le stesse difficoltà, in modo più enigmatico e mascherato, all'interno dei nostri attuali paradigmi scientifici e umanistici. Nei capitoli dal 6 al 9 delineo un approccio alternativo; una teoria delle dinamiche emergenti, che mostra come i processi dinamici possano organizzarsi intorno a e in rapporto con possibilità non realizzate. Questo è inteso a fare da impalcatura per un ponte concettuale che porti dalle relazioni meccanicistiche alle relazioni finalizzate, informazionali e normative come quelle che si possono rinvenire nelle semplici forme di vita. Nei capitoli dal ro al 16, poste le fondamenta di una scienza allargata capace di comprendere queste relazioni assenziali di base, esploro alcune delle implicazioni per la riformulazione delle teorie del lavoro, dell'informazione, dell'evoluzione, del sé, dello stato senziente e dei valori. Si tratta di un territorio assai vasto e, in questi capitoli finali intendo soltanto accennare ai modi in cui questa inversione di prospettiva fra figura e sfondo rimodula necessariamente il modo in cui vanno considerati questi concetti fondamentali. Ciascuno di questi capitoli formula nuovi approcci teorici e pratici a questi terni, presumibilmente familiari, e potrebbe facilmente essere espanso a fame un libro di notevoli proporzioni se si volesse rendere giustizia alla complessità di tali questioni. Considero questo lavoro solo un primo esitante sforzo di mappatura di un dominio poco familiare e mal esplorato. Non posso
Assenza
31
neppure dimù certo di aver pienamente padroneggiato i pochi passi che ho mosso in questo territorio straniero. Si tratta di un reame in cui è raro che l'intuizione non rimessa in discussione sia una guida degna di fede, e dove la temùnologia che usiamo quotidianamente per capire il mondo può introdurre assunti fuorvianti. In più, molte delle idee scientifiche da affrontare sono al di fuori della mia formazione tecnica diretta, e ai limiti della mia comprensione. In quei casi in cui posso solo fare ipotesi spero almeno di aver espresso questo abbozzo ancora embrionale di comprensione con chiarezza e dettaglio sufficienti da permettere a chi dispone di strumenti e formazione migliori di chiarire qualcuna delle ambiguità e confusioni che posso essemù lasciato dietro. E tuttavia, anèhe se non posso pretendere di aver foggiato un preciso calcolo di questo analogo, nel campo della causazione fisica, dell'uso dello zero_ nelle operazioni matematiche, ritengo di poter dimostrare come una forma di causazione dipendente da aspetti specificamente assenti e potenziali irrealizzati possa essere compatibile con il meglio della nostra scienza. Credo sia possibile farlo senza compromettere né il rigore dei nostri strumenti scientifici né lo speciale carattere di questi enigmatici fenomeni. Spero che mettendo il luce la palese presenza di questa fondamentale incompletezza della natura diventerà impossibile ignorarla ancora. Quindi, se riuscirò a indurre il lettore a prendere quest'idea apparentemente folle in considerazione - anche solo, all'inizio, come diversione intellettuale - mi sento fiducioso che cominci anch'egli a intravedere il profilo qualitativo di una futura scienza che sia abbastanza sottile da includ~re noi stessi, e l'enigmatica incompletezza della nostra natura, fra le forme in cui legittimamente può essere annodato il tessuto di cui è fatto l'universo.
(
Capitolo
\
I
Interi e buchi
Trenta raggi convergono nel mozzo della ruota, verso un foro che ne consente la rotazione. All'argilla si dà fonna di recipiente perché racchiuda un vuoto che può essere riempito. Porte e finestre sono aperte nelle pareti, per dare accesso alla protezione che offrono. Anche se possiamo lavorare solo con ciò che c'è, l'utilità viene da quel che non c'è. Lao Tsu 1
Sassate Una pietra che sta su una spiaggia può essere spostata da un posto all'altro grazie all'azione delle onde, delle wrrenti e delle maree. Oppure può essere spostata dai muscoli del braccio di un ragazzino che cerca di farla rimbalzare sulla superficie dell'acqua. Nell'uno e nell'altro caso le forze di natura fisica che agiscono sulla massa del sasso ne provocano il movimento. Ovviamente, le onde che spostano i sassi della spiaggia devono i loro movimenti ai venti che le perturbano, i venti nascono dai processi convettivi indotti dall'energia della luce solare e così via, in una serie interminabile di forze che agiscono su altre forze sempre più indietro nel tempo. Quanto ai movimenti dei muscoli del ragazzino, anch'essi possono essere analizzati in termini di forze che agiscono su altre forze risalendo nel
34
Natura incompleta
tempo. Ma qual' è il punto centrale? Il mètabolismo ossidativo di glucosio e glicogeno, che fornisce l'energia per la contrazione muscolare e il movimento del braccio che lancia un.sasso di per sé inerte? I carboidrati mangiati qualche ora prima? O la luce del Sole che ha nutrito le piante a partire dalle quali è stato prodotto quel cibo? Si potrebbero anche considerare le cose a un livello ancora più microscopico, come i processi molecolari che provocano la contrazione dei muscoli del bambino: per esempio l'energia impartita dalle molecole di adenosin-trifosfato (ATP) grazie alla quale le molecole di actina e miosina delle fibre muscolari scivolano l'una sull'altra contraendo la fibra, i mutamenti dei potenziali ionici propagati lungo milioni di fibre nervose che causano il rilascio di acetilcolina nelle sinapsi neuromuscolari e danno inizio a questo processo chimico, e lo schema di scarica dei neuroni della corteccia cerebrale che organizza e dà il via alla propagazione dei segnali. Potremmo arrivare a doverci mettere la storia evolutiva che ha dato origine a mani e braccia e cervelli capaci di interazioni come queste. Anche così, la storia causale completa di questo processo lascia fuori quella che si può dire la cosa più importante. Che dire del ruolo della concezione mentale del bambino dell'aspetto che assumerà quel sasso nel saltare sulle onde, della sua conoscenza di come va tenuto in mano e lanciato per ottenere un risultato così interessante, o del fascino che ha per lui vedere un sasso che resiste alla sua naturale tendenza ad affondare nell'acqua, anche solo per qualche secondo? Tutto ciò certamente coinvolge i meccanismi chimico-fisici del cervello del bambino, ma esperienza mentale e azione non sono esattamente schemi di scarica neurale, o stati del cervello. Né sono fenomeni che avvengono fuori dal cervello del bambino, e chiaramente neppure altri oggetti o eventi fisici, in nessun senso ovvio. Queste attività neurali riguardano in qualche modo il far saltare il sasso, e sono cruciali per dare inizio a tale attività. Ma non sono, in sé, passate o future pietre danzanti sul1' acqua; somigliano di più alle parole scritte su questa pagina. Sia queste parole che le immagini mentali presenti nella mente del ragazzo danno accesso a qualcosa che esse non sono. Sono, in tutti e due i casi, rappresentazioni di qualcosa di non del tutto realizzato e non del tutto rèale. Eppure questi pezzetti di virtuale realtà - il contenuto di queste rappresentazioni - sono certo altrettanto determi-
Iriteri e buchi
35
nanti per gli eventi che con tutta probabilità che li seguiranno quanto 1' energia che in essi sarà spesa. Mancherebbe qualcosa di essenziale alla spiegazione della successiva improbabile traiettoria della pietra che rimbalza, se si ignorasse questo aspetto assenziale. È entrato in gioco qualcosa di assai diverso dal cambiamento di posizione di un sasso sotto 1' effetto delle onde quando l'ha lanciato il bambino - qualcosa di assai più indiretto, anche se non meno fisico. In effetti, nel giro di qualche minuto lo stesso bimbo potrebbe far sì che una dozzina d'altri sassi danzi sulla superficie dell'acqua lungo lo stesso tratto di spiaggia. Di contro, prima dell'evoluzione degli esseri umani la probabilità che un .qualunque sasso su una qualsiasi spiaggia della Terra potesse esibire questo comportamento era astronomicamente piccola. Questa differenza esemplifica 1' ampio fossato che separa due domini governati da modalità causali quasi diametralmente opposte: due mondi che però sono uniti nel lanciare e far ruotare quel piccolo oggetto. Non è che µno degli esempi dei miliardi di cose prima inesistenti e inconcepibilmente improbabili che sono associate con la presenza della nostra specie. Avremmo potuto altrettanto facilmente argomentare questo punto descrivendo un moderno artefatto tecnologico, come il computer sui cui tasti sto battendo queste frasi. Questo dispositivo è stato fatto a partire da materiali :r;accolti in tutte le parti del globo, tutti portati a innaturali livelli di purezza, e combinati con altri materiali precisamente purificati e foggiati esattamente in modo da poter controllare il flusso degli elettroni da una parte all'altra del suo vasto labirinto di canali metallici. Nessun processo fisico spontaneo non cognitivo, in nessun punto dell'universo, avrebbe potuto produrre una combinazione di materiali così altamente improbabile, e tanto meno milioni di repliche pressoché identiche nel breve spazio di qualche anno. Questo genere di ovvi esempi umani ci presenta tipici esempi della radicale discontinuità che separa la fisica di ciò che è spontaneamente probabile dalle probabilità devianti introdotte nel mondo da organismi e menti. Una dettagliata conoscenza dell'organizzazione generale del corpo e del sistema nervoso del bambino avrebbe un'utilità predittiva solo per gli ultimi secondi dell'evento, quando l'occhio del bambino ha colto un sasso della forma giusta. Al confronto, conoscere l' organizzazione causale del corpo umano solo in modo superficiale, ma
Natura incompleta
sapere anche che l'anno prima, durante un'altra passeggiata su un'altra spiaggia, qualcuno ha fatto vedere a quel bambino come far saltare una pietra sull'acqua, ci darebbe una capacità predittiva assai maggiore del conoscere un numero mille volte maggiore di dettagli fisiologici. Nessuno degli incredibilmente numerosi dettagli della sua storia fisica e fisiologica sarebbe utile quanto questo elemento di informazione, al confronto assai impreciso e generico, su un evento accaduto mesi prima e a chilometri di distanza. Per molti aspetti, questo singolo evento passato verificatosi su un'altra spiaggia con un altro sasso, e di cui il bambino può benissimo essere stato soltanto un osservatore, è fisicamente ancora meno legato all'evento presente di quanto non lo sia il periodico oscillare del sasso nelle onde per tutti i secoli in cui è stato a giacere su quella spiaggia. n passaggio da questa proba,bilità incalcolabilmente minuscola alla quasi certezza, malgrado si ignori di una quantità astronomica di dati fisici, e si sappia soltanto qualche nebuloso dettaglio macroscopico di interazione umana, coglie l'essenziale di un enigma assai personale. L'idea del bambino - l'idea che forse si può trattare questo sasso come l'altro che un'altra volta ha visto far nmbalzare sull'acqua - è assai più rilevante per l'organizzazione di queste probabilità causali di ciò che può aver mangiato a colazione o del modo in cui il sasso è arrivato a essere depositato in quel punto di quella spiaggia. Anche se la forza impartita alla pietra è in larga misura derivata dall'energia rilasciata a partire dai legami chimici del cibo che ha digerito, e la pozione del sasso è interamente dovuta alle interazioni energetiche della geologia, del vento e delle onde, questi fatti sono quasi irrilevanti. n valore predittivo dello spostamento dell'attenzione verso tipi di eventi assai generali, similarità globali macroscopiche, predizioni di possibili processi mentali e così via, ci offre un decisivo indizio del fatto che nel momento in cui. ci occupiamo di questa analisi mentale degli eventi, invece che della fisica che li governa, stiamo impiegando una logica della causalità assai diversa, e a quest'ultima per certi aspetti ortogonale. Questa differenza, in effetti, fa sì che le due analisi sembrino controintuitivamente incompatibili. Il pensiero riguarda una possibilità, e una possibilità è qualcosa che ancora non esiste, e che potrebbe non esistere mai. Pare quasi che un possibile futuro stia in qualche modo influenzando il presente.
Interi e buchi
37
La discontinuità della causalità implicita nell'azione umana è parallela a una correlata discontinuità tra processi viventi e non viventi. Entrambe, in ultima analisi, coinvolgono un'inversione della logica causale: l'ordine che si sviluppa dal disordine, l'assenza di un certo stato delle cose che ne determina l'esistenza, e un potenziale che tende a realizzare se stesso. In termini generali descriviamo tutto ciò parlando di fini che determinano i mezzi. Ma in confronto al modo in cui funzionano le cose nel mondo non vivente e non pensante è come se si fosse prodotto un fondamentale cambiamento di fase nel tessuto del mondo. Attraversare il confine che separa le macchine dalle menti, o le reazioni chimiche dalla vita, equivale a lasciare un universo di possibilità ed entrare in un altro. Da ultimo, abbiamo bisogno di una descrizione che renda conto di queste proprietà senza renderne l'esistenza, o la nostra esistenza, e la relativa fenomenologia, assurde. Il nostro cervello si è evoluto come uno dei prodotti dell'evoluzione incrementale attraverso 3 miliardi di anni di un processo esplicitamente finalizzato detto vita. Come i pensieri oziosi di un ragazzino a spasso lungo la spiaggia, questo processo non ha alcuna controparte nel mondo inorganico. Sarebbe assurdo sostenere che queste differenze sono illusorie. Qualunque altra cosa si possa dire sulla vita e sulla mente, questi fenomeni hanno radicalmente riorgaf?.izzato il tessuto causale degli eventi che hanno luogo sulla superficie della Terra. Ovvi;i.mente la vita e la mente sono collegate. L'essere senzienti, che noi viviamo come coscienza, ha per precursori i processi adattativi della vita nel suo complesso. Sono due estremi di un unico filo di evoluzione. Dunque non è solo la mente a richiedere che si arrivi a capire le forme finalizzate di causalità: è la vita stessa.
Che cosa manca? La mancanza di questa spiegazione rivela un grosso buco ancora aperto nella nostra comprensione del mondo. Sta lì da millenni. Per la maggior parte di questo periodo è stato soltanto una misteriosa ragione di perplessità. Ma ora che le nostre capacità scientifiche e tecnologiche sono cresciute al punto che stiamo involontariamente interferendo con il metabolismo di tutto il pianeta, il non
Natura incompleta
riuscire a cohnare questo buco nelle nostre spiegazioni si fa sempre più problematico. Negli ultimi secoli, l'incessante frugare degli scienziati nei segreti della natura ha trionfahnente chiarito, l'uno dopo l'altro, un gran numero di misteri. Solo nel secolo passato gli scienziati hanno soggiogato la forza delle stelle per produrre energia elettrica o distruggere intere città. Hanno identificato e catalogato in dettaglio le basi molecolari dell'eredità biologica. E hanno progettato e realizzato macchine che in una frazione di secondo possono eseguire calcoli che avrebbero richiesto, per essere condotti a termine, anni di lavoro di migliaia di persone. Eppure questi successi hanno anche inopinatamente minato la motivazione che ne era stata la spinta propulsiva: la fede nel valore intrinseco che questo sapere avrebbe dato all'umanità. Non solo alcune delle scoperte più eleganti sono state volte agli usi più orribili, ma l'applicazione dei nostri più raffinati strumenti scientifici all'analisi della vita e della mente degli esseri umani pare aver svilito lo spirito umano, invece di nobilitarlo. Non è solo l'aver mancato di scoprire gli snodi della fisica e della chimica che ci separano dal mondo non vivente. Le nostre teorie scientifiche hanno mancato di spiegare ciò che più ci importa: il posto che spetta, nel mondo fisico, a significati, scopi e valori. Le nostre teorie scientifiche non hanno esattamente fallito. Piuttosto, hanno accuratamente escluso questi fenomeni da ogni considerazione, e li hanno trattati come irrilevanti. Ciò perché il contenuto di un pensiero, lo scopo di un'azione o il consapevole apprezzamento di un esperienza condividono tutte una fastidiosà caratteristica che sembra renderle inadatte allo studio scientifico: non sono esattamente qualcosa di fisico, anche se dipendono da processi materiali che si svolgono in un cervello. Domandiamoci: «Che cosa significa leggere queste parole?». Per una risposta adeguata non sono necessarie informazioni sulla storia dei miliardi di atomi di cui sono fatti la carta e l'inchiostro, o il libro che abbiamo di fronte. Un demone di Laplace 2 potrebbe riconoscere le origini di questi atomi in antiche stelle esaurite e nelle singole' traiettorie che alla fine li hanno condotti a trovarsi disposti come noi li vediamo, ma questa completa conoscenza fisica non darebbe alcun indizio sul loro significato. Ovviamente tutti questi dettagli fisici, e moltissimi altri, sono una parte essenziale della sto-
Interi e buchi
39
ria, ma anche la più completa delle descrizioni fisiche lascerebbe fuori quello che è il fatto causale più importante. Se qualcuno sta leggendo queste parole è a causa di qualcosa che non è né le parole né il lettore, ma le idee che esse trasmettono, Qualunque altra cosa si possa dire di queste idee, è chiaro che non sono la materia di cui è fatto il lettore o il libro che sta leggendo. Il problema, dunque, è questo: concetti come informazione, funzione, scopo, signific:ito, intenzione, significatività, coscienza e valore sono intrinsecamente definiti dalla loro fondamentale incompletezza~ Esistono solo in relazione a qualcosa che non sono. Così, le informazioni offerte in questo libro non sono la carta e l'inchiostro, o il dispositivo elettronico, che le trasmettono, la funzione pulitrice del sapone non è solo le sue interazioni chimiche con acqua e oli, la funzione regolatrice di un segnale di stop non è il legno, il metallo e la vernice di cui è fatto, ma neanche la sua particolare forma; e il valore estetico di una scultura non è dato dalla natura chimica del marmo, dal suo peso o dal suo colore. Quel «qualcosa» che ciascuna di queste cose non è, è appunto quel che più materialmente conta. C'è un paradosso insito in questo modo di esprimersi, nella lingua inglese [in cui il fatto di «contare», «essere importante», si esprime spesso, come fa qui l'autore, con il verbo to matter, si è cercato di renderlo in italiano con l'avverbio «materialmente», N.d. T.]. «Materiale» è qualcosa di sostanziale, che resiste al cambiamento e sta al di là di creazione e distruzione; eppure ciò che è «di materiale importanza» in un'idea o in uno scopo dipende da qualcosa che non è sostanziale in nessun ovvio senso della parola. Che cosa, dunque, hanno in comune tutti questi fenomeni? In una parola, nulla; o, piuttosto, qualcosa che non è presente. Nell'ultimo capitolo ho introdotto il termine alquanto.sgraziato di «assenziale» per riferirmi ali' essenziale elemento assente di ogni fenomeno di questo tipo. Esso non basta, comunque, a dire tutto quel che c'è da dire, perché, come dovrebbe già essere ovvio dagli esempi appena discussi, il ruolo dell'assenza in questi disparati fenomeni è ogni volta diverso. E non è solamente qualcosa che manca, ma un orientamento verso, o un esser condizionale a, questo qualcosa che non è lì. Il più tipico e sviluppato esempio di relazione assenziale è l'idea di finalità. Storicamente, il concetto di fine è stato una costante fonte di controversie per i filosofi come per gli scienziati. Il termine
Natura incompleta
usato dai filosofi per lo studio dei fenomeni finalizzati è teleologia, letteralmente «logica dell'esser diretto a un fine». La radice del termine è nel greco antico, e curiosamente vi sono due diverse radici greche ·che sono entrambe traslitterate in italiano nel prefisso tele; e che tutte e due, ognuna a suo modo, sono rilevanti. La prima, «téle(os)», è quella da cui deriva teleologia. Fra i suoi vari significati vi sono completezza, fine, obiettivo, scopo. Quindi teleologia si riferisce allo studio dei fenomeni caratterizzati volti a un fine. La seconda, «téle» (approssimativamente traducibile con «lontano») è il familiare prefisso di tante parole come telescopio, telefono, televisione, telemetria e telepatia, che implicano un rapporto con qualcosa che avviene a distanza o malgrado una discontinuità fisica. Anche se il concetto di teleologia deriva specificamente dalla prima radice, per una coincidenza di traslitterazione (e forse per qualche più profonda simbologia etimologica e sonora) il concetto di separazione e distanza fisica indicato dalla seconda radice è anch'esso rilevante. Riconosciamo i fenomeni teleologici dal loro sviluppo verso qualcosa che non sono, ma rispetto a cui sono implicitamente determinati. Senza questa intrinseca incompletezza sarebbero meri oggetti o eventi. È il fine per il quale ~sistono - lo stato possibile delle cose che portano più vicino a esistere - a caratterizzarli. Il concetto di teleologia coinvolge anche relazioni come rappresentazione, significato e rilevanza. Un fine è qualcosa di rappresentato. Quel qualcosa di mancante che caratterizza ciascuna di queste relazioni semiotiche può essere semplicemente dissociato in senso fisico o temporale da ciò che è presente, o può esserne distante in senso più metaforico in quanto astratto, potenziale o solo ipoteticamente esistente. In questi fenomeni non c'è alcuna disposizione a portare il qualcosa che manca all'esistenza, ma solo un segno dell'essenziale relazione di quel che è presente con qualcosa che presente non è. In un senso importante, la finalità è più complessa di altre relazioni assenziali perché nel concetto di fine troviamo implicite tutte le altre forme di relazione assenziale. Nei casi più comuni, questo concetto è associato a uno stato psicologico di azione o di intenzione di agire in modo da potenzialmente dar luogo alla realizzazione di una meta rappresentata nella mente. Ciò non solo coinvolge un
Interi e buchi
41
orientamento verso uno stato di cose attualmente non esistente, ma assume anche un'esplicita rappresentazione di tale fine, rispetto al quale possono essere organizzate le azioni. Inoltre, le varie azioni e processi tipicamente impiegati per ottenere tale fine funzionano per arrivare a esso. Infine, il successo o il mancato successo nel realizzare tale fine ha valore perché è in qualche maniera rilevante per 1' agenzia per il cui vantaggio viene perseguito. E tutti questi elementi contribuiscono all'essere senzienti degli organismi semplici e all'esperienza cosciente degli esseri pensanti, come noi stessi. Data la sua complessità, il concetto di fine mentale può essere pro$fessivamente scomposto, rivelando forme sempre più deboli di questa relazione di organizzazione per conseguenze che non comportano 1' assunto di una intrinseca natura mentale. c:;osì i concetti di funzione, informazione e valore hanno controparti nei processi viventi che non comportano stati psicologici e da cui tali forme più sviluppate probabilmente derivano. La funzione di un meccanismo progettato o di un organo biologico è anch'essa costruita o organizzata (rispettivamente) rispetto al fine di promuovere la produzione di uno stato al momento ancora non realizzato delle cose. Per gli artefatti fabbricati da esseri umani non c'è ambiguità. Noi riconosciamo che un oggetto è progettato e costruito per uno scopo. In altre parole, l'ottenimento di un certo tipo di esiti guida la scelta e la modifica delle sue caratteristiche fisiche. La forma di una ciotola deve essere tale da impedire che si svuoti sulla superficie su cui si trova, e un chiodo deve esser fatto di un materiale più rigido di quello in cui deve penetrare. La funzione che guida la costruzione di un attrezzo è localizzata estrinsecamente a esso, e dunque 1' attrezzo deriva il suo carattere finalizzato, in modo parassitario, dalla teleologia del progettista o dell'utilizzatore. Non è intrinseca a esso. Di contro, la funzione di un organo biologico non è parassitaria di alcuna teleologia estrinseca, in questo senso 3. Un organo come il cuore o una molecola come 1' emoglobina eredita la sua funzione attraverso il suo coinvolgimento nella sopravvivenza e nella riproduzione dell'organismo. Diversamente da uno scopo concepito da una mente, una funzione biologica manca di una rappresentazione esplicita del fine rispetto al quale opera. Anche così, però, esiste a causa delle conseguenze che tende a produrre. Questa, in effetti, è
42
Natura incompleta
l'essenza della spiegazione data dalla selezione naturale di alcune delle proprietà esibite da un organo. Altri due temùni analogamente omonimi, dai significati diversi ma correlati, sono anch'essi associati a finalità, rappresentazione e valore. Nell'uso comune, la parola «intenzione» si riferisce tipicamente alla predisposizione di una persona ad agire in relazione al raggiungimento di un particolare obiettivo, come quando uno intende far rimbalzare un sasso sull'acqua. In questo senso, intenzionale è essenzialmente lo stesso che finalizzato, e avere un'intenzione è la stessa cosa dell'avere uno scopo. Nei circoli filosofici, tuttavia, il temùne intenzione è usato in modo differente e più tecnico. Lo si definisce come la proprietà di essere a proposito di qualcosa. Idee e credenze sono, in questo senso, fenomeni intenzionali. L'etimologia della parola ammette entrambi gli usi, dato che il significato letterale è qualcosa come «inclinato verso», nel senso di tendere, o pendere, verso qualcosa. L'elemento comune, di nuovo, è un coinvolgimento rispetto a qualcosa di estrinseco o assente, come per esempio un contenuto, un significato o un tipo ideale. Tutte e due queste giustapposizioni terminologiche suggeriscono quindi una più profonda comunanza tra questi differenti modi di essere intrinsecamente incompleti. Sfortunatamente, visto che non sono solo i fenomeni legati alla mente a esibire incompletezza intrinseca e dipendenza da altro, i temùni teleologia e intenzionalità (in tutti e due i sensi) sono carichi di numerose connotazioni mentalistiche. Se vogliamo includere le più primitive controparti biologiche di queste relazioni che riguardano la mente, come funzione e adattamento, o il tipo di informazione che caratterizza l'eredità genetica, ci serve una temùno:logia più inclusiva. Intendo sostenere che queste forme (o gradi) più elementari di incompletezza intrinseca, caratteristiche anche dei più semplici fra gli organismi, sono i precursori evolutivi delle relazioni di tipo mentale nel senso dell'evoluzione. La funzione di un organo esiste al fine di mantenere in vita la pianta o l'animale. Mentre questo non è un obiettivo, in nessuno dei sensi usuali della parola, non è neppure una relazione puramente chimica o meccanica. Anche se la consapevolezza soggettiva è diversa dalla semplice reattività funzionale degli organismi in generale, sia la vita che la
Interi e buchi
43
mente hanno attraversato .la soglia che conduce in un regno in cui è importante qualcosa di più di quanto è materialmente presente. Attualmente, manca sia in inglese che nelle altre lingue a me note un termine sintetico che colga questo senso più generico di esistere «rispetto a», «in vista di» o «per generare» qualcosa che è assente, che possa includere il senso di «flinzione» a un estremo e quello di «valore» all'altro. Il riconoscimento di un nucleo comune, una proprietà che caratterizza il modo in cui ciascuna di queste relazioni coinvolge un necessario collegamento con, e un'inclinazione verso, qualcosa di assente, è un buon motivo per trovare un termine con cui riferirsi a essa. Per evitare di dover ripetutamente elencare questi attributi, abbiamo bisogno di introdurre un termine più generico per tutti questi fenomeni, che valga sia per quelli associati alla mente che per le semplici caratteristiche della vita. Per rispondere a questa. esigenza propongo di usare il termine entenzionale come aggettivo generico che descriva tutti i fenomeni intrinsecamente incompleti nel senso di essere in rapporto con il, costituiti dal, oppure organizzati al fine di, raggiungere qualcosa di non intrinseco. Combinando il prefisso en- (come in «entro») con la forma aggettivale che significa qualcosa come «teso (o inclinato) verso» spero di segnalare questo profondo e tipicamente ignorato elemento comune che esiste in tutti gli svariati fenomeni che includono in sé una fondamentale relazione con qualcosa di assente. Tra i fenomeni entenzionali vi sono funzioni che hanno condizioni in cui sono soddisfatte, adattamenti che hanno correlati ambientali, pensieri che hanno contenuti, propositi che hanno obiettivi, esperienze soggettive che distinguono il sé dal resto e valori in cui un sé gode di benefici o subisce danno. Anche se funzioni, adattamenti, pensieri, propositi, esperienze soggettive e valori hanno tutti i propri distinti attributi che li contraddistinguono, hanno anche tutti un orientamento verso una specifica assenza costitutiva, qualcosa di particolare e preciso che manca ed è l'attributo critico che li definisce. Trattando di questioni cognitive e semiotiche, tuttavia, continuerò a usare la terminologia colloquiale, di teleologia, fine, significato, intenzione, interpretazione e vita senziente. E quando parlerò di processi vitali che non comportano alcun ovvio elemento mentale, continuerò similmente a usare la consueta ter-
44
Natura incompleta
minologia di funzioni, informazioni, recettori, regolazione e adattamento. Ma nel riferirmi a tutti i fenomeni di questo genere use~ rò il termine entenzione per caratterizzarne l'interna relazione con un telos; uno scopo, o un altrimenti dislocato e quindi non presente qualcosa, o possibile qualcosa. Come dimostra un'analisi del concetto di teleologia, diversi fenomeni entenzionali sono interconnessi e dipendono l'uno dall'altro in maniera asimmetrica e gerarchica. Il comportamento diretto a un fine, per esempio, dipende dalla rappresentazione del fine stesso, la rappresentazione dipende da rapporti di informazione, l'informazione dipende dall'organizzazione funzionale, e le funzioni biologiche sono organizzate rispetto al loro valore nel promuovere la sopravvivenza, il benessere e il potenziale riproduttivo di un organismo. Questa dipendenza gerarchica diventa chiara quando si considera qualcuno dei processi entenzionali più semplici, come le relazioni funzionali negli organismi viventi. Per esempio, anche se potremmo specificare in considerevole dettaglio le relazioni chimico-fisiche che costituiscono una particolare interazione molecolare, come la funzione di legame dell'emoglobina con 1' ossigeno libero, nessuno di questi fatti della chimica ci dà l'informazione chiave che le molecole di emoglobina hanno queste proprietà in seguito a qualcosa che è da un lato del tutto generale e dall'altro del tutto distinto dalla chimica dell'emoglobina: l'evoluzione di una miriade di processi molecolari entro le cellule viventi che sono dipendenti per l'energia di cui necessitano dalla cattura di elettroni da parte dell'ossigeno e il fatto che in corpi di grande dimensioni non possono ottenerlo. per diffusione diretta. La precisa spiegazione di come nascono i più semplici fenomeni entenzionali e di come le forme più complesse si evolvono a partire da queste forme più semplici è tra le massime sfide cui intende rispondere questo libro. Gli studiosi che lavorano sui fenomeni intenzionali tendono a considerarli come processi e rapporti che possono essere caratterizzati a prescindere da ogni oggetto, cambiamento materiale o forza motrice di natura fisica. Ma è proprio questo che pone un problema fondamentale alle scienze naturali. Una spiegazione scientifica richiede che per dare conseguenze causali qualunque cosa deve essere suscettibile di venire coinvolta in interazioni materiali ed ener-
Interi e buchi
45
getiche con altri oggetti e forze fisiche. Accettando questa prospettiva, ci troviamo dinanzi alla sfida di spiegare come queste caratteristiche assenziali dei fenomeni entenzionali possano in qualche modo fare una differenza nel mondo. Ma d'altra parte ammettere che termini di tipo mentale come proposito e intenzione non facciano che darci glosse descrittive per certe costellazioni di eventi materiali non risolve il problema. Sostenere che l'efficacia causale dei contenuti mentali è illusoria è altrettanto inutile, visto che siamo circondati dalle conseguenze fisiche delle idee e degli obiettivi degli esseri umani. Prendiamo il denaro. Con un dollaro si compra una tazza di caffè, a prescindere da se esso prenda la forma di un biglietto cartaceo, di monete, di un addebito elettronico su conto bancario o di un addebito su carta di credito su cui poi bisognerà pagare gli interessi. Un dollaro non ha alcun essenziale substrato fisico specifico, ma sembra essere qualcosà di ordine più alto, autonomo da ogni particolare realizzazione fisica. ·Dato che l'aspetto assenziale unificante di questo processo economico è solo un esito di tipo simile, e non uno specifico attributo intrinseco, si potrebbe essere inclini a dubitare che vi sia coinvolto qualche aspetto comune. Lo scambio di un dollaro di carta e quello di alcune monete per un valore di un dollaro sono realmente azioni equivalenti, in qualche senso, o stiamo semplicemente ignorando, nel descriverle, i dettagli causali? Ovviamente, c'è una differenza in molti degli elementi componenti le relative attività :fisiche, anche se il prodotto finale - il ricevere la tazza di caffè - può essere superficialmente simile a prescindere da questi e altri dettagli. Ma davvero il fatto di finire in modo analogo può avere un ruolo indipendente nel processo causale, al di là degli specifici eventi fisici intermedi? Più fastidioso ancora, poi, è il fatto che questa fine non è essa stessa una specifica configurazione o un evento di tipo fisico, ma piuttosto un tipo generale di risultato in cui la grande maggioranza dei dettagli fisici specifici sono intercambiabili. Spesso i filosofi indicano l'indipendenza dai dettagli materiali specifici con l'espressione «realizzabilità multipla». Tutti i fenomeni entenzionali, quali un adattamento biologico come il volo, un' esperienza mentale come il dolore, una convenzione astratta come una funzione grammaticale, un giudizio di valore come un beneficio e
Natura incompleta
così via, sono realizzabili in modo molteplice. Possono tutti cioè incarnarsi in una gran varietà di processi chimici e fisici e in substrati di tipo ampiamente diverso. Tener conto della natura non del tutto specifica di quel qualcosa di assente che definisce funzioni, intenzioni e propositi ci costringe ad affrontare un altro enigma che preoccupa i filosofi fin dai tempi dei greci: il problema della realtà degli universali. Un universale, in questo senso del termine, è un tipo di cosa e non uno oggetto o un evento specifico. Le forme ideali di Platone erano universali, come lo è la nozione di «vita» o il concetto di «un dollaro». Lo status causale dei tipi generali è oggetto di discussioni filosofiche da millenni, ed è spesso indicato come dibattito tra realismo e nominalismo 4. Al suo centro sta la questione se a essere fonte di influenza causale possano essere i tipi di fenomeni o solo gli specifici singoli esemplari di essi. È per questo che i fenomeni entenzionali ci costringono a porre il problema. E questo spiega meglio perché siano problematici per le scienze della natura. Una rappresentazione può riguardare una cosa specifica ma anche una proprietà generale, la stessa funzione può essere svolta da meccanismi diversi, e un proposito come quello di far saltare un sasso sull'acqua può essere realizzato in maniere diverse. Dunque accettare la possibilità che i fenomeni entenzionali abbiano un'importanza causale nel mondo sembra richiedere che i tipi di oggetti abbiamo conseguenze fisiche reali indipendenti da ogni loro incarnazione fisica. Questo requisito è ben illustrato dalla funzione dell'emoglobina. Si tratta di una funzione a realizzabilità multipla. Quindi i biologi non sono rimasti molto sorpresi quando hanno scoperto che vi sono altri phyla di organismi che usano una molecola ematica completamente diversa per catturare e distribuire l'ossigeno. In molluschi e insetti si è evoluto un trucco molecolare indipendente per catturare e distribuire l'ossigeno ai propri tessuti. Invece dell' emoglobina, in essi si sono evolute le emocianine - il cui nome deriva dal colore blu-verde del sangue di questi animali che deriva dall'uso del rame, e non del ferro, nella proteina del sangue deputata al trasporto dell'ossigeno. Ciò non è considerato biologicamente insolito, perché si assume che il meccanismo dettagliato sia poco importante purché siano realizzati determinati attributi fisici generali che
Interi e buchi
47
risultano essenziali per la funzione. Questa funzione sarebbe assolta anche se gli scienziati riuscissero a realizzare un sostituto artificiale dell'emoglobina da usare quando non fossero possibili le trasfusioni sanguigne. Gli scrittori di fantascienza ipotizzano spesso che le forme di vita extraterrestri potrebbero anch'esse avere il sangue blu o verde. Forse è per questo che spesso gli alieni sono chiamati colloquialmente «omini verdi». In effetti, un sangue a base di rame è stato esplicitamente citato nella serie televisiva Star Trek e nei relativi film come una caratteristica della razza dei Klingon, anche se questa colorita immagine degli alieni sembra essere assai precedente 5. L'idea che qualcosa possa avere una reale efficacia causale nel mondo, indipendentemente dai suoi specifici componenti, è l'affermazione che definisce la teoria metafisica detta funzionalismo. La realizzabilità multipla è una delle sue caratteristiche distintive. Un esempio usato spesso per illustrare questo approccio proviene dall'informatica. Un programma per computer è fatto di un insieme di istruzioni usate per organizzare i circuiti della macchina perché facciano circolare segnali in uno specifico modo che produce certi risultati, come l'addizione di alcuni numeri. Nella misura in cui lo stesso programma produce gli stessi effetti su computer dall'hardware differente, possiamo dire che il risultato è funzionalmente equivalente malgrado sia realizzato in entità fisiche interamente separate. La realizzabilità computazionale multipla è stata un fattore cruciale (anche se non sempre affidabile) nella composizione di questo testo sui diversi computer che ho usato 6 . È l'intercambiabilità delle conseguenze a giustificare la classificazione di questi processi come lo stesso tipo di fenomeno, a dispetto della diversità dei possibili modi in clii tali conseguenze sono ottenute. Ma le potenziali conseguenze sono anch'esse universali, oltre a essere possibilità meramente virtuali (e dunque assenti). Funzioni e fini sono gli stessi solo riguardo al tipo di esito, non specifici stati fisici completamente descritti. Le concezioni meccaniche della causalità, invece, portano da specifiche condizioni fisiche antecedenti a specifiche condizioni fisiche conseguenti. Probabilmente la teoria di maggior successo fra quelle basate su conseguenze generali piUttosto che su dettagli fisici e chimici specifici è la teoria della selezione naturale di Darwin. Per esempio, un
Natura incompleta
adattamento come la capacità di distribuzione dell'ossigeno del sangue può realizzarsi in ciascun organismo vitale in uno specifico insieme di molecole di emoglobina prodotte in quel corpo, ma gli individui in cui si sia evoluta qualche variante della molecola del1' emoglobina che non dia differenze nelle proprietà di legame con l'ossigeno non sono distinti, per la selezione naturale, da quelli con l'emoglobina normale. Questo adattamento, dunque, è un tipo generale, non qualcosa di fisicamente particolare.
Negare la magia Anche se il corso della nostra esistenza quotidiana si dipana nel dominio delle relazioni assenziali non meno che in quello del cibo, del tempo che fa, delle case, delle strade e degli altri animali e piante, ogni volta che scienziati, filosofi e teologi cercano di spiegare in che modo si accordano questi domini i risultati sembrano inevitabilmente magici o assurdi. La causalità entenzionale appare come una sorta di magia, almeno da un punto di vista fisico-chimico, perché assume che qualcosa che non è presente abbia un'immediata influenza. Gli scienziati hanno tacitamente raggiunto un educato accordo per ignorare le proprietà entenzionali e bandirne l'uso nelle spiegazioni scientifiche. Se glielo si èhiedesse, la maggior parte di loro negherebbe che l'idea di una causalità entenzionale sia sensata. Come bambini davanti a uno spettacolo di magia, siamo semplicemente indotti con l'inganno ad accettare questo trucco dalla più grande di tutte le maghe, madre natura. In questo spirito, un libro assai letto del biologo evoluzionista Richard Dawk:ins, Il fiume della vita, ci sfida a liberarci delle nostre credenze infantili su significato e scopi dell'universo. A suo modo di vedere, «L'universo che osserviamo ha esattamente le proprietà che dovremmo aspettarci se non ci fosse, al fondo, né progetto né scopo, né bene né male: niente altro che cieca e spietata indifferenza». Il fisico Steven Weinberg, vincitore di un premio Nobel, analogamente osserva nel suo I primi tre minuti che «più l'universo appare comprensibile più sembra al tempo stesso privo di' senso». Questi pronunciamenti si occupano dell'universo nel suo insieme, e delle leggi secondo cui si dispiegano gli eventi cosmici. Non è
Interi e buchi
49
chiaro se l'uno o l'altro dei due autori sarebbe disposto a seguirne le implicazioni fino alla logica conclusione che la nostra propria esperienza di significati, propositi e agenzia cosciente sia ugualmente illusoria. Ma il premio Nobel Francis Crick, uno degli scopritori della struttura e delle funzioni del DNA afferma nel suo La scienza e l'anima: «Voi, le vostre gioie e i vostri dolori, i vostri ricordi e le vostre ambizioni, il vostro senso di identità personale e di libero arbitrio, siete nei fatti nulla più che il comportamento di una vasta struttura di cellule nervose e molecole loro associate ... » (il corsivo è mio). Questi tre scienziati sono certi che l'esperienza cosciente e l'agenzia umana non hanno nulla di magico o ultramondano, in qualunque senso della parola. E, come suggerisce Crick, è dato per scontato che da ultimo saranno spiegate in termini degli stessi tipi di sostanze e processi che si trovano nel resto del mondo vivente e non vivente. Tuttavia, come si sforza di spiegare nel suo libro Crick, i processi che costituiscono l'esperienza cosciente sono insolitamente complicati nella loro organizzazione :fisica, e difficili da studiare. Sono però comunque, dice, solo la normale :fisica e chimi. ca di tutti i giorni. E tuttavia accenna a una versione lievemente più sottile di questa posizione, sostenendo che le esperienze coscienti sono conseguenze emergenti di questi processi. Che cosa esattai:nente si intenda per emergenza risulta essere una questione sottilmente intrecciata con il problema di capire i fenomeni entenzionali. Si invoca spesso questo concetto come una sorta di controfigura di quella speciale relazione, quale che sia, che una completa teoria del mondo dovrà pur darci per spiegare la differenza tra fenomeni fisici entenzionali e non entenzionali. La risposta a questa sfida occuperà una buona porzione di questo libro. Invocando il concetto di emergenza, Crick sta segnalando che c'è qualcosa di speciale nei processi coscienti che li distingue da altri processi fisici; e da ultimo finirà per dirci che questa qualità speciale è la complessità. La differenza tra l'impresa di Crick e quella in cui si impegna questo libro è segnalata dalle parole che ho messo in corsivo nella citazione di qualche riga fa. Con l'espressione «nulla più che», Crick nega allo stesso tempo ogni spiegazione mistica e sostiene che questi fenomeni sono pienamente comprensibili nei termini della fisica e della chimica contemporanea.
50
Natura incompleta
Man mano che le nostre scienze e tecnologie si sono fatte sempre più raffinate, e che siamo giunti a riconoscere la validità degli strumenti che ci mettono a disposizione, il fatto che i fenomeni entenzionali appaiono invisibili a questi potenti metodi conduce inesorabilmente alla possibilità che questi fenomeni possano non coinvolgere, dopotutto, nulla di speciale. Ovviamente, l'esperienza cosciente non è qualcosa di magico, e credo anch'io che le leggi della fisica e della chimica non cambino quando svolgono ruoli costitutivi nella rappresentazione mentale e nell'esperienza cosciente. Sono anche d'accòrdo con Dawkins e Weinberg che la parte dell'universo che la nostra attuale scienza fisica e chimica descrive senza ambiguità è in effetti priva di funzione, significato e valore. Ma negando che la mente sia magia non si spiega il gioco di prestigio per cui proprio qualcosa di magico sembra essere rispetto al resto dell'universo, quello non vivente. Succede qualcosa di ne:ttamente diverso quando si tratta di organismi e cervelli rispetto a ciò che avviene con eruzioni vulcaniche, fiumi turbolenti o stelle che esplodono. Da bravo scienziato che ha trascorso gran parte della sua vita professionale a esplorare l'organizzazione dei cervelli e a guardare neuroni al microscopio, sono convinto che dallo studio di questo genere di dettagli fisici si ottiene una miglior comprensione di come funziona questo magnifico organo. Almeno per come li capiamo adesso, però, conoscere tanti dettagli fisici del cervello non ci ha reso più facile spiegare come uno schema di attività neurale può riguardare qualcosa che non è. Quando la discussione si volge al1' esperienza interiore della coscienza consapevole, il buco nella spiegazione si spalanca ancora di più. Siamo dunque per sempre condannati a usare forme di spiegazione parallele, e non reciprocamente traducibili, per discutere il genere di fenomeni di cui è composta l'esperienza da una parte e i relativi processi fisici dall'altra? O finiremo, come pensano alcuni, per poter fare del tutto a meno dei discorsi mentalistici, almeno negli ambienti scientifici, superando :finalmente l'illusione che «lì dentro» «ci sia qualcuno»? Sono queste le uniche scelte? L'ultima domanda suggerisce che vi sia un aspetto più profondo e corrosivo in questa impossibile scelta forzata. È un 'idea da incubo, sembra una puntata di Ai confini della realtà, immaginare che tutti
Interi e buchi
51
quelli che abbiamo intorno, ogni amico o persona amata, sia stato sostituito da un robot o da uno zombie, le cui azioni si limitano a simulare il comportamento di quella persona. In un mondo del genere non c'è nessuno che voglia bene a qualcun altro e nessuno cui voler bene, nessuna ragione per la gentilezza, nessuno con cui condividere l'esperienza della bellezza, della tristezza o della scoperta, e forse non c'è alcun valore al di là dei propri piaceri e dolori. L'incubo diventa poi ancora più orribile, però, perché in un mondo del genere la nostra stessa esistenza è una menzogna. È già abbastanza difficile accettare che il proprio corpo sia una macchina chimica, o che il mondo come appare ai nostri sensi sia fatto soltanto della trama di cui sono fatti i sogni. Ma è assurdo credere che i propri sentimenti, pensieri ed esperienze, anche in questo mondo onirico, siano irreali. Di chi, o di che cosa, ciascuno di noi è un'illusione? · L'esperienza cosciente - questo banalissimo fenomeno della nostra vita quotidiana da svegli - è la quintessenza dei fenomeno entenzionale. È intrin;ecamente percettiva, rappresentazionale, orientata alle conseguenze e normativa. La possibilità che sia illusoria, che davvero lì dentro non ci sia nessuno, è davvero troppo assurda e devastante da contemplare. Come dice il filosofo Jerry Fodor: [S]e non è letteralmente vero che il mio aver bisogno è causalmente responsabile per il mio allungare la mano, e il mio prurito è causalmente responsabile del mio grattarmi, e che la mia credenza è causalmente responsabile per il mio parlare . . . se niente di tutto questo è letteralmente vero, allora praticamente tutto ciò che io credo a proposito di qualsiasi cosa è falso; è la fine del mondo 7. Al confronto, credere che l'esperienza cosciente e altri fenomeni entenzionali siano più simili alla magia può sembrare quanto meno più accettabile, se non più plausibile, che credere che questi fenomeni in realtà non esistano affatto. Dunque non dovrebbe stupirci il fatto che proprio quando le nostre abilità scientifiche sembrano sul punto di darci capacità quasi .divine di prolungare la vita, creare nuove specie., allontanarci dalla Terra, fabbricare nuovi elementi e creare macchine capaci di svolgere compiti che un tempo
52
Natura incompleta
potevano eseguire solo gli esseri umani, gli antichi fondamentalismi si siano sollevati a investire il mondo in una marea crescente di negazione e sfida. L'umanesimo non è un rifugio, se essere umani è solo essere un computer chimico su cui girano programmi dovuti all'evoluzione. Navigare in un mondo senza valori·vuol dire esser senza timone né destinazione, ma d'altra parte senzà scienza si naviga alla cieca. Per molti, a quanto pare, è preferibile la cecità.
Telos ex machina Il riconoscimento più raffinato, nei tempi antichi, dell'esistenza di una distinzione tra queste modalità assai diverse di causazione può essere fatto risalire fino ad Aristotele. Egli, in effetti, considerava il problema ancora più complicato di come l'ho riassunto qui. Distingueva infatti quattro distinte modalità di causazione: causa materiale, causa efficiente, causa formale e causa finale. In carpenteria, per esempio, la causa materiale è quella che determina la stabilità strutturale di una casa, la causa efficiente sono le modificazioni apportate dal carpentiere ai materiali di partenza per creare la struttura, la causa formale è il progetto seguito nel processo di costruzione, e la causa finale è lo scopo del processo, cioè produrre uno spazio protetto dagli elementi. La causa finale è la cosa «in vista della quale» qualcosa viene fatto. Il suo classico esempio di causa finale è quello di un uomo che fa una pa~seggiata per salvaguardare la sua salute. La salute non è uno stato specifico, ma una condizione gene'rale definita dalle tante maniere in cui si può non essere in buona salute. Per Aristotele questi erano modi diversi e complementari di capire come e perché si verificano. i cambiamenti. Dai tempi di Aristotele vi è stata un'erosione di questa comprensione plurale del cambiamento che, pur avendo dato un importantè contributo all'unità del sapere, ha contribuito anche al nostro attuale dilemma intellettuale (e spirituale). Il mondo migliore di classificare processi e rapporti entenzionali è come espressioni di causalità finale aristotelica. Il loro carattere assenziale è determinato dal fine verso il quale tendono, o dal concetto rappresentato in vista del quale sono stati creati. Ma con 1' erosione della pluralità dei concetti di causa, non
Interi e buchi
53
è stato più accettabile dare un posto a una forma di influenza casuale derivante da qualcosa che è assente .. Fu all'inizio .del Rinascimento che la coerenza del concetto di causa finale venne posta in questione. Pensatori destinati a grandissima influenza come Francis Bacon, René Descartes, Baruch Spinoza e altri hanno progressivamente ristretto il ruolo che la causazione finale poteva· svolgere nei processi fisici. Bacon sostenne che le spiegazioni teleologiche erano ridondanti, e quindi costituivano un'aggiunta superflua alle spiegazioni fisiche delle cose. Descartes considerava i processi animati dei corpi animali completamente comprensibili in termini meccanici (cioè di cause efficienti), mentre i processi mentali costituivano un dominio separato e privo di estensione. Spinoza mise in questione il senso letterale della causazione finale, visto che era privo di senso pensare stati futuri come causa di stati presenti. Ciascuno alla sua maniera, questi pensatori riconosceva che far appello contenuti mentali come cause fisiche serve poco più che a indicare un:a scatola nera senza aprirla. Postulare motivazioni o propositi per le azioni continua a richiedere che si dia conto a livello fisico del modo in cui si realizzano. E dentro la scatola nera? Be', un ulteriore appello a un'agenzia finalizzata non servirebbe che ad , avvitarci in un regresso infinito. Di conseguenza, si ritenne, finalità e significato sono nozioni intrinsecamente incomplete. Richiedono di esser rimpiazzate con qualcosa di più solido. Un fine, concepito come una futura possibilità che «tira a sé» il presente, deve per forza essere illusorio, visto che manca del carattere materiale necessario per agire su qualsiasi cosa. I pensatori del Rinascimento abbandonarono antiche forme di spiegazione, come «la natura aborre il vuoto» per la forza esercitata dal vuoto, o l'essere «una sostanza più leggera dell'acqua» per il galleggiamento dei materiali, mediante una progressiva restrizione del concetto di influenza causale alle immediate spinte e controspinte delle interazioni fisiche. Questo patrimonio ereditato dalla scienza moderna ha ispirato uno sforzo incess.ante per sostituire a queste scatole nere, con le loro spiegazioni finalistiche di funzioni, disegni o azioni finalizzate, delle descrizioni meccanicistiche. Sforzo che ha avuto un successo stupefacente. Il più grande trionfo di questa impresa è stato forse il chiarimento del processo della selezione naturale. Esso ha mostrato che, in li-
a
54
Natura incompleta
nea di principio, attraverso variazioni che si producono per accidente, competizione per le risorse e riproduzione o preservazione selettiva di linee di discendenza, potevano essersi evolute anche cose tanto complicate come gli organismi viventi, con la loro apparente organizzazione finalistica e il loro adattamento alle condizioni locali. Laddove la teologia naturale di'William Paley aveva concluso ai primi dell'Ottocento che l'osservazione di organizzazione funzionale, complessità e perfezione di progetto di un oggetto (per esempio un orologio) implicava l'opera di un'intelligenza preesistente che l'avesse realizzato, Charles Darwin e i successivi ricercatori potevano ora dimostrare come organizzazioni viventi di ancora maggiore raffinatezza potevano essere il risultato della preservazione di variazioni casuali. Quindi gli assunti di esistenza preliminare di un progetto e finalizzazione diventavano non necessari persino nel regno della vita. In quest'ottica gli organismi erano sì meccanismi simili a un orologio, ma la loro organizzazione adattativa era concepita come insorta dall'accoppiamento, per felice coincidenza, di meccanismi formatisi accidentalmente e condizioni che ne favorissero la persistenza. La metafora per cui il mondo sarebbe un'immensa macchina piena di macchine più piccole è, tuttavia, profondamente infettata da assunti speciali associati alla progettazione degli artefatti umani. Quando Richard Dawkins descrive caricaturalmente l' evoluzioµe come un orologiaio cieco 8 , continua però a caratterizzare gli organismi come macchine, e le macchine sono assemblate per fare cose rispondenti a certi fini da un processo esterno. Anche se noi tipicamente pensiamo agli organismi come analoghi agli artefatti ingegneristici che eseguono un compito programmato in anticipo, questa analogia può dare luogo ad aspettative largamente fuorvianti. Il progetto degli artefatti ingegneristici è funzione di un ordine imposto che deriva dall'esterno. L'integrazione delle parti in una macchinarisulta da attenta selezione di materiali, sagomatura di parti e montaggio sistematico, e tutto ciò avviene in rapporto a un insieme previsto in anticipo di comportamenti fisici e fini da realizzare. Anche se i componenti dei processi viventi sono integrati nelle loro funzione con precisione almeno pari a quella di qualunque macchina di fabbricazione umana, c'è poco altro in essi che li avvicini a un prodot-
Interi e buchi
55
to ingegnerizzato. Gli organismi nel loro complesso non sono as~ semblati mettendo insieme parti disparate ma attraverso un processo per cui le varie parti si differenziano l'una a partire dall'altra. Gli organismi non sono costruiti né assemblati, ma crescono per moltiplicazione di cellule, in un processo di divisione e differenziamento che parte da precursori meno differenziati. Nello sviluppo come nella filogenesi, gli interi precedono le parti, l'integrazione è intrinseca e il «progetto» prende forma spontaneamente. La metafora della macchina è una semplificazione eccessiva e fuorviante. La tacita importazione di una visione del mondo modellata sugli artefatti umani, con la sua implicita logica di progetto, nel quadro di una metafisica materialistica che restringe l'introduzione di ogni cosa che somigli a una relazione di causa finale, genera la necessità logica di un universo caratterizzato dal telos ex machina, ove cioè disegno e finalità possono essere soltanto imposti dall'esterno. In un mondo simile noi sembriamo accidentali robot in cui girano ciecamente programmi generati dal caso. Ma c'è una contraddizione implicita in questa concezione, anche se non è dovuta tanto al1'esclusione delle proprietà assenziali quanto ai limiti della metafora della macchina. Le macchine sono semplificazioni del mondo delle cause. Astrattamente concepita, una macchina è finita, e tutte le sue caratteristiche e tutti i suoi stati futuri sono interamente descrivibili. A esse sono essenzialmente precluse tutte le variazioni fisiche, salvo quelle che risultano coerenti con una data funzione determinata dall'esterno. Quindi l'intera nozione di causalità della macchina è predicata su una concezione della causalità che mentre da un lato esclude ogni teleologia dall'altro, e insieme, la assume come base per distinguere le macchine dalle interazioni meccaniche generiche. La metafora del mondo come macchina richiede implicitamente un orologiaio, anche quando ne nega l'esistenza. J
Ex nihilo nihil fìt Questa famosa massima latina del poeta e filosofo romano Lucrezio, che all'incirca si può tradurre con «nulla viene dal nulla», precorre la prima legge della termodinamica, che dice che l'energia (o la materia-energia, dopo Einstein) non può essere né creata né
Natura incompleta
distrutta. La scienza moderna ha messo alla prova l'assunto di conservazione espresso in questa classica proposizione fino a livelli assai precisi. È implicita nelle. leggi di conservazione della fisica come una regola di contabilità cosmica. Tutta la fisica e la chimica moderna sorgono su questo solido fondamento 9. Che poi è anche semplice buon senso. La magia è un trucco. Le cose non appaiono dal nulla e non svaniscono nel nulla. Per fare qualcosa ci vuole qualcosa, e via dicendo. Il postulato dell'ex nihilo può essere anche inteso a significare che le strutture, regolarità e forze attualmente esistenti non sono che versioni rimescolare di quelle che esistevano prima; nulla di aggiunto, nulla di tolto. In senso cosmico ciò assume che l'universo sia un sistema chiuso, e lo si può anche considerare come un principio di chiusura causale, nel senso che le leggi causali di base dell'universo costituiscono anch'esse un sistema chiuso; ogni cambiamento proviene dal suo interno. Ciò suggerisce che, tanto in senso dinamico quanto in senso materiale, la novità assoluta non sia che finzione e le proprietà causali presenti sulla Terra oggi non siano che versioni rimescolate di proprietà causali che esistono fin dai tempi del big bang. Quanto al paradosso della teleologia, si può frtenere che ciò escluda la possibilità che le proprietà assenziali siano mai state un'aggiunta fondamentalmente nuova alla quotidiana causalità fisica e chimica che vale per le pietre, le fiamme o la formazione delle stelle. E però questa idea sembra condurre a conseguenze sconcertanti quando si considera la natura dei tipi di processi e relazioni che coinvolgono finalità, scopi, significati, valori e simili. È difficile mettere in dubbio che ci sia stato un tempo in cui questi fenomeni non erano in evidenza sulla superficie della Terra, anche se oggi sono in evidenza dovunque. Nessuno di essi certo era presente quando la superficie del pianeta era ancora tanto calda da far bollire l' acqua, e molte possono essere insorte solo dopo l'evoluzione degli ominidi. Probabilmente non sono arrivate qui venendo da qualche altra parte, e se anche l'avessero fatto resterebbe da spiegare come abbiano avuto origine lì. Dove e quando abbiano avuto origine, comunque, erano «nuove» e senza precedenti, anche ·se adesso sono aspetti banali e comuni della nostra esperienza corrente. Prima, le
Interi e buchi
57
conseguenze potenziali non avevano alcun ruolo in ciò che poteva accadere; ora ce l'hanno. Ma un'affermazione del genere non viola forse il principio di chiusura causale? Se realmente non c'è nessun insieme antecedente di condizioni per il quale la produzione di questo effetto sia una conseguenza governata da regole, non stiamo forse invocando qualcosa di quasi mistico sulla comparsa di un principio causale dal nulla? In realtà c'è un problema ancora peggiore. Non è solo la comparsa senza precedenti sulla Terra preistorica di questi fenomeni entenzionali che sembra violare il principio dell'ex nihilo; è la natura di questi fenomeni in sé. Dato che tutti i fenomeni entenzionali sono intrinsecamente organizzati in relazione a qualche proprietà o situazione delle cose che attualmente non esiste, non è chiaro in questa prospettiva materialistica semplice come questi elementi assenti possano avere un'influenza causale. In quest'ottica, dunque, anche se diciamo che una funzione è un processo che esiste per produrre uno stato delle cose altrimenti improbabile, sembrerebbe più appropriato descriverla semplicemente come l'antecedente causale di tale fine. Analogamente, una rappresentazione è interpretata come legata a qualche oggetto situato altrove o qualche proprietà astratta che potrebbe anche non esistere, e quindi anche se il processo fisico stesso dell'interpretazione potrebbe avere conseguenze fisiche il contenuto rappresentato dovrebbe essere, dal punto di vista causale, irrilevante. Infine, visto che le finalità sono determinate in rapporto a qualche esito attualmente assente ma concepibilmente raggiungibile, anche se questo potenziale non si realizzasse mai, questo fine appare anch'esso irrilevante dal punto di vista causale. Questi fenomeni dunque non solo sembrano insorgere senza antecedenti, ma appaiono essere definiti in rapporto a qualcosa di non esistente. A quanto pare, dobbiamo spiegare la comparsa incausata di fenomeni la cui efficacia causale deriva da qualcosa di inesistente! Non dovrebbe sorprendere che questo aspetto così familiare e banale della nostra esistenza sia per la scienza un enigma. La questione di come stati non esistenti possano avere un ruolo nell'andamento fisico del mondo non si può dire nuova. Come fece osservare Descartes quattro secoli fa, i fenomeni fisici hanno
58
Natura incompleta
un'estensione nello spazio e nel tempo, e quindi possono influire direttamente su altri fenomeni fisici. Ma ciascuno di questi fenomeni entenzionali è determinato rispetto a qualcosa che è privo di estensione locale e in molti casi può essere del tutto inesistente. Non dovrebbe questo fatto fare dei fenomeni assenziali qualcosa di irreale e fisicamente irrilevante? Se il contenuto referenziale delle idee non ha alcuna estensione nel mondo fisico, come può fare una differenza fisica? Questo problema, per Descartes, separava nettamente il mondo mentale da quello fisico, e lo costrinse a cercare un modo di colmare questo fossato. Dal tempo in cui è stato da lui articolato per la filosofia, il problema è rimasto un ostacolo di prima grandezza per l'articolazione di una descrizione in termini di scienze della natura di ogni genere di fenomeno entenzionale. Una delle conseguenze è che tipicamente le teorie scientifiche assumono che concetti come informazione, rappresentazione e funzione siano semplici espressioni stenografiche da usare al posto di altre ben comprese, ma sfortunatamente lunghe, ardue e poco eleganti, spiegazioni meccanicistiche; cioè che invocano soltanto le proprietà meccaniche, in senso lato, delle cose. Come scopriremo approfondendo un po' la faccenda, però, i tentativi di fornire effettivamente queste spiegazioni possono rapidamente farsi circolari o richiedere l'introduzione di relazioni entenzionali più semplici e primitive, che però non ne riducono la critica qualità assenziàle. Le spiegazioni con cui si cerca di togliere di mezzo questi fenomeni non fanno che diventare progressivamente più criptiche, man mano che vengono introdotti fenomeni entenzionali sempre più sottilmente camuffati per supplire alla nostra incapacità di darne una descrizione interamente fisica. Malgrado le spiegazioni naturalistiche non possano contemplare proprietà assenziali, insomma, non possono neppure farne del tutto a meno, salvo abbandonare del tutto il tentativo di includere le scienze speciali (come psicologia, sociologia o economia) nel campo delle scienze della natura. Questa incompatibilità è particolarmente fastidiosa per le scienze che si trovano a mezza via tra fisica e psicologia, come la biologia e le neuroscienze. Qualche filosofo della mente è stato spinto dalla difficoltà di evitare questo dilemma a sostenere che un principio entenzionale sia
Interi e buchi
59
un attributo primitivo non analizzabile di tutti i fenomeni fisici: una proprietà universale di base delle cose, come la massa o la carica elettrica. Così ci si sottrae alla sfida di dover trovare una spiegazione riduzionistica della coscienza, ma al suo posto si introduce un problema non meno sconcertante. Rendere la mente altrettanto ubiquitaria dello spazio e del tempo non è una risposta a questo dilemma più di quanto lo fosse il concetto di causalità finale di Aristotele. Se ogni cosa è per qualche aspetto entenzionale, allora bisogna comunque specificare perché le proprietà assenziali della vita e della mente sono così distinte e caratteristiche rispetto alle proprietà che si presentano nel mondo non vivente. Abbiamo ancora bisogno di tracciare una linea e di spiegare in che modo venga attraversata. L'esperienza è forse un aspetto delle interazioni delle particelle elementari? C'è una forma speciale di proprietà assenziale che compare solo con l'origine della vita, o solo con l'origine della cognizione, o forse solo al momento in cui emergono il linguaggio e la mente umana? Dovunque si ponga la soglia che distingue i fenomeni entenzionali dal resto dei processi naturali ci serve una descrizione di ciò che comporta il suo attraversamento. Non si sfugge a questo requisito se ci si limita ad assumere che le proprietà entenzionali siano semplicemente un dato universale: non si fa che spostare il problema da un punto a un altro. Questo si fa evidente quando si considerano le teorie disposte ad ascrivere proprietà assenziali persino ai processi fisici fondamentali. In questa vena, un certo numero di teorici ha sostenuto che le proprietà assenziali devono essere annoverate fra gli elementi costitutivi fondamentali di cui è fatto l'universo: spesso identificandole con il concetto di informazione. In queste teorie, tutti i processi fisici coinvolgono un cambiamento di informazione. Torneremo ad analizzare nuovamente il concetto di informazione nei capitoli successivi, e scopriremo che. è più complesso di quanto comunemente si riconosca, ma anche senza dare una definizione esplicita dell'informazione possiamo vedere che accettare questa ipotesi non ci aiuta a risolvere il dilemma. In primo luogo; tutte le moderne teorie che per esempio sostengono che l'informazione è uri elemento essenziale di tutti gli eventi a livello quantistico adottano una speciale definizione tecnica di informazione che esplicitamente esclude la qua-
60
Natura incompleta
lità entenzionale che ne definisce la nostra usuale nozione. L'informazione, in questo senso tecnico, è una misura di differenza e di ordine, a prescindere da ogni funzione referenziale. Dunque anche se superficialmente ciò sembra suggerire che la mente è implicita nei processi più basilari della fisica, a un esame più ravvicinato questa è una concezione della mente priva di ogni barlume di significato, esperienza o anche solo funzione. Ma anche se volessimo accettare la nozione che tutti i processi fisici sono anche processi informazionali in un senso più pieno, ciò non eliminerebbe la necessità di dare una spiegazione della differenza tra forme di causalità che separa fiamme e cascate da organismi e idee. E neppure risolverebbe il mistero di come l'esperienza mentale e il comportamento orientato a un fine siano sorti dalla chimica inorganica della Terra primordiale. Né spiega come mai le molecole di DNA, sole in una vasta gamma di polimeri complessi, siano arrivate a trasmettere le informazioni ereditarie di generazione in generazione. Tutte queste cose dovrebbero essere senzienti, se ciò fosse vero. Ciò che necessita di spiegazione non è che i cervelli siano analoghi ai fenomeni meteorologici, ma come e perché ne siano tanto differenti, malgrado il fatto che· siano entrambi processi fisici altamente complessi. Solo i cervelli sono organizzati in relazione al vasto mondo assenziale dei possibili eventi futuri e delle proprietà astratte. Il tempo meteorologico è organizzato solo in relazione alle condizioni fisiche immediate. E malgrado i processi neurali siano anche processi chimici, vi sono essenziali differenze di organizzazione che distinguono la chimica che accade nel cervello da quella che accade in qualsiasi parte del mondo inorganico. È questa differenza che rende possibile 1' esperienza soggettiva. Dunque se pure tutti i processi fisici dovessero comportare un minuscolo abbozzo protomentale, avremmo ancora bìsogno di una descrizione che spieghi perché due processi fisici ugualmente complessi possono essere così radicalmente diversi sotto. questo aspetto. Anche se ciò fosse vero, insomma, i fenomeni entenzionali complessi come 1' esperienza cosciente continuerebbero a non essere spiegabili come effetto quantitativo di qualche proprietà basilare della materia. La risposta che di solito si dà a questa critica è che questi sistemi differiscono nella loro organizzazione. Penso che sia il giusto tipo di risposta. Ma con essa si perde proprio il senso dell'assunto inizia-
Interi e buchi
61
le. Se il motivo per cui un cervello umano è una singolare, intensa e persistente sede di proprietà assenziali (in confronto a un fiume) è che è organizzato in modo diverso, allora è l'organizzazione, in realtà, a. fare tutto il lavoro di spiegazione di questo fatto e la postulata proprietà ur-mentale che starebbe alla base delle cose - qualunque altra cosa possa spiegare - non dà nessun contributo aggiuntivo. Continuiamo a doverci chiedere: quali sono le differenze nel1' organizzazione di questi due fenomeni che costituiscono le proprietà assenziali dell'uno che non sono presenti nell'altro? Una c'osa è sostenere che dovremmo evitare di invocare la teleologia nelle spiegazioni scientifiche; tutt'altra cosa è sostenere che una visione scientifica del mondo escluda ogni possibilità di teleologia. E c'è qualcosa di particolarmente paradossale nella pretesa che siamo in errore nel rappresentare le nostre menti meramente meccanicistiche in termini mentalistici. Se questo è un errore, allora,che genere di entità siamo noi, che questo errore possiamo commettere? Penso che vi sia qualcosa di insincero quando si sostiene che le spiegazioni teleologiche hanno semplicemente la funzione euristica di stare al posto degli speciali fenomeni meccanicistici che sono semplicemente troppo complessi, nella loro organizzazione, per poterli descrivere con facilità. E l'alternativa di accettare letteralmente le spiegazioni teleologiche, o di assumere che siano elementi primitivi irriducibili del mondo fisico, equivale a cessare prematuramente l'indagine scientifica e affidare la spiegazione a magie e miracoli. Se queste sono le sole alternative non riusciremo né a smascherare il gioco di prestigio della natura né a spiegarne il trucco. Nell'uno e nell'altro caso ci ritroviamo privi di un approccio che possa offrire una soluzione soddisfacente a questo enigma così personale.
Quando il meno è di più Il segreto, per il mago sul palco, è far sì che il pubblico faccia atten;zione a qualche aspetto dello spettacolo che lo distragga dalle cose importanti. Sulla falsariga di questa metafora possiamo chiederci: non avremo forse trascurato qualcosa che abbiamo proprio davan_ti ai nostri occhi? Non ci saremo lasciati fuorviare dalle nostre inclinazioni cognitive, quanto al punto in cui applicare i nostri strumenti scientifici? Anche se l'intera storia comporterà un gran numero di
62
Natura incompleta
sottili e difficoltose svolte e contorsioni concettuali, possiamo almeno cominciare a dare un suggerimento su dove indirizzare l'attenzione, anche se detto in modo così spoglio può inizialmente sem. brare poco sensato. L'intuizione centrale da cui questo libro è guidato può essere colta prendendo sul serio la metafora taoista citata all'inizio di _questo capitolo. Semplicemente, dobbiamo fare attenzione ai buchi. Per quanto retoricamente ironico possa sembrare, la tesi di questo libro è che la risposta all'antichissima questione della teleologia non va data in termini di «nulla più che ... » o di «qualcosa. di più che ... » ma piuttosto in termini di «qualcosa di meno». Questa è l'essenza di quello che può essere chiamato assenzialismo. Alla radice del problema sta l'antico dibattito sulla realtà (cioè sull'efficacia causale fisica) dei tipi generali, o universali (termine che indica gli analoghi più generali delle forme platoniche). Per ciò che abbiamo ereditato dalla scienza dell'illuminismo, tendiamo ad assumere che una cosa sia reale ed efficace solo quando coinvolge specifici oggetti ed energie di natura materiale. Ma anche se i fenomeni entenzionali si presentano spesso incarnati in oggetti particolari, le loro conseguenze causali dipendono irriducibilmente da qualche tipo generale di esito, o classe o oggetto. La funzione del volo, per esempio, può essere variamente ottenuta con mezzi diversi, la stessa idea può essere espressa con parole in mezzi di comunicazione diversi, e spesso lo stesso scopo può esser raggiunto con mezzi assai di-. versi. Il fatto che qualcosa ricada in un certo tipo, però, si presume non abbia alcuna rilevanza causale aggiuntiva o ulteriore rispetto agli specifici dettagli fisici della sua costituzione fisica in un luogo e tempo specifico. Un fine ancora non realizzato non può essere specifico in tutti i dettagli, perché non esiste ancora, e una cosa rappresentata potrà essere immaginaria quanto reale, e sarà tipicamente rappresentata soltanto relativamente a una piccola :frazione dell'insieme dei dettagli che la caratterizzano. E così per il contenuto di un pensiero, la funzione di un congegno o il valore di un servizio reso: ogni loro eventuale influsso fisico sembra dipendere da cause non reali. Il fondamentale spostamento di prospettiva che ci condurrà a capire questi due domini apparentemente incompatibili della realtà può essere espresso con la semplice inversione di una diffusa frase fatta. Quasi tutti i testi scritti a proposito del modo in cui i sistemi complessi come gli organismi arrivano a esibire un'organizzazione
Interi e buchi
finalizzata riprendono il ritornello per cui dovrebbe esserci qualcosa di più della pura e semplice chimica e fisica elementare. Di contro, e non solo per amore di enigma, cercherò invece di spiegare come l'intero sia minore della somma delle sue parti. A cui potremmo aggiungere: e minore delle interrelazioni che le sue parti sono potenzialmente in grado di realizzare. La mia ipotesi controintuitiva è che ogni volta che riconosciamo che un sistema presenta proprietà entenzionali non è perché ci sia qualcosa in più del processo fisico coinvolto, ma perché dipende, del tutto letteralmente, dal fatto fisico che qualcosa specificamente manca a tale oggetto o processo. La lingua del senso comune, per esempio, usa la metafora della contenenza fisica, come quando parla di contenuto di un pensiero, o quella del trasporto, come quando dei segni lo veicolano, per parlare delle presunte basi dei fenomeni entenzionali. Eppure, contrariamente a ciò che presuppongono tali metafore, il contenuto di un pensiero o di un segno, l'obiettivo di un'azione, o l'intento progettuale di qualcosa che ha una funzione non è fisicamente presente. Potrebbe anche sembrare empiricamente ragionevole ignorare il contenuto e guardare solo alle caratteristiche fisiche del veicolo o dell'evento neurologico associato per scoprire il rapporto con le conseguenze fisiche di un'idea, ma questo concorda poco con la nostra esperienza, che ostinatamente attribuisce efficacia causale a ciò che viene rappresentato, e non semplicemente a ciò che opera la rappresentazione. Nei capitoli che seguono vedremo che questa semplice inversione di prospettiva, il fare attenzione a ciò che manca, risolve una serie di dilemmi che si assumeva avessero conseguenze fatali per le teorie dei fenomeni entenzionali in tutte le loro molteplici forme. Un'inversione controintuitiva del rapporto tra figura e sfondo, concentrata su ciò che è assente piuttosto che su ciò che è presente, offre un mezzo per porre riparo ad alcune delle gravi inadeguatezze delle nostre concezioni della materia, dell'ordine, della vita, del lavoro, dell'informazione, della rappresentazione e persino della coscienza e delle concezioni dei valori. Mostrare in che modo queste vedute apparentemente contraddittorie possano essere riconciliate necessita di un ripensamento di alcuni taciti assunti fondamentali sulla natura dei processi e dei rapporti fisici. Richiede una riformulazione del nostro modo di pensa-
Natura incompleta
re il mondo fisico in términi fino in fondo dinamici, vale a dire di processo, e. una rielaborazione della nostra nozione di causalità in termini di qualcosa che si potrebbe chiamare la geometria della dinamica, smettendo di pensare in termini di oggetti materiali in moto influenzati da contatti e campi di forza. Il paradigma corrente nelle scienze della natura concepisce le proprietà causali in base all'analogia di una sostanza ultima, o come l'insieme chiuso e finito di tutte le possibili interazioni fra tutti gli oggetti o particelle ultime dell'universo. Come vedremo, questa netta divisione della realtà in oggetti e foro relazioni di interazione, pur intuitivamente ragionevole dal punto di vista delle azioni umane, è assai problematica. Curiosamente, però, la fisica moderna ha praticamente abbandonato questa visione «a palle da biliardo» della causalità per una prospettiva fatta di processi quantistici, associati con cose come onde di probabilità, piuttosto che di oggetti discreti e localizzabili. Il mancato superamento di una visione del mondo come fatto di cose invece che di processi ci ha condotto a pensare i fenomeni entenzionali come fenomeni che coinvolgono qualcos'altro di aggiunto ai normali processi fisici. Da questo assunto è breve il passo verso una concezione dualistica del contenuto dei pensieri o degli obiettivi· delle funzioni come cose in qualche modo non fisiche, che poi Ci lascia con conseguenze fisiche inspiegabili. Ciò che scopriremo è che i processi entenzionali hanno una distinta e caratteristica circolarità dinamica, e che il loro potere di causazione non si trova in qualche costituente ultimo ma in questa organizzazione dinamica stessa. La nostra sfida scientifica, da ultimo, è caratterizzare con precisione questa geometria di forme dinamiche che conduce dai processi termodinamici ai processi viventi e a quelli mentali e di spiegarne la relazione di dipendenza l'una rispetto all'altra. È uno sforzo teso a naturalizzare la teleologia e i concetti a essa imparentati, e a dimostrare in tal modo che siamo gli eredi legittimi dell'universo fisico. Per farlo dobbiamo rispondere a una domanda insistente: come può qualcosa che non c'è essere la causa di qualche cosa? Dare senso a questa «efficacia dell'assenza» sarà la sfida centrale di questo libro, e la chiave per abbracciare la nostra natura . entenzional~, invece di fingere di ignorarla o negarne l'esistenza.
Capitolo
2
Homunculi
... ogni volta che una teoria si basa su una formulazione che reca i contrassegni logici dell'intenzionalità, da qualche parte c'è un omino· nascosto. Daniel Dennett, 1978 1
L'omino dentro la mia testa Ricordo ancora la prima volta in cui ho riflettuto seriamente su che cosa voglia dire avere un cervello. Anche se indubbiamente a forza di rievocazioni e abbellimenti i dettagli del ricordo saranno stati riscritti parecchie volte, le immagini e le relative impressioni emotive mi 'tornano ancora alla mente con freschezza. Avevo sette o otto anni, e stavo guardando un film di divulgazione scientifica a cartoni animati che illustrava il funzionamento del corpo umano. Per come me lo ricordo adesso (non l'ho più rivisto), le sequenze di animazione presentavano un viaggio dentro il corpo di una persona. Invece dello spaventoso pantano di tubi e pompe ondeggianti che ero stato spinto ad attendermi di trovare nascosto lì dentro, il cartone animato presentava un ometto impegnato a gestire una specie di via di mezzo tra un grosso macchinario e una piccola fabbrica. Passando continuamente da un compito all'altro nel suo camice bianco, controllava strumenti, regolava manopole e periodicamente si agitava in preda al panico davanti a uno stimolo inatteso o un possibile guasto. Cinque congegni, i cinque sensi, producevano se-
66
Natura incompleta
gnali instradati verso un'unica stanza di controllo centrale dentro la testa. In questa stanza l'ometto (che somigliava vagamente a Einstein) sedeva di fronte al quadro di comando e guardava perplesso i suoi strumenti. Questa esperienza infantile mi è tornata in mente di recente per un analogo fìhn, anche se più allusivo e sornione, intitolato Osmosis Jones e uscito nel 2001 2 • Raccontava, con sequenze in parte filmate e in parte animate, la storia di un uomo, una malattia e una comica serie di eventi raccontati sia dalla prospettiva del protagonista sia da quella di decine e decine di minuscoli uomini e donne che fanno funzionare la fabbrica del suo corpo. Per fortuna l'animazione era migliore, ed era un fìhn comico. C'erano un sacco di storie l'una dentro l'altra (letteralmente) sugli equivalenti fisiologici della criminalità, un gran pandemonio e sì, certo, un sacco di roba schifosa. La familiarità dei galoppini animati al lavoro nel corpo serviva al divertimento, e come via per arrivare ai ragazzini, il cui timore di trovarsi di fronte a grovigli contorti e interiora grondanti muco potrebbe ostacolare la comprensione delle funzioni corporee, far vedere un sacco di ometti e donnine che si danno da fare per gestire la politica del corpo è al tempo stesso comprensibile e rassicurante. Anche i ragazzini, ovviamente, riescono a rendersi conto che so- · no solo analogie giocose. Quando ho visto il cartone animato, a sette o otto anni, sapevo che era solo una maniera fantasiosa con cui qualcuno cercava di spiegare una cosa che poteva essere di gran lunga più complicata. Malgrado questa consapevolezza il cartone mi affascinava e insieme mi infastidiva. Se c'era un omino anche nella mia testa che controllava le informazioni del mio corpo e prendeva tutte le decisioni e attivava· questo o quel meccanismo, allora io dov'ero? Ero lui? E se non lo ero, chi ero io? Perché non avevo la sensazione di essere un ometto intrappolato in una vasta macchina? L'idea mi si annodava bizzarramente nella fantasia. C'era qualcosa di strano in tutto questo, ma non arrivavo a metterci sopra il dito. E poi di colpo ecco, anche se ero solo un bambino: avrebbe dovuto esserci un ometto anche dentro la sua testa! Questo omino che starebbe dentro l'uomo, cori il compito di analizzare i dati sensoriali e decidere le risposte appropriate, è un homunculus (che in latino è appunto un diminutivo di homo, «uomo»). Nel senso in cui lo userò nel seguito, il termine si riferisce a
Homunculi
una forma di spiegazione che pretende di dare una descrizione meccanicistica di qualche fenomeno della vita o della mente, ma invece non fa che chiamare in causa un altro processo cripticamente equivalente situato a un livello inferiore. Anche se questa descrizione sembra rispettare la familiare strategia esplicativa in cui si analizza un meccanismo complicato scomponendolo in meccanismi di livello inferiore e nelle loro interazioni, in questo caso le componenti di livello inferiore hanno proprietà che non sono più semplici di quelle che si presume debbano spiegare. Una spiegazione del genere semplicemente non è una spiegazione. Di recente ho scoperto (in un saggio, ironia della sorte, scritto dal padre del comportamentismo, B. F. Skinner) che il cartone animato che ricordo di aver visto da bambino faceva parte di una produzione televisiva intitolata Gateways for the Mind 3. Skinner usava la stessa fantasiosa presentazione delle sensazioni come punto di partenza per una sintesi dei contributi offerti dal comportamentismo nel corso dei suoi primi cinquant'anni di esistenza come campo di studi. Una delle principali motivazioni alla base della psicologia comportamentale era stato il desiderio di evitare i concetti mentali nello spiegare perché agiamo come agiamo. Invocare stati mentali come credenze e desideri per spiegare le nostre azioni affida la maggior parte della spiegazione a cause inosservabili e ugualmente non analizzate. Così nel migliore dei casi si rinvia l'analisi a un momento successivo; nel peggiore ci si convince che non c'è bisogno di ulteriori analisi. Prendendo a esempio l'ometto nella stanza dei bottoni del cervello presentato dal programma TV, Skinner dice: «Il comportamento dell' homunculus, ovviamente, non era spiegato. Una spiegazione, presumibilmente, avrebbe avuto bisogno di un' al'tra puntata. E questa, a sua volta, di un'altra ancora» 4. La preoccupazione sottostante al discorso di Skinner è che attribuire comportamenti ai costrutti mentali fa passare di soppiatto nella scienza della mente, attraverso la porta secondaria del buon senso, dei rapporti teleologici non analizzati che sono precisamente quel che richiede di essere spiegato. A ignorare l'avvertimento di Skinner si ha una scienza psicologica costruita su fondamenta che assumono come dato, fin dall'inizio, ciò che quella scienza si pone a spiegare. Il comportamentismo intendeva rimediare a questa tacita accettazione delle facoltà mentali come sùrrogato di spiegazione.
68
Natura incompleta
Dire che un desiderio, una voglia, un'idea, un progetto è la causa di un comportamento equivale semplicemente a spostare l'attenzione verso un segnaposto che....:: malgrado sia familiare all'introspezione e alla cosiddetta «psicologia ingenua» - rimane una scatola nera non analizzata quanto al suo meccanismo causale. Malgrado il suo dogma di partenza eccessivamente riduttivo, il comportamentismo è stato uno dei primi tentativi seri di delineare esplicitamente una metodologia che evitasse sistematicamente la fallacia dell'homunculus. La malattia identificata dai comportamentisti nella scienza della mente era reale, e grave. Ma il rimedio - far finta che l'esperienza mentale sia irrilevante per spiegare il comportamento - era peggiore. Non si arriva a nulla attribuendo le nostre capacità di percezione alle abilità peréettive di un omino che sta nella nostra testa, ma attribuire il comportamento a un semplice meccanismo che collega gli stimoli in entrata alle istruzioni motorie, lungi dal risolverla non fa che accantonare la questione del!' agenzia mentale. Anche se il mio comportamento è dettato solo da contingenze di ricompensa che in un dato contesto rendono un'azione più probabile di un altra, continuo a non saper spiegare in che cosa consiste la mia consapevolezza del fatto che sto percependo e mi sto comportando in quel dato modo, e in qualche caso decido di agire in modo contrario a quel che dettano le mie emozioni immediate. Il comportamentismo si limita a togliere l'homunculus dal centro della scena. Ma non lo caccia una volta per tutte. Anche se la parola è in qualche misura esoterica, il concetto di homunculus è familiare. Nella versione cinematografica della classica favola Il mago di Oz, il cagnolino Toto svela come il potentissimo mago sia in realtà un imbroglione. Tirando una tenda, Toto rivela che c'è un uomo che manovra comandi che proiettano la terribile immagine del mago dinanzi agli astanti ignari. Rendendosi conto che il pubblico, perplesso, lo sta guardando, l'uomo fa sì che l'immagine del mago ordini: «Non badate all'uomo dietro il sipario!». Una volta rivelato il trucco, però, non si può più richiudere il sipario e riprendere la mascherata. Svanita ogni traccia di poteri magici e di mistero, il grande e potente mago si riduce a un povero ometto che manovra le leve di un elaborato congegno capace di nulla più che dar luogo a un effett~ speciale sul palco. È una delu-
Homunculi
sione. Scoprire che era tutto un trucco significa che i presunti poteri del mago erano anch'essi illusori. Smascherato l'homunculus, ci ritroviamo al punto di partenza, anche se forse un po' più saggi. In questo capitolo intendo emulare Toto, e cercherò di sollevare il sipario che cela un certo numero di homunculi nascosti un po' meglio. Con questo, nulla trova una spiegazione salvo il trucco stesso, ma vedere in che modo il sotterfugio è stato perpetrato in modi diversi da teorie diverse in campi diversi può servirci in qualche misura da difesa contro il rischio di cadere in trappole del genere ora che cominciamo a esplorare laccidentato terreno dei fenomeni entenzionali.
Rappresentazioni in forma di homunculus Storicamente il termine homunculus è stato usato anche per riferirsi a ogni genere di piccola o enigmatica form~ o creatura di aspetto umano. Fatine, folletti dispettosi o gli spiritelli materiali delle mitologie della maggior parte delle culture sono tutti, in questo senso più ampio, homunculi. Per analogia il senso del termine si è esteso anche a forme che si limitano a «imitare» quella umana,. co,.. me il golem del mito ebraico ol'imrnaginaria creatura rianimata a partire da parti di corpi di morti dal dottor Frankenstein di Mary Shelley. In tutti questi casi la connotazione è quella di qualcosa di meno che umano, pur presentando certi attributi umani. Nella scienza, quando si parla di homunculus c'è uno stretto legame con il concetto di preformismo. Una delle spiegazioni più note che invocano un homunculus è stata resa immortale da una xilografia. In essa è rappresentato un minuscolo «seme» in forma di feto rannicchiato nella testa di uno spermatozoo. Agli inizi della biologia si pensava che lo spermatozoo potesse già esibire la forma di un essere umano in miniatura, e che la maturazione consistesse nella. crescita della forma, in modo strettamente analogo a quello in cui una pianta può crescere a partire dai minuscoli steli e foglie racchiusi all'interno del seme che germoglia. Né le nuove piante né i nuovi esseri umani, ovviamente, sono inizialmente corpi preformati. Assumere che il corpo fisico degli esseri umani fosse preformato fin dal principio offriva però un'alternativa materiale all'idea allora do-
Natura incompleta
minante che un'essenza non materiale o agenzia spirituale fosse deputata a dar forma al corpo nel suo sviluppo da un inizio totalmente informe. Invece di invocare una forma imposta alla materia del corpo in sviluppo da una fonte ineffabiÌe, il processo poteva così essere visto come interamente materiale, ma solo se la forma era già presente in qualche modo fin dall'inizio. L'assunto che per poter costruire una struttura complessa si debba partire da un progetto o un modello dettagliato sembra intuitivamente del tutto sensata. Il simile produce il simile. Ma ovviamente in questa concezione c'è un altro problema, e altrettanto spinoso, Da dove è venuto questo homunculus? Forse l'organismo genitore ha in qualche modo imposto la sua immagine speculare sullo spermatozoo o sull'uovo fecondato? E in tal caso qual è l'origine ultima della forma? Il termine homunculus è stato accolto anche nella scienza contemporanea, in modi meno problematici. I neurologi, per esempio, lo usano per descrivere con una specie di mappa la disposizione delle aree della superficie cerebrale che rispondono al tatto e al movimento, perché questa mantiene, pur alquanto distorta, la topologia delle regioni del corpo umano. Spostandosi verticalmente su e giù lungo la linea mediana, su ciascuno dei lati della corteccia cerebrale si trovano regioni che disegnano topograficamente la sensibilità tattile delle superfici corporee e il controllo dei movimenti muscolari. I testi di anatomia e psicologia spesso illustrano queste regioni con proiezioni distorte del corpo, con bocca, viso, mano e piede sproporzionatamente ingrandite rispetto alle corrispondenti parti della metà opposta del corpo. Analoghe proiezioni topografiche caratterizzano anche gli altri sensi principali. Quindi 1' area corticale che riceve gli impulsi dalla retina è organizzata in una mappa retinotopica (cioè una mappa che riflette le posizioni nel campo visivo), e l'area corticale che riceve in ingresso i segnali originatisi nel1' orecchio interno (la coclea) è organizzata in una mappa tonotopica (cioè una mappa organizzata secondo le frequenze dei suoni, dai bassi agli acuti). Questa ricapitolazione dell'organizzazione corporea nel cervello è in realtà un po' più frammentaria e irregolare di quanto la si dipinga. Nelle aree tattile e motoria, per esempio, le mappe non sono sempre continue (si pensi, per confronto, a quelle mappe piane
Homunculi
71
dei continenti che sono «tagliate» in modo da ridurre al minimo la distorsione delle forme e dimensioni). Nel cervello la distorsione relativa delle dimensioni di certe caratteristiche dell'homunculus spesso riflette la densità di innervazione delle corrispondenti strutture periferiche. Quindi la parte centrale dello sguardo, che cade sulla zona più ricca di recettori della retina (la fovea) è proporzionalmente assai più ampia, nella sua rappresentazione nella corteccia visiva primaria, di quanto lo sia la periferia del campo visivo, le cui dimensioni reali sono assai maggiori anche se la densità dei recettori è minore. Similmente, fra i sistemi relativi a tatto e movimento, quelli per cui è maggiore la precisione, rispettivamente, della sensibilità tattile e del moto, sono anch'esse rappresentate nella corteccia cerebrale da aree sproporzionatamente più grandi. Questi homunculi distorti ci danno così un'utile rappresentazione euristica dell'organizzazione cerebrale. Sfortunatamente l'esistenza di queste rappresentazioni in forma di homunculus può costituire anche un invito ad adottare scorciatoie esplicative fuorvianti. Perché una mappa è una rappresentazione, e può esservi la tentazione di scambiarla per il territorio, nel senso di trattarla come intrinsecamente interpretata. Anche se una mappa è simile, nella sua struttura, a quel che rappresenta, non è intrinsecamente significativa. Richiede lettura e confronto: ma chi o che cosa fa queste operazioni nel cervello? Per usare una mappa di una città, per esempio, bisogna sapere che certe linee corrispondono alle strade, che le distanze sono uniformemente e sistematicamente ridotte a una piccola frazione di quelle reali e così via. Seguire indicazioni su una mappa è una versione ridotta del muoversi attraverso la città. In questo senso portare con sé la mappa equivale a portare con sé una versione in scala ridotta - un modello della città. Non sorprende che molti abbiano la sensazione che trovare nel cervello una mappa in miniatura del corpo spieghi in qualche modo il funzionamento delle- sensazioni. Però la corrispondenza è senz'altro importante per la funzionalità, ma non ci dice nulla su come la mappa è interpretata. Anche riscontrare corrispondenze tra una mappa e l'altra - per esempio tra la mappa retinotopica della visione e quella somatotopica del corpo - non ci porta molto lontano. Non fa che passare appresso l'onere della spiegazione. Quel che ci serve è sapere qualcosa dei processi che costituiscono l'inter-
72
Natura incompleta
pretazione. La forma di homunculus di queste mappe ci dice solo che le rappresentazioni delle diverse posizioni sulla superficie corporea non sono mischiate o radicalmente disaccoppiate nel cervello. Non ci dice nulla, però, sull'implicito homunculus richiesto per interpretare le mappe. Nella letteratura scientifica recente il concetto di «homunculus» ha finito per indicare qualcosa di più sottile, legato all'uso improprio degli assunti teleologici criticato da Skinner. Questo il senso del concetto su cui intendo concentrarmi. 1;-Iomunculi sono quei tappabuchi non riconosciuti che stanno dietro, o fuori, o dentro, certi processi che comportano processi apparentemente teleologici, come molti aspetti della vita e della mente, e pretendono di dare una' spiegazione della loro funzione. Trattare qualche aspetto della: funzione cerebrale come se si producesse grazie all'aiuto di una sorta di diavoletto non può che riproporre la domanda stessa cui si doveva dar risposta. Farlo in modo criptico, travestendo il diavoletfo da qualcos'altro, è un ostacolo ai nostri tentativi di capire queste funzioni. Si consideri la seguente analogia per le basi neurali della coscienza percettiva: Un buon modo di cominciare a esaminare il comportamento complessivo della corteccia cerebrale è immaginare che la parte frontale del cervello stia "guardando" i sistemi sensoriali, la maggior parte dei quali si trova nella parte posteriore del cervello. (Christof Koch e Francis Crick, 2003) Davvero l'idea che la parte frontale stia «guardando» la parte posteriore del cervello è un miglioramento significativo rispetto a questa frase, scritta oltre un secolo prima? Che cos'è l'occhio dell'uomo se non una macchina attraverso .cui la piccola creatura che vi siede dietro, nel suo cervello, può guardare? (Samuel Butler, Erewhon, p. 231) Questa sorta di inquadramento retorico in cui platealmente si chiamano in causa gli homunculi è spesso seguito dall'avvertimento che si. tratta di meri artifici antropomorfi a fini euristici, che in seguito dovranno essere rimpiazzati dagli effettivi dettagli meccani-
Homunculi
73
cistici, ma già solo cominciare in questo modo apre la strada verso l'attribuzione di connotazioni «omunculari» a qualunque meccanismo sia poi proposto. Forse Koch e Crick sostengono che la corteccia frontale ha una sua forma di percezione visiva interna con cui «vedere» quel che il sistema visivo si limita a registrare? Ovviamente non può essere questo che intendono, ma già solo in questa caricatura di spiegazione essi ìnvitano i loro lettori a formulare la questione in termini di ricerca di un homunculus ultimo . Gli antenati degli attuali homunculi della scienza erano dei, semidei, elfi, fate, demoni e folletti, che la gente riteneva responsabili di coincidenze significative, disastri umani e inattese deviazioni dalla norma. Spiriti maligni, stregonerie, poltergeist, destini e piani divini conferivano agli eventi naturali agenzia e significatività. Nei millenni passati e nelle società tecnologicamente non sviluppate era normale invocare spiegazioni in termini di homunculi nei casi in cui le cause meccaniche erano oscure o dove sembrava esservi un significato nel collegamento delle correlazioni fisiche. Anche se questi agenti da un altro mondo non hanno alcun legittimo spazio nella scienza contemporanea, rimangono vivi e vegeti, nascosti nei margini sfrangiati delle nostre teorie e nella cultura popolare, assumendo una varietà di nuove forme. Spesso questi moderni folletti teorici se ne stanno seduti ai loro quadri di comando virtuali, dietro nomi che indicano funzioni che, svolgono compiti corredati· di glosse teleologiche, come informare, segnalare, adattare, riconoscere, o regolare qualche processo biologico o neurologico; e stanno acquattati nelle ombre di assunti teorici o transizioni sfuggite all'attenzione in spiegazioni in cui le descrizioni meccanicistiche sono rafforzate da riferimenti a funzioni e fini. Homunculi figurano in modo più esplicito' nei primi inizi dell'impresa scientifica. Non sorprende, se si pensa alla preoccupazione degli alchimisti per la purificazione dei metalli, sia come obiettivo scientifico sia come via alla purificazione dello spirito, e forse per il segreto dell'immortalità, che la generazione spontanea della vita dalla non vita sia stata una questione centrale per l'alchimia. Intrecciate a questo interesse vi erano altre forme di confusione a proposito della natura dei processi riproduttivi, e in particolare l'assunto di un ruolo privilegiato del principio maschlle (nel seme) nel dar forma alla materia (data dalla femmina) per fame un organismo .. Le
74
Natura incompleta
annotazioni degli alchimisti, per esempio, riportavano ricette per produrre animali semplici e persino forme umane animate. I prodotti, presumibilmente non del tutto e pienamente umani, di questi immaginari esperimenti erano anch'essi denominati homunculi. L'uso di questo concetto su cui intendo concentrarmi è però più astratto dell'idea di un essere umano in miniatura, o anche di quella di un sé mentale. Questa accezione più vasta può essere utilmente confrontata con la nozione aristotelica di entelechia. Aristotele sosteneva che doveva necessariamente esservi un principio attivo al1' interno di ciascun organismo, che ne guidava la crescita e lo sviluppo fino alla forma adulta. Il termine aggiunge alla radice greca tele il prefisso en a indicare un fine internalizzato. Un'entelechia può essere considerata come al tempo stesso un modello generale del risultato finale e un principio che attivamente ne determina lo sviluppo in direzione di tale fine. Un embrione di cavallo si sviluppa in un cavallo e una ghianda in una quercia, secondo Aristotele, perché ciascuno di essi è animato da una distinta e specifica tendenza verso il suo fine che è intrinseca alla sua forma materiale. Il filosofo vedeva in questo una prova indiscutibile del fatto che i processi viventi sono orientati a fini propri e non soltanto passivamente reattivi o accidentali, come sono molti processi non viventi. E dato che queste qualità-obiettivo non sono presenti nei primissimi stadi dello sviluppo, in tali st;idi questa entelechia deve essere presente solo come potenziale. In questo senso non è uno specifico attributo materiale, ma qualcosa di simile a uno scopo o un'agenzia incarnata in qualche modo entro la materia di un organismo non ancora sviluppato. Un'entelechia è dunque un potenziale formativo generale che tende alla propria realizzazione. Questa nozione di Aristotele è stata probabilmente influenzata dalla concezione del suo maestro, Platone, di una forma ideale che esiste indipendentemente da ogni sua specifica incarnazione e che può essere espressa in forma materiale, anche se in modo imperfetto. Tutte le sfere fisiche, così, sono per qualche aspetto imperfette, e si allontanano dalla sfera ideale concepita dalla geometria. Gli Òggetti sferici sono espressioni dell'influsso di questo ideale, cui parzialmente si conformano. Aristotele, su questo punto, si allontanava dal maestro, sostenendo che ogni forma è forma incarnata, e che il concepimento di ideali incorporei è una generalizzazione a parti-
Homunculi
75
re dagli esempi particolari, non la causa di essi. La sua nozione di entelechia è spesso paragonata alla moderna metafora del programma di sviluppo. Questo modo, oggi così di moda, di descrivere le cause dello sviluppo degli organismi considera il genoma simile a un algoritmo per computer. Un programma di computer è un insieme di istruzioni da seguire, e in questo senso è un artefatto passivo finché non è incorporato in una macchina. Aristotele, di contro, considerava l'entelechia come un principio di attività, intrinseco alla sostanza materiale dell'organismo. Millenni più tardi è stata sviluppata anche una concezione non materiale di questo potenziale vivente auto-attualizzantesi. Questa prospettiva prese il nome di vitalismo, e pur mantenendo l'idea di un'essenza finalistica implicita nel1' organismo, riprendeva anche l'accento posto da Platone sulla sorgente non corporea di questa forza. I vitalisti sostenevano che i processi viventi non possono essere compresi in termini puramente meccanicistici. Agli inizi del XX secolo, per esempio, il biologo Hans Driesch sostenne che le leggi della chimica e della fisica erano incapaci di spiegare questo carattere finalistico degli organismi. Quindi si riteneva necessario qualcosa di non materiale, una forza o energia vitale, che donasse alla mera materia meccanicistica la finalità che caratterizza la vita. Dato lo stato delle conoscenze dell'epoca, in effetti, questa critica non era facile da ignorare, ma la presunta alternativa proposta dai vitalisti, che la materia vivente fosse distinta dalla materia non vivente per essere infusa di una qualche ineffabile essenza o energia di natura non fisica un élan vital [slancio vitale, in francese, N.d.T.] - non offri.va alcuna base per gli studi empirici. Sotto questo aspetto, anch'essa proponeva un homunculus, nel più vasto senso in cùi sto qui usando questo termine. Si tratta di un homunculus nella misura in cui l' élan vita] conferisce la proprietà della finalizzazione al vivente, ma non fa che postulare l'esistenza di questa proprietà complessa e fisicamente atipica in tale non-sostanza. Curiosamente, quindi, sia il preformismo che il vitalismo, strettamente intesi, :finiscono entrambi per invocare un homunculus, visto che entrambe localizzano l'entelechia degli organismi viventi in una qualche essenza che preesiste alla sua espressione (che sia in forma fisica o come essenza formativa). Che si tratti di un omino nella mia testa, di un demone che fa avvizzire i raccolti, del principio attivo che attualizza la forma adul-
Natura incompleta
ta del corpo, o di un'eterna e ineffabile fonte di umana soggettività, vi è una tendenza intuitiva a descrivere i processi e le relazioni che sembrano violare le spiegazioni meccanicistiche sul modello dell'azione umana. A causa di questa dicotomia, è forte la tentazio~ ne di reificare questa distinzione nell'immagine della differenza di cui speriamo di poter dare una spiegazione: la differenza che c'è tra una persona e la materia inanimata, tra l'apparente libertà del pensiero e la rigida prevedibilità dei meccanismi a orologeria. È una differenza che incontriamo nella nostra esperienza personale. e vediamo riflessa negli altri. Fenomenologicamente, emerge come in assenza di cause antecedenti. È naturale, così, che questa immagine speculare possa sembrare intuitivamente accettabile per dar conto di questo genere di fenomeni. Per questa ragione, ritengo appropriato che sia l'homunculus a fare da simbolo di questa decisiva essenza della vita e della mente umana. È il modello su cui sono basati l' élan vital, il principio vitale, la misteriosa sorgente. da cui derivano l'essere animati e la capacità di agire, e la fonte del senso e dei valori. In termini illuministici, è il cogito di Descartes, il principio di razionalità, o la coscienza la «voce interiore». Nelle tradizioni spirituali è l'anima eterna, l' atman degli Indù o lo spettro che persiste dopo che il corpo materiale soccombe. Tutta questa folla di immagini indica qualcosa di più fondamentale che tutte hanno in comune con alcuni dei fenomeni più basilari della nostra vita: significato, rappresentazione mentale, agenzia, tendenza verso un fine o un obiettivo, e valore normativo di tale obiettivo. Alcuni di questi attributi sono caratteristici dell'uomo, ma molti sono caratteristici anche della vita animata in generale. Quel che hanno in comune è qualcosa di più basilare della mente. È una proprietà che distingue il vivente dal non vivente.
e
Il veicolo della teleologi.a Per tutte queste ragioni, vedo nell'homunculus l'enigmatico simbolo della più fastidiosa e intrattabile sfida alla scienza: il segno dell'indubbia esistenza dei fenomeni entenzionali in tutte le loro forme, dalle più semplici funzioni organiche ai più sottili giudizi soggettivi di valore. La loro esistenza è un paradosso irrisolto per
Homunculi
77
scienziati e filosofi fin dagli inizi del pensiero occidentale, e le pro-' paggini di questo paradosso restano tuttora impigliate in alcune delle branche tecnologicamente più sviluppate della scienza moderna, ove la mancanza di una valida integrazione di queste proprietà entro i correnti sistemi teorici interferisce continuamente con la loro crescita. L'homunculus simboleggia i fenomeni entenzionali nel loro contrasto con lo sfondo delle teorie meccanicistiche che descrivono cause ed effetti per il resto tipici. Concetti e principi che in senso lato invocano un homunculus sono un deposito residuale, fanno da segnaposto per qualcosa che è efficace eppure allo stesso tempo mancante. Storicamente, gli esseri umani invocano un homunculus, o un suo surrogato astratto, ogni volta che bisogna spiegare come fanno i corÌJi materiali o gli eventi naturali a presentare principi entenzionali attivi. Nella maggior parte dei casi il fatto che siano, per dirlo con Dennett, «analoghi dell'uomo» passa spesso inosservato. La tendenza a non riconoscere le spiegazioni che invocano un homunculus come segnaposto deriva probabilmente dalla nostra abitudine a interagire con altre persone i cui pensieri ·e motivaziòni ci restano celati. Ma la propensione a lasciare solo parzialmente spiegati nei loro aspetti causali questi fenomeni nasce probabilmente anche da una profonda intuizione della radicale discontinuità che separa i sistemi materiali che sono influenzati da finalità e significati da quelli che non lo sono. Gli homunculi segnano appunto questo confine. Ciò che rende misteriosi i processi entenzionali è il fatto che hanno proprietà che sembrano semplicemente sovrapposte alla materia o agli eventi fisici, come se fossero qualcosa di separato dagli elementi materiali e fisici in cui si presentano ma a questi aggiunto. Questa caratteristica contrassegna i comportamenti umani e gli artefatti e le macchine concepiti dall'uomo, specialmente quando coinvolgono relazioni di significato o azioni tese a provocare specifiche conseguenze. Credenze e propositi umani possono dar forma agli eventi in modi che spesso hanno pochi rapporti diretti con le effettive condizioni fisiche e si producono in opposizione a tendenze fisiche che intrinsecamente sono le più probabili, Non sorprende dunque che possiamo pensare che un principio guida pressappoco umano sia il candidato più· ovvio per gli eventi che sembrano
Natura incompleta
esibire queste discontinuità. Ovviamente, alla fine dei conti dovremo spiegare in che modo, inizialmente, abbia potuto nascere questo tipo di discontinuità della determinazione causale, senza fare appello a precedenti homunculi, oppure semplicemente rinunciarvi e decidere che questo è al di là di ogni possibile spiegazione. La fiducia nella possibilità che queste proprietà non restino per sempre fuori della portata delle spiegazioni scientifiche deriva dal fatto che la gamma dei fenomeni per cui le spiegazioni/ attribuzioni che invocano homunculi sono tuttora comuni si è andata costantemente restringendo. Con la crescita dell'importanza delle spiegazioni scientifiche, un numero sempre maggiore di questi processi ha ceduto a spiegazioni non teleologiche. È dunque legittimo immaginare un futuro. estrapolato dal presente in cui tutte le spiegazioni teleologiche saranno state rimpiazzate da complesse spiegazioni meccaniche. Ma come mai le spiegazioni entenzionali dovrebbero tendere a essere eliminate con la crescita della raffinatezza tecnologica? La risposta semplice è che come descrizioni sono necessariamente incomplete. Sono più simili a cambiali, poste in luogo di spiegazioni attualmente inaccessibili, o a delle suggestive scorciatoie per casi che al momento sfuggono a un'analisi completa. È stato osservato che le spiegazioni teleologiche somigliano più ad accuse o imputazioni di responsabilità che a descrizioni di processi causali. Le spiegazioni teleologiche non fanno che indicare un punto d'origine ma lasciano non completamente descritto il meccanismo cui si deve 1' efficacia causale. Anche quando si tratta di persone, le spiegazioni delle loro azioni in termini di motivi o propositi sono effettivamente indipendenti dalle spiegazioni degli stessi eventi in termini di processi neurologici o fisiologici, e non considerano oggetti o forze di natura fisica. Come una persona imperscrutabile, un processo entenzionale ci mette davanti a un punto in cui l'indagine causale è costretta a fermarsi e a cambiare totalmente i termini della sua analisi. A quel punto, l'indagine deve per forza abbandonare la logica meccanicistica delle masse .in moto e può procedere solamente in termini di funzioni e adattamenti, propositi e intenzioni, motivi e significati, desideri e credenze. Il problema di questi principi esplicativi non è
Homunculi
79
solo che sono incompleti, ma che sono incompleti in modo particolarmente fastidioso. È difficile attribuire loro energia, natura materiale o anche solo estensione fisica. In quest'epoca di ostinato materialismo sembrano esservi pochi dubbi, ufficialmente, che fa vita sia «solo chimica» e la mente «solo calcolo». Ma le origini della vita e la spiegazione dell'esperienza cosciente restano problemi di sconcertante difficoltà, malgrado la disponibilità di strumenti biochimici e neurologici che dovrebbero essere più che adeguati a svelarne i dettagli. Così, malgrado ci si attenda dalle teorie della causalità fisica che evitino rigorosamente nelle loro spiegazioni ogni cosa che alluda a un homunculus, dire che le nostre attuali teori.e hanno avuto pieno successo in questo compito sarebbe prematuro. Ci viene insegnato che Galileo e Newton hanno ucciso l'homunculus aristotelico di un primo motore, e Darwin l'homunculus di un oròlogiaio divino; Turing uccise l'homunculus del pensiero disincarnato e Watson e Crick quello dell' élan vital, l'invisibile essenza della vita. Tuttavia, lo spettro dell'homunculus allunga la sua ombra sugli assunti anche delle imprese scientifiche più raffinate e meglio inquadrate in senso materialistico. È acquattato alla porta del big bang della cosmologia. Sta in agguato dietro i concetti biologici di informazione, segnale, disegno e funzione. E blocca l'accesso al funzionamento della coscienza. L'immagine dell'homunculus, così, viene anche a simboleggiare il problema centrale della scienza e della filosofia contemporanea. È l'emblema di tutti quei principi astratti che importano nelle spiegazioni scientifiche o filosofiche un'attribuzione non analizzata di informazione, capacità di sentire, nferimento, significato, proposito, progetto, sé, esperienza soggettiva, valore e simili; quegli attributi cioè che spesso sono associati con gli stati di una mente. Chiamerò queste teorie «omunculari» nella misura in cui questi attributi sono trattati come primitivi o «scatole nere» non analizzate, anche quando il loro uso è esplicitamente designato come segnaposto per un meccanismo dato per esistente ma ancora da articolare. Il punto, nelle nostre teorie, in cui siamo obbligati a passare a una terminologia omunculare può farci da boa di segnalazione delle scogliere su cui si incagliano le teorie attuali, e dove due tipi di spiegazioni che
80
Natura incompleta
sembrano incompatibili devono scambiarsi di ruolo. Gli homunculi indicano da un lato l'erronea applicazione di principi teleologici ove questi non sono validi e dall'altro offrono indicazioni sui punti di transizione di fase della causazione, dove le descrizioni fisiche mancano di cogliere le caratteristiche più significative dei processi viventi e degli eventi mentali.
Cause finali nascoste Come suggerivo nella sezione precedente, ogni homunculus fa da segnaposto per una sorgente di quella che Aristotele ha chiamato causa finale: la cosa in vista della quale avviene una certa cosa. Aristotele definiva «finale» questa forma di causalità perché si tratta di causalità in quanto relativa a fini; è qualcosa che avviene o è prodotto a causa delle conseguenze che è probabile ne risultino. Superficialmente, ciò vale per ogni azione umana; in effetti, ogni cosa si fa per un qualche scopo. Tutti gli oggetti fatti secondo un progetto, tutte le azioni eseguite di proposito, le funzioni, le cose prodotte per comunicare, e in ultima analisi tutti i pensieri e le idee, sono fenomeni che presentano qualche forma di causalità finale. Sono prodotti perché portino a una conseguenza che contribuisce a qualche altra cosa. Il risultato è che esistono rispetto a qualcosa che ancora non esiste, e per qualccosa che non sono. Esistono in futuro, per così dire, e in questo senso sono, per un aspetto cruciale, incompleti. Come abbiamo visto, Aristotele mise a confronto la causazione finale con altri tre modi di intendere il concetto di causa: causa materiale, causa efficiente e causa formale. A partire dal Rinascimento, però, il concetto di causa efficiente è divenuto quello paradigmatico per tutte le concezioni pienamente esplicite dell'idea di causa nelle scienze naturali, e gli altri modi di causazione di Aristotele sono stati messi in disparte. Negli affari umani, invece, dalla psicologia all'antropologia alla giurisprudenza, qualche versione della causazione finale è ancora ritenuta essere l'influenza fondamentale. La nostra personale esperienza dell'agenzia causale diretta a giungere a un qualche fine è l'espressione archetipica della causazione finale. Malgrado alcuni filosofi pongano in dubbio la veridicità di questa esperienza, è difficile discutere con la nostra fortissima intuizione che molta parte
Homunculi
Sr
del nostro comportamento è diretta a modificare le cose in vista del raggiungimento di uno stato desiderato, o a impedire che cambino per allontanarsi da un tale stato. E dove esiste qualche argomento contro di essa, non si basa su una negazione dell'esperienza, ma sostiene che essa sia in qualche modo logicamente incoerente, e dunque che la nostra esperienza sia in un certo senso falsa. In senso letterale la causaziorie finale è logicamente incoerente. Il futuro materiale non determina ciò che accade nel presente, ma un futuro concepibile, in quanto rappresentato, può avere influenza sulle circostanze dd presente rispetto a tale possibilità. Solo che attribuire influenza causale a una rappresentazione del futuro non ci pone certo su un terreno più solido. Ciò che opera la rappresentazione è anch'esso intrinsecamente una sorta di homunculus, e il contenuto della rappresentazione non è né l'homunculus né i segni con cui è effettuata la rappresentazione. Il contenuto di un pensiero non ha esistenza materiale, non più che un futuro possibile. Vi è un'importante differenza tra gli homunculi antichi e quelli moderni e scientifici: di quelli che spuntano nelle teorie scientifiche, per definizione, nessuno crede ali' esistenza. Li si intende invece come segnali di qualcosa che ancora deve essere spiegato. Questa negazione, quindi, accoppiata con l'introduzione di una criptica terminologia omunculare, indica la sede di un particolare tipo di problemi concettuali. Di conseguenza il termine «homunculus» ha assunto. una connotazione peggiorativa, e si applica agli errori di ragionamento nelle scienze naturali che invocano attributi intenzionali dove invece si dovrebbero applicare relazioni di tipo chimico e fisico. Richiamarsi a complotti, piani e capricci di invisibili demoni permetteva ai nostri antenati di dare un senso agli oscuri processi naturali e spiegare coincidenze significative e malasorte. Ma nella scienza richiamarsi a un'agenzia giusto al di là del rilevabile per spiegare come mai è avvenuto qualcosa è un vicolo cieco intellettuale. Localizza causa o responsabilità ma non la analizza. Quando la si tratta come dotata degli attributi di un agente intenzionale, questa causa inspiegata può ingannevolmente assumere una capacità esplicativa di ciò che neanche le spiegazioni meccaniche sono in grado .di chiarire. Ciò perché un agente intenzionale è in grado di mettere insieme diversi meccanismi perché corrispondano alle sue
82
Natura incompleta
interpretazioni dei possibili esiti o significati. Ma nelle scienze naturali, che si propongono di lasciare nella spiegazione il minor numero di spazi vuoti, l'introduzione. di una simile carta matta è nella maggior parte dei casi controproducente. Vi è un'eccezione: quando lo si fa chiarendo che si tratta solo di un contrassegno che segnala un'analisi ancora incompiuta. Se i ricercatori non possono ancora disporre di tutti i pezzi di un puzzle scientifico fatto di molte parti, è considerata legittima la tattica di mettere temporaneamente da parte un aspetto del problema, assumendo che in qualche modo «si risolve» per poter lavorare su un altro pezzo del rompicapo. Qui, qualcosa di analogo a un essere umano, esplicitamente postulato, sta in luogo di un'analisi ancora da completare. Gli aspetti inspiegati sono semplicemente considerati «per risolti» e si spera che non siano essenziali per spiegare quegli aspetti del puzzle che in quel momento sono al centro dei propri sforzi. Questi sono homunculi provvisori, riconosciuti per quel che sono, e di cui è programmata, non appena possibile, la sostituzione. Ciò che non è accettato come pratica scientifica, invece, è consentire a un concetto omunculare di svolgere un ruolo esplicativo cen.:. trale. Quando tutti i lavori importanti toccano ai sostituti del1' ometto nella stanza dei bottoni, a forza di sospendere l'incredulità si è lasciato che fosse messo tra parentesi proprio ciò che più aveva bisogno di spiegazione.
Gli dei degli spazi vuoti Un esempio contemporaneo di esplicita adozione della prospettiva dell'homunculus è la spiegazione dell'evoluzione proposta dalla teoria del «disegno intelligente» (DI). Politicamente, il DI è una battaglia, appena velata, con cui i fondamentalisti religiosi cristiani cercano di infiltrare le vestigia del creazionismo biblico o del soprannaturalismo nel sistema scolastico. Come storia di copertura per questo tentativo di infiltrazione, il DI eredita e assume un homunculus distillato da una lung~ storia di credenze in dei e dee che si riteneva tirassero le fila del destino. Anche se ritengo che il DI sia una pericolosa miscela di proselitismo, propaganda ideologica e politica ingannevole, non mi dilungherò su questi giudizi e baderò solo al mo-
Homunculi
do in cui usa retoricamente un'argomentazione che invoca un ho- . m,unculus. In ultima analisi, non sono le implicazioni religiose, né le critiche alla teoria ciò che più turba gli scienziati nelle asserzioni del DI, ma la radicale incompatibilità dell'invocare un homunculus con i fondamenti stessi della scienza. Ciò minaccia non solo la teoria evoluzionistica, ma la logica stessa, e l'etica dell'impresa scientifica. Il DI è fatto quasi per intero di critiche alle spiegazioni contemporanee dell'evoluzione per selezione naturale. Si sostiene che le debolezze esplicative delle correnti teorie a base darwinista sono tanto gravi da richiedere un altro tipo di spiegazione, aggiuntiva o sostitutiva. Quella che secondo i sostenitori del DI sarebbe la critica più devastante è che gli approcci darwinisti sembrano loro insufficienti a render conto di certe strutture e funzioni assai complesse degli organismi superiori, che asseriscono essere irriducibilmente complesse. Tornerò sulla questione della complessità irriducibile nei capitoli successivi. La questione in ballo, però, non è se la forma attuale della teoria dell'evoluzione sia interamente adeguata a dar conto di ogni aspetto della complessità della vita, ma se davvero vi sia un punto in cui è legittimo sostenere che la (presunta) incompletezza di una teoria meccanicistica renda necessaria l'inclusione esplicita di qualche sorta di homunculus. La biologia evoluzionistica è tuttora un cantiere aperto, e dunque non c'è da aspettarsi per forza che sia già sufficientemente sviluppata per dar conto di tutti i fenomeni complicati. Ma i biologi evoluzionistici e i sostenitori del DI trattano questa incompletezza in modo radicalmente diverso. Dal punto di vista del DI, la teoria dell'evoluzione soffre di un tipo di incompletezza che equivale a un'irrimediabile inadeguatezza. Malgrado sia frequente che i proponenti teorici di una teoria scientifica cerchino di sostenerla criticando le principali teorie concorrenti, sostenendo così indirettamente la propria teoria favorita, c'è qualcosa di insolito nel modo in cui il DI adotta questa strategia. Si tratta di una meta-critica delle teorie scientifiche in generale, perché tenta di definire un punto in cui deve essere revocato il bando vigente nella scienza contro le spiegazioni omunculari. Il disegnatore intelligente è una scatola nera inaccessibile. Il lavoro della spiegazione scientifica non può, per ipotesi, penetrare fi-
Natura incompleta
no sbirciarne meccanismi e origini. Si tratta dunque di un'implicita intimazione ad abbandonare ogni sforzo davanti a certi fenomeni: a passare da una logica analitica di cause ed effetti a una logica entenzionale di ragioni e fini. Sotto questo aspetto, 1' effetto è uguale a quello di uno scienziato che sostenesse che un esperimento di laboratorio è fallito per un'interferenza demoniaca. Difficilmente potrebbe essere considerato un suggerimento utile, e tanto meno una legittima possibilità. Preso alla lettera, mina un assunto basilare dell'intera impresa della ricerca scientifica sperimentale. I demoni, per definizione, possono agire per capriccio, interferendo con le cose in modo da modificarne le condizioni fisiche senza poter esser scoperti. Se mai fosse il caso di considerare gli influssi demoniaci, la sperimentazione diventerebbe futile. Ciò che valeva un certo giorno non sarebbe necessariamente valido in un altro, anche a parità di ogni altra condizione. È certo possibile che vi siano fattori sfuggiti all'attenzione che causano variazioni attualmente imprevedibili nei risultati sperimentali, ma ciò è interpretato come prova di un insufficiente controllo delle condizioni sperimentali o di mancanza di coerenza analitica. Questi problemi spingono al tentativo di scoprire quali siano le ulteriori variabili che intervengono, così da metterle sotto controllo. Se gli scienziati dovessero invece credere negli interventi demoniaci, la loro risposta sarebbe del tutto diversa. Magari cercherebbero di placare il demone con offerte o sacrifici, o chiamerebbero uno stregone o un prete per un esorcismo. Ovviamente, sto descrivendo una giustapposizione assurda. La cultura della scienza e quella del credere in esseri soprannaturali non occupano con facilità lo stesso spazio intellettuale. Come mostra questo esempio di fantasia, scegliere uno di questi atteggiamenti interpretativi impone l'abbandono dell'altro. Ciò non significa che non siano mai giustapposti nella vita quotidiana. Gli esseri umani tendono a essere bravissimi a credere in cose incompatibili e ad agire in base a motivazioni o punti di vista mutuamente esclusivi. L'umana cognizione è frammentata, i nostri concetti spesso vaghi e imprecisi, e solo al di rado usiamo l'inferenza logica al di là di quanto necessario a un bisogno immediato. Ciò dà luogo a una vasta ecologia mentale in cui idee, emozioni e ragioni incompatibili possono coesistere a lungo, ciascuna in una sua
Homunculi
85
nicchia in qualche misura isolata. Una simile miscela di paradigmi causali può essere invocata nei miti e nelle favole, ma anche qui è raro che siano tollerate discontinuità estreme. E la scienza e la le filosofia le evitano in modo compulsivo. Più precisamente, incorporata nel tessuto stesso di queste imprese intellettuali vi è un'ingiunzione implicita a scoprire e risolvere le incompatibilità esplicative ovunque sia possibile, e in caso contrario a contrassegnarle come questioni ancora irrisolte. Ma accontentarsi di un segnaposto crea disagio, e più a lungo bisogna farlo più è probabile che il dibattito intellettuale o 1' esplorazione scientifica si faccia urgente. Quando si presentano homunculi nella scienza e nella filosofia quasi sempre entrano di contrabbando e inosservati - anche da parte del contrabbandiere; è raro che siano proposti chiaramente. Nei casi in cui un homunculus si insinua inosservato, non sempre di tratta di veri e propri esseri analoghi all'uomo, ma piuttosto di facoltà e disposizioni teleologiche non analizzate. Invocare solo un frammento delle capacità umane (piuttosto che tutte le relative caratteristiche di intenzionalità e agenzia) rende più facile il passaggio inosservato di assunti omunculari, e può addirittura contribuire alla fuorviante impressione che portino a un avanzamento esplicativo. Ma anche un homunculus di capacità frazionarie può finire per caricarsi della maggior parte del carico esplicativo quando lo si invoca a identificare aspetti intenzionali e teleologici di un sistema. Questi homunculi minimali possono ancora fare da criptici sostituti di funzioni di notevole complessità. La possibilità di frazionare gli assunti omunculari richiede una definizione di che cosa sia un homunculus più generale del semplice «essere analogo all'uomo». A tal fine definirò come omunculare ogni argomentazione in cui si presuma di spiegare una proprietà entenzionale postulando l'esistenza di una facoltà, disposizione, o modulo che la produce, e in cui questa proprietà non sia pienamente compresa anche in tennini di processi e rapporti non entenzionali. Ciò non richiede che le proprietà entenzionali debbano essere ridotte a proprietà non entenzionali, ma solo che fra esse non deve esserci alcuna incompatibilità residua. Descrivere esattamente come ciò differisca da una spiegazione riduzionistica sarà argomento dei prossimi capitoli, ma basti dire qui che si richiede che le proprietà
86
Natura incompleta
entenzionali siano costruibili a partire da rapporti tra proprietà non entenzionali. Una delle mie parodie favorite di questo trucco in cui si dà una pseudo-spiegazione limitandosi a postulare lesistenza di una sede per ciò che bisognava spiegare è quello proposto da Molière, il grande drammaturgo francese, nella commedia Il malato immaginario. Una delle scene presenta uno studente di medicina che sostiene un esame dinanzi ai suoi professori. Uno degli esaminatori gli chiede di spiegare come mai l'oppio induca.il sonno; quello replica che si deve al fatto che l'oppio ha in sé una «virtù soporifera», e tutti gli esaminatori lodano la sua risposta. Molière sta satireggiando i pomposi e ascientifici medici dei suoi tempi. Questa non è una spiegazione, ma un modo di evadere la questione. Nella commedia, nessuno osserva che la risposta si limita a riformulare il punto in questione in termini di un'essenza non analizzata, non fa che spostare la domanda di un passò. L'oppio è una sostanza che fa dormire perché in esso c'è qualcosa che fa dormire. Non si può non notare il doppio senso di questo esempio: addormentata, qui, è la ragione critica!
Preformismo ed epigenesi Storicamente, non tutte le spiegazioni a base di homunculi sono state associate a cause immateriali. Agli inizi della biologia un'interpretazione omunculare dello sviluppo dell'organismo, sul modello dell'entelechia aristotelica ma concepito in termini materiali, fu proposta come alternativa a un principio di sviluppo incorporeo. La teoria preformistica dello sviluppo biologico è stata l'alternativa materialistica alla prospettiva «epigenetica» con cui allora era in competizione. L'epigenetica era criticata per i suoi presumibili assunti mistici. I suoi sostenitori sostenevano che la forma di una pianta o di un animale che si sviluppa non fosse materialmente presente al momento del concepimento, e che la forma di un organismo era acquisita, e fornita da qualche intangibile influenza vitale nel corso della sua crescita e maturazione. L'epigenesi fu criticata come relativamente poco scientifica perché postulava un'origine non fisica delle forme, spesso descritta nei termini di un'essenza vitale. Tanto i preformisti quanto i sostenitori dell'epigenesi riconoscevano che
Homunculi
gli organismi seguono percorsi di sviluppo definiti, le cui forme devono in un certo senso essere presenti fin dall'inizio, ma mentre i preformisti sostenevano che questa forma fosse presente in forma ridotta nell'uovo fecondato (o solo nello sperma), i sostenitori del1' epigenesi dicevano che era presente soltanto in modo virtuale o potenziale, e che tale potenziale era poi progressivamente imposto all'embrione nel suo sviluppo, come un mucchietto di creta che gira su uria ruota da vasaio prende lentamente forma al tocco delle mani del vasaio. Quindi a dividere il preformismo dall'epigenesi non era tanto l'idea di una forma preesistente che guidasse lo sviluppo, quanto una differenza di opinioni sulla sua sede. I preformisti immaginavano che si trovasse in un elemento fisico dell'organismo, che aveva soltanto 'bisogno di espandersi, mentre i sostenitori dell'epigenesi immaginavano che fosse immateriale. Due problemi collegati rendevano più difficile difendere l'ipotesi .dell'epigenesi rispetto al preformismo. Primo, se la forma che controllava lo sviluppo non si trovava nei gameti, nell'uovo fecondato o nell'embrione in sviluppo (presumibilmente a ogni stadio), dov'era, e come faceva a imporsi sulla materia del corpo in sviluppo? Se non era fisicamente presente in forma materiale, come poteva dare forma a un processo fisico? E anzi, come andava intesa una forma platonica incorporea? In secondo luogo, se la forma matura non è in qualche modo intrinseca alla sua materia, come mai gli organismi di una certa specie danno sempre origine a prole dalla stessa forma? Anche se l'analogia con gli artefatti cui danno forma mani e intenzioni umane era intuitivamente attraente e manteneva un ruolo per un progettista, un principio vitale intelligente o una forza vitale, faceva però inevitabilmente appello a influenze non materiali, e nel XIX secolo richiamarsi a influenze mistiche era una prospettiva che molti filosofi della natura erano ansiosi di evitare. Il preformismo, alla fine, divenne difficile da sostenere in seguito alle crescenti prove proposte dai nuovi campi della microscopia e del1' embriologia, che mostravano come i gameti, gli zigoti e gli stessi stadi iniziali dell'embrione in sviluppo erano privi di ogni traccia della forma dell'organismo che poi ne risultava. Questa versione classica del preformismo aveva un altro tallone d'Achille. Anche se i risultati dell'embriologia fossero stati diversi, ci
88
Natura incompleta
sarebbe comunque stato un serio problema logico: una versione dello stesso problema indicato da Skinner per gli homunculi mentali. La necessità di un antecedente preformato che spieghi la generazione di un nuovo organismo richiede a sua volta un preventivo antecedente di tale antecedente, e così via sempre più indietro, uno spermatozoo con dentro un homunculus che abbia a sua volta un homunculus in ciascuno dei suoi spermatozoi. Oppure l'antecedente deve essere sempre già presente, nel qual caso però non può avere forma materiale, perché da ultimo diventerebbe tanto piccolo da essere invisibile. Alla luce di questo, più che una spiegazione di come sia nata la forma è un modo per evitare di porsi la questione delle ongim. Una teoria imparentata anch'essa fiorita agli inizi del XIX secolo è detta «sensismo». Il nonno di Charles Darwin, Erasmus, ne fu un entusiasta promotore. Come i sostenitori dell'epigenesi, i sensisti sostenevano che l'embrione in via di sviluppo acquisiva in modo incrementale la sua forma distintiva partendo da un uovo fecondato indifferenziato. Mentre i primi però facevano appello a una forza vitale intrinseca per spiegare la spinta verso la forma adulta, i sensisti dicevano che il corpo era attivamente foggiato dalle esperienze del feto durante lo sviluppo. In tal modo, in analogia con le teorie empiristiche della mente, l'embrione in sviluppo è all'inizio una sorta di grumo d'argilla indifferenziato, su cui poi l'esperienza dovrà scolpire il suo influsso. I sensisti riuscivano a spiegare l'iniziale somiglianza del figlio al genitore come conseguenza delle esperienze imposte dal corpo del genitore, sull'embrione nell'utero o sul gamete prima della fecondazione, e poi in seguito come conseguenza dell'essere posto nel mondo nello stesso ruolo ecologico. In altre parole, la forma di un organismo era ritenuta essere il risultato della sua sensibilità e delle sue risposte al mondo. La forma era imposta dall'esterno, anche se la materia di cui era costituito l'organismo faceva da vincolo e orientamento. Sfortunatamente, anche queste vedute apparivano contrarie alle osservazioni biologiche. Vari tipi di alterazioni delle condizioni di incubazione e sviluppo avevano scarso effetto sullà forma generale del corpo. C'era indiscutibilmente qualcosa di intrinseco all'organismo che ne dettava la forma corporea. Anche se le teorie dell'evoluzione non furono direttamente invocate come influssi decisivi in questi discussioni, il loro sorgere fu
Homunculi
parallelo al declino del dibattito tra preforrnismo ed epigenesi, e non mancarono le influe'nze reciproche. Il primo fra gli evoluzionisti a proporre una soluzione complessiva al problema fu Jean Baptiste de Lamarck. Egli scorse una via di mezzo fra le due possibilità grazie alla sua teoria dell'evoluzione, in cui il piano generale del corpo era ereditato intrinsecamente, ma poteva essere modificato di generazione in generazione man mano che gli organismi interagivano con l'ambiente. L'approccio evoluzionistico consentiva così a tendenze preformate ereditate incorporate in forma materiale (anche se non espresse nell'embrione precoce) di fare da determinanti della forma corporea senza implicare un infinito regresso di antecedenti preformati. L'eredità poteva così essere incarnata nella materia, preformata e però non limitata a ciò che era venuto in passato. Per la prima volta ò:ffriva un modo per integrare una teoria materialista e preforrnista con una fonte ambientale di influenza strutturale; mettendo al posto del contributo creativo dell'influsso immateriale dei sostenitori dell'epigenetica l'influenza concreta delle interazioni fra organismo e ambiente. La teoria della selezione naturale di Charles Darwin contribuì ancora a questa via di mezzo eliminando potenzialmente ogni sforzo e ogni azione da parte dell'organismo. La concezione di Lamarck riteneva implicitamente che la ricerca di esperienze piacevoli, lo sforzo di evitare il dolore e così via fossero i mezzi essenziali con cui le interazioni fra organismo e ambiente potevano produrre nuove forme. Ma anche questi sforzi puzzavano in qualche modo di homunculus; non sarebbe stato necessario che queste predisposizio. ni precedessero, in qualche modo, l'evoluzione? L'intuizione di· Darwin, in questo, fu di riconoscere che gli sforzi degli organismi non erano necessari a spiegare le origini delle loro forme adattative. Questi tratti potevano anche essere dovuti a meccanismi casuali e prodursi a prescindere da ogni potenziale funzionalità, ma se per coincidenza contribuivano alla riproduzione sarebbero stati ereditati preferenzialmente nelle successive generazioni. In tal modo il darwinismo assestò un colpo anche al preforrnismo strettamente inteso. Le forme viventi non erano sempre uguali a come erano state, e dunque nulla era preformato una volta per tutte. Ciò che era preformato in una generazione era il prodotto dell'interazione di qualcosa che era stato preformato nelle genera-
90
Natura incompleta
zioni precedenti con l'ambiente. Quindi i principi generativi della forma nello sviluppo dell'organismo potevano esser sorti per via .incrementale, e anche se incarnati solo in modo criptico nell'embrione potevano essere intesi come :fisicamente presenti. Con questo, la sintesi era completa, preservando i principi materialistici del preformismo ma introducendo una dinamica creativa nella forma della selezione naturale agente sulle variazioni accidentali. La battaglia sulle origini della forma vivente si spostò così dallo sviluppo alla storia della :filogenesi. Ciò parve eliminare l'ultimo residuo di intelligenza preliminare, e con esso la necessità di tener conto di influenze progettuali o di sforzi dell'organismo. Il darwinismo sembrò così offrire una teoria della vita libera da ogni homunculus. Il contributo di Darwin non ha però chiuso definitivamente il dibattito teorico sulla genesi della forma degli organismi. La teoria della selezione naturale non formulava alcuna specifica previsione sui processi di embriogenesi, e non si pronunciava sui meccanismi della riproduzione e dello sviluppo. Il dibattito si riaccese alla fine del XIX secolo sull'onda di due novità. La prima fu la proposta del1' evoluzionista tedesco Ernst Haeckel che l'evoluzione :filogenetica procedesse per progressiva aggiunta di ulteriori stadi di sviluppo al termine della sequenza dello sviluppo di una generazione precedente 5. La seconda fu la riscoperta delle basi genetiche dell'eredità biologica. La teoria di Haeckel presentava nella sua logica additiva un'implicita direzionalità, e suggeriva che l'evoluzione potesse esser guidata da una sorta di spinta dello sviluppo. La teoria genetica deli' eredità suggeriva in più che la maturazione della forma organica potesse essere incarnata in una sorta di progetto chimico. Entrambe le idee hanno avuto grande influenza per gran parte dei primi decenni del XX secolo. Solo negli ultimi decenni sono state dimostrate essere, rispettivamente, l'una fallace e l'altra eccessivamente semplicistica. In retrospettiva, però, sia il preformismo che il vitalismo hanno dato un contributo alla nostra moderna concezione dell' embriogenesi, anche se le loro interpretazioni classiche sono ormai state relegate fra gli anacronismi della storia. L'ovulo non fertilizzato è all'inizio una cellula relativamente indifferenziata. Il processo della fecondazione dà il via a una lieve riorganizzazione che polarizza la di-
Homunculi
91
stribuzione di varie strutture cellulari al suo interno. La cellula poi si divide fino a diventare una sferetta di cellule, che hanno ciascuna un contenuto molecolare lievemente diverso a seconda della parte dello zigote iniziale da cui derivano. Man mano che continuano a dividersi, e a seconda delle loro posizioni relative e delle interazioni con le cellule adiacenti, la loro progenie si differenzia via via nelle migliaia di tipi cellulari che caratterizzano i differenti organi. Anche se le caratteristiche che distinguono questi tipi cellulari specializzati dipendono dall'espressione dei geni, la geometria dell'embrione in sviluppo svolge un ruolo critico nel determinare quali geni saranno espressi in quali cellule, e in che modo. Il miglior esempio di questa interdipendenza si ha nel potenziale della cellula staminale embrionale allo stadio di blastula (la sferetta iniziale) di svilupparsi in qualsiasi tipo cellulare del corpo. Prese da una blastula e inserite in un punto qualunque di un'altra, queste cellule si sviluppano in accordo con il punto in cui sono state inserite nel secondo embrione, quello nuovo. Quindi nei primi stadi dello sviluppo le singole cellule non hanno un destino preformato secondo cui svilupparsi. Il loro destino ultimo è determinato, per così dire, collettivamente. Malgrado questo potenziale di sviluppo rifletta dunque una sorta di piano preformato dell'organismo attribuibile all'informazione genetica contenuta nelle cellule, questa non è sufficiente da sola a dar conto dei dettagli dello sviluppo. Così il termine epigenesi è stato mantenuto per descrivere il contributo di influssi extra-genomici quali le interazioni cellula-cellula che alterano lo stato di attività dei vari geni in una linea cellulare e le relazioni geometriche tra le cellule che determinano quali di esse possono interagire fra loro. Anche se molti diffusi resoconti del DNA e del suo funzionamento ne parlano come se contenesse 1' equivalente dei piani costruttivi per la costruzione dell'edificio corporeo, o come un insieme di istruzioni per la sua realizzazione, questa moderna variante del preformismo è troppo semplicistica. Ignora le informazioni che in ultima analisi sono contenute negli elaborati schemi di interazione fra le cellule, e il modo in cui influiscono su quali geni siano o meno espressi. La massima parte di questa informazione strutturale è generata daccapo in ogni organismo come conseguenza emergen-
92
Natura incompleta ·
te di una sorta di ecologia delle cellule in sviluppo. Ciò nondimeno, l'informazione strutturale trasmessa dal DNA fornisce sufficienti vincoli e condizionamenti intrinseci, concretizzati in strutture proteiè:he, da garantire che in questo processo di generazione di nuove informazioni gli esseri umani diano sempre origine a esseri umani e le mosche a mosche. Garantisce anche, però, che ciascuna mosca e ogni essere umano siano per innumerevoli versi unici, anche i gemelli identici. Ciò perché i geni non sono istruzioni di montaggio o programmi di computer. Non ci sono interpreti o meccanismi di assemblaggio estrinseci. Gli sçherni di espressione dei geni dipendono dagli scherni geometrici dell't;:mbrione, e i cambiamenti dell'espressione genica influenzano a loro volta la geometria dell'embrione stesso, in ripetuti cicli successivi di interazione.
Il «Mentalese» Un caso più seriamente considerato, ampiamente accettato e accesamente discusso di spiegazione basata su un homunculus è la concezione della facoltà di parola come deposito di principi che determinano i tipi di forma che ogni linguaggio naturale può di assumere. A questo insieme di principi si è dato il nome di grammatica· universale, perché si postula che debbano essere presenti in ogni linguaggio umano di origine naturale. Anche se i proponenti di questa concezione se ne risentiranno; credo che non sia solo una caricatura definire questa teoria preforrnista, e anzi basata su un homunculus. La prima forma moderna di una teoria di questo genere è stata sviluppata nei tardi anni cinquanta e primi anni sessanta da Noam Chomsky. La sua intenzione era sviluppare una descrizione formale sistematica dei principi necessari a prevedere tutte e sole le classi di frasi che un normale parlante di una lingua avrebbe riconosciuto come ben formate, o grammaticalmente corrette. A complicare la cosa sta il fatto che il linguaggio è generativo e aperto. Non c'.è alcun chiaro limite superiore alla varietà delle possibili frasi grammaticali. Dunque si tratta di una facoltà finita capace di produttività infinita. Il notevole successo di questa strategia modellistica, pur modificata e adattata più e più volte nei decenni da allora trascorsi, dimostra che in larga misura le lingue sono tali da poter essere mo-
Homunculi
93
dellate come sistemi assiomatici derivati da un ridotto insieme di principi base. Anche se questo approccio ha dato una rappresentazione assai precisa del tipo di sistema governato da regole di cui i parlanti dovrebbero disporre se effettivamente adottassero un approccio governato da regole alla produzione e. all'interpretazione del discorso, non garantisce affatto che questa sia la sola via attraverso cui esso può essere prodotto e interpretato. Una ragione per non attendersi una precisa coincidenza tra questo formalismo e la realizzazione dei processi linguistici nel cervello è che l'architettura del cervello umano è il prodotto di decine di milioni di anni di evoluzione dei vertebrati, con adattamenti a esigenze fisiologiche e comportamentali i cui attributi avevano poco o nulla in comune con le strutture per altri versi anomale del linguaggio. Questa architettura neurale ha subito solo sottili cambiamenti nell'evoluzione umana (senza produrre alcuna struttura anatomica nuova e specificamente umana). Ciò fa pensare che la logica per altri versi anomala della comunicazione linguistica sia realizzata da un sistema organizzato secondo principi di organizzazione biologici assai antichi, di gran lunga precedenti l'evoluzione del linguaggio. Questa mancata corrispondenza con la logica evoluzionistica della funzione neurale non è un problema insormontabile. Ma il tentativo di reificare la logica grammaticale come esistente in questa forma algoritmica nella mente cessa di avvalersene come segnaposto per un processo neurale-comportamentale-intenzionale per trattarlo invece come un homunculus preformato. Un insieme di algoritmi esplicitamente realizzato verificandone le previsioni rispetto a un massiccio corpo di espressioni parlate ritenute grammaticalmente corrette deve, per la sua stessa logica di progetto, risultare in grado di prevedere queste espressioni. In questo senso è semplicemente un modo di rappresentare questa predisposizione comportamentale in forma più compatta, cioè un sostituto metodologico della competenza di un parlante umano. Postulare che questo sistema algoritmico si trovi nella mente è in questo senso una ridescrizione riposizionata: un passaggio omunculare che scambia una mappa per il territorio. Se un simile sistema di regole si trova preformato in ogni neonato, non è richiesta alcuna spiegazieine linguistica, socio-psicologi-
94
Natura incompleta
ca o in tennini di sviluppo. Le regole per la formazione delle frasi sono note prima ancora di imparare le parole. Nel libro di Steven Pinker L'istinto del linguaggio, per esempio, l'analogia di cui si serve l'autore per spiegare il rapporto tra pensiero e linguaggio inizia con la seguente affermazione. La gente non pensa in inglese, in cinese o in lingua: apache; pensa nel linguaggio del pensiero. Questo linguaggio del pensiero probabilmente somiglia un po' a tutte queste lingue ... ma in confronto a ogni linguaggio dato, il mentalese [questo ipotetico linguaggio del pensiero] deve essere per certi versi più ricco e per altri più semplice. Il problema da spiegare qui è andato a finire nella spiegazione, come chiarisce un'elaborazione dell'analogia. Sapere una lingua, dunque, è saper tradurre il mentalese in stringhe di parole, e viceversa ... In effetti, se gli infanti non avessero un mentalese da tradurre verso l'inglese e in cui tradurre l'inglese stesso, non è chiaro come potrebbe avvenire l'apprendimento dell'inglese, e anzi neppure che mai potrebbe voler dire imparare l'inglese. Se dunque il pensiero equivale al linguaggio, tutto ciò che resta da spiegare è la traduzione. Un momento, però! Chi, o che cosa, di preciso, sta producendo e capendo il mentalese? Modellare il pensiero sul linguaggio in questo modo non fa che spostare implicitamente il problema un livello più indietro. In questo senso, è analogo alla caricatura della percezio,ne proposta da Koch e Crick di cui si parlava all'inizio di questo capitolo. Perché una «lingua» possa essere parlata nella testa di una persona, deve esserci, a interpretarla, un homunculus non riconosciuto. Dunque questo parlante interno del mentalese deve tradurre il mentalese in homunculese? O il mentalese è auto-interpretato? In tal caso non è un linguaggio, e a , ogni modo non è chiaro che cosa ciò potrebbe significare. La nozione che le parole di una lingua parlata corrispondano a, e siano derivate da, una sorta di parole di un linguaggio del pensie-
Homunculi
95
ro non è nuova. Un'idea simile ha avuto un'importanza critica nello sviluppo della logica tardo-medievale nelle mani di studiosi come Ruggero Bacone e Guglielmo da Occam. Liberandosi delle complicazioni che comporta il riferimento alle cose del mondo, l'inferenza poteva essere modellata in operazioni formali tra segni discreti. Fu un primo passo verso quella che oggi definiamo teoria della computazione. Nella sua moderna reincarnazione, che ha avuto fra i pionieri filosofi come Jerry Fodor, l'ipotesi del linguaggio mentale rovescia la cosa e modella la cognizione sul calcolo. E, analogamente ignorando il problema di spiegare rappresentazione e interpretazione, sposta l'onere della spiegazione dei misteri del linguaggio da psicologia e linguistica verso biologia evoluzionistica e neuroscienze. Proposizioni, significati o riferimenti simbolici non fanno parte, ovviamente, degli strumenti analitici della biologia evoluzionistica e delle neuroscienze. In effetti, quasi tutti i principi fondamentali che devono esser compresi in questo linguaggio preformato dei pensiero hanno proprietà intenzionali, e le strutture cerebrali no. Nei fatti dunque questa ipotesi afferma che l'homunculus della grammatica è essenziale per il linguaggio, ma irrilevante quando si tratta di spiegarlo.
Tutto menti, fino a laggiù in fondo? Nel suo libro del 1988 Dal big bang ai buchi neri, Steven Hawking riporta un vecchio aneddoto (attribuito a fonti diverse, da William James a Bertrand Russell) su uno scambio di battute che avrebbe avuto luogo alla fine di una conferenza di cosmologia (o qualcosa del genere). Hawking lo racconta così: Alla fine della conferenza, una piccola vecchia signora in fondo alla sala si alzò in piedi e disse: «Quel che lei ci-ha raccontato sono tutte frottole. Il mondo, in realtà, è un disco piatto che poggia sul dorso di una tartaruga». Lo scienziato si lasciò sfuggire un sorriso di superiorità prima di rispondere: «E su cosa poggia la tartaruga?». «Lei è molto intelligente, giovanotto, davvero molto», disse la vecchia signora. «Ma è tutto tartarughe, fino a laggiù in fondo!».
Natura incompleta
Un modo per sottrarsi alla sfida di spiegare i fenomeni intenzionali che caratterizzano i processi mentali è assumere che facciano intrinsecamente parte del substrato fisico del mondo. Il sospetto che qualche attributo mentale sia inerente, in forma attenuata, a ogni granello di sabbia, goccia d'acqua o filo d'erba probabilmente è antico quanto i più antichi sistemi di credenze spirituali, e non manca certo di interesse come fonte di principi etici ed estetici. Le sue radici si possono far risalire, con tutta probabilità, alle credenze animistiche presenti in pressoché tutte le più antiche tradizioni spirituali del mondo. Come prospettiva metafisica sistematica, invece, va sotto il nome di panpsichismo. Il panpsichismo assume che un vestigio di fenomenologia mentale sia presente in ogni evento fisico, e pervada quindi l'intero cosmo. Grandi pensatori dell'Illuminismo come Spinoza e Leibniz, fra gli altri, hanno abbracciato questa credenza, e nella filosofia del XIX secolo Gustav Fechner, Arthur Schopenhauer, William Clifford, Wilhelm Wundt, Ernst Haeckel,Josiah Royce e WilliamJames, per nominarne solo qualcuno, promossero tutti qualche forma di questa nozione. Malgrado oggi non sia altrettanto influente, e non abbia praticamente alcun ruolo nelle moderne neuroscienze cognitive, continua ad attrarre un ampio seguito, soprattutto per il fortunato caso della sua compatibilità con certe interpretazioni della fisica quantistica. Malgrado siano comuni le formulazioni del panpsichismo in termini di una forma di mente che permea l'universo, è possibile formularne gli assunti anche in modo più sottile e generale. Applicando il più vasto concetto di rapporto entenzionale che qui siamo andati sviluppando - in cui gli stati coscienti sono solo un caso, relativamente complesso, di una più generale classe di fenomeni caratterizzati dal rapporto con qualcosa di esplicitamente assente e altro - possiamo allargare il concetto di panpsichismo a includere ogni prospettiva che assuma fra i costituenti ultimi dell'universo qualche tipo di proprietà entenzionale. Ciò lascia aperta la possibilità che la maggior parte degli eventi fisici sia priva di aspetti coscienti, ma possa ugualmente esibire proprietà come finalizzazione, informazione, valore e via dicendo. In quest'ottica, gli eventi fisici che hanno luogo al di fuori di un cervello sono trattati come aventi una sorta di inconsapevole carattere mentale.
Homunculi
97
Molte teorie panpsichiste del passato hanno sostenuto qualcosa di meno dell'idea che tutti i processi fisici siano anche processi mentali. Il biologo evoluzionista Emst Haeckel, per esempio, attribuiva forme variamente attenuate di vita mentale anche alle più semplici forme viventi, senza però a quanto risulta arrivare ad attribuirne anche ai processi non viventi; e WilliamJames, in una visione detta «monismo neutrale», sostenne che una via di mezzo tra il panpsichismo totale e il semplice materialismo offriva una via d'uscita dal dilemma dualistico di Descartes. Il monismo neutrale suggerisce che vi sia potenzialmente un intrinseco elemento mentale in tutte le cose, che però si esprime soltanto in certi speciali contesti fisici, come il funzionamento di un cervello. Questo, naturalmente, pone immediatamente la domanda di se questa proprietà inerisca in qualche sostanza ultima delle cose o sia soltanto espressione di tali relazioni, questione che affronteremo nel seguito. In fisica quantistica molti scienziati sono disposti a sostenere che la transizione dal regno quantistico a quello classico - in cui le probabilità quantistiche divengono attualità classiche - coinvolga necessariamente sia' l'informazione che l'osservazione, sotto forma di misura. Una famosa interpretazione della meccanica quantistica, formulata a Copenhagen all'inizio del XX secolo da Niels Bohr e Wemer Heisenberg, dice specificamente che gli eventi non hanno esistenza determinata fino a che, e a meno che, non siano stati osservati. Da qui la popolarità di molte infelici sovra-interpretazioni che attribuiscono alle menti umane lo status di determinanti di ciò che esiste e ciò che nori esiste. Un'interpretazione letterale, ovvia.mente, condurrebbe a un circolo vizioso, perché se le cose non sono reali fino a che non le osserviamo la nostra stessa esistenza come cose nel mondo resta ostaggio della nostra preliminare capacità di osservare noi stessi. Il mio mondo può anche esser venuto in essere con la mia nascita e il primo destarsi della mia mente, ma posso dire con buona sicurezza che nessun fisico immagina che il mondo abbia cominciato a esistere con i primi osservatori. Ma che potrebbe significare per l'universo essere l'osservatore di se stesso, indipendentemente da noi? Un modo meno esotico di associare un homunculus alla teoria quantistica tratta semplicemente gli eventi quantistici come intrin'Secamente informativi. Sovra-interpretato, questo può condurre al-
Natura incompleta
la proposta che l'intero universo e le sue interazioni fisiche siano analoghi alla mente. Fermandosi un passo prima, Seth Lloyd, teorico del calcolo quantistico, descrive l'uniyerso come un immenso computer quantistico. Egli sostiene che questa affermazione dovrebbe essere pacifica. Il fatto che l'universo stia fondamentalmente calcolando, o elaborando informazioni, è stato in effetti stabilito in senso scientifico già nel tardo XIX secolo da Maxwell, Boltzmann e Gibbs, che hanno mostrato come tutti gli atomi registrino elementi di informazione. Quando rimbalzano l'uno sull'altro, questi elementi si scambiano. È da qui, in effetti, che sono venute fuori le prime misurazioni dell'informazione, perché Maxwell, Boltzmann e Gibbs stavano cercando di definire l'entropia, che è la vera misura dell'informazione. Pur essendo stati James Clerk Maxwell, Ludwig Boltzmann e Josiah Gibbs collettivamente responsabili dello sviluppo della teoria termodinamica nel XIX secolo, prima che si arrivasse alla formulazione delle moderne teorie del calcolo e dell'informazione, è vero che pensavano i processi termodinamici in termini di ordine e di informazione necessaria a descrivere gli stati dei sistemi. Ma Lloyd scrive quasi come se avessero già le moderne nozioni di calcolo e informazione, e concepissero i processi termodinamici come, intrinsecamente, una forma di elaborazione dell'informazione. ~Mal grado ciò sia inteso solo come caricatura a fini euristici, questo modo di raccontarla deforma la storia dello sviluppo di queste idee. Solo dopo che il lavoro svolto verso la metà del XX secolo, fra gli altri, da Alonzo Church e Alan Turing,-ebbe mostrato che alla maggior parte dei processi fisici può essere assegnata un'interpretazione che li tratti come processi (nella più generale delle accezioni) di calcolo, è diventato comune descrivere i processi termodinamici come equivalenti ali' elaborazione di informazioni (anche se, é questo è importante, è un'equivalenza in base a un 'interpretazione). Da · questo assunto, però, è facile scivolare su un piano inclinato fino a un'asserzione più radicale. Cominciamo a rendercene conto quando Lloyd dice:
Homunculi
99
... è qui che viene fuori la vita. Perché l'universo sta calcolando dal principio stesso della sua esistenza, fin dal big bang, dalla prima comparsa delle particelle elementari. (p. 147) Assumendo che organismi e cervelli siano anch'essi solo computer, a prima vista può sembrare che Lloyd consideri i processi teleologici come semplici complicazioni della generale attività di elaborazione dell'universo. Ma qui Lloyd si muove in un difficile equilibrio tra il panpsichismo e il suo opposto, la prospettiva eliminativa per cui il calcolo sarebbe semplice fisica, una fisica in cui non c'è spazio per proprietà entenzionali. Ciò perché si avvale di una speciale accezione· tecnica del concetto di informazione (che sarà discussa in dettaglio nei successivi capitoli), che si potrebbe chiamare meglio potenziale di trasmettere informazioni, o.semplicemente ordine, o differenza. L'essere in grado di usare un attributo o un evento fisico come informazione a proposito di un altro richiede qualche definita distinzione fisica, e nella misura in cui la transizione da quantistico a classico comporta la produzione di definite distinzioni fisiche comporta anche la necessaria fondazione della possibilità di trasmettere informazioni. Ma questa nozione di informazione esclude ogni implicazfone che queste distinzioni siano a proposito di, relative a qualcosa. Naturalmente, però, è proprio questa proprietà entenzionale a distinguere l'informazione da una semplice distinzione fisica. La mente, come è ovvio, è un organo che interpreta informazioni a proposito di altre cose. Non è un semplice dispositivo di manipolazione di contrassegni fisici cui si può assegnare o meno un'in~erpretazione. I bit di informazione manipolati in un processo di calcolo, invece, sono solo potenzialmente interpretabili, e in assenza di un contesto interpretativo (come un uso definito in termini umani) sono solo processi fisici di natura elettrica. Arrivare a capire questo ulteriore requisito senza invocare o assumere homunculi di alcun genere richiederà un considerevole lavoro di scomposizione nei capitoli successivi. Per ora, basti dire che l'informazione potenziale, intrinsecamente, non riguarda alcunché. Se dunque la concezione dell'universo come computer sia realmente o meno una ·teoria omunculare dipende dunqùe dal ritenere o meno che le
IOO
Natura incompleta
menti facciano o meno qualcosa di più che calcolare, e se nel porre questo assunto la mente sia proiettata fin dentro il tessuto quantistico delle cose o abolita spiegandola come un illusorio epifenomeno del processo meramente fisico del calcolo. Anche i fisici impegnati a capire la teoria del big bang all'origine dell'universo hanno giocato con un'interpretazione dell'ordine delle cose che invoca una sorta di homu,nculus. Si verifica che un ridotto numero di costanti fisiche - come la costante di struttura fine, l'intensità della forza nucleare forte e la constante gravitazionale - devono essere squisitamente in equilibrio tra loro perché possa essersi prodotto un universo come il nostro, con la sua lunga durata, gli atomi pesanti, le molecole complesse e altre caratteristiche che hanno condotto alla possibilità della vita. In altre parole, visto che noi siamo qui ad attestare questo fatto, la sintonia precisamente equilibrata di queste costanti è anch'essa un fatto necessario; Generalmente si parla di principio antropico. Ammettendo che le cose avrebbero potuto stare altrimenti e che nessun fatto escluda la possibilità di un'infinità di insiemi di valori per queste costanti, però, il fatto che l'universo abbia favorito la vita come noi la conosciamo risulta o altamente provvidenziale o uno straordinario colpo di fortuna. Alcuni, che lo ritengono provvidenziale, sposano una versione cosmica del tema del «disegno intelligente» sopra discusso, dicendo che le condizioni astronomicamente improbabili della nostra esistenza devono risultare da un principio progettuale o da un progettista ultimo, per il quale la possibilità di forme complesse della materia (come quella cui si deve la coscienza di tipo umano) fosse un esito previsto e voluto. Il principio antropico ammette però due spiegazioni alternative prive di homunculi. In primo luogo potrebbero essere stati generati tutti gli insiemi di valori possibili in altri universi, la maggior parte dei quali non presentavano l'equilibrio di proprietà che poteva condurre alla nostra esistenza. Sotto questo aspetto, il nostro universo sarebbe solo un caso speciale in mezzo a un'infinità di 'esemplari mancati. A volte si parla, in questo senso, di principio antropico debole. In alternativa, la fine sintonizzazione di questi valori potrebbe essere il risultato di un processo cosmico in cui un qualche processo auto-organizzato o evolutivo culminante nel big bang 1
Homunculi
IOI
si sia sviluppato convergendo verso questi valori così ben equilibrati. La possibilità di valutare empiricamente, prima o poi, queste alternative è tutt'altro che ovvia. Il matematico-filosofo Alfred North Whitehead ha realizzato quello che è probabilmente il più raffinato tentativo di rendere compatibile la fisica del XX secolo con i principi teleologici nella sua metafisica del processo 6 . Anche se una descrizione e una critica del ripensamento della metafisica operato da Whitehead andrebbe ben al di là dell'ottica di questo saggio, il suo raffinato sforzo di riconcettualizzazione della fisica fondamentale per affrontare il paradosso della causalità entenzionale ha avuto una forte influenza, anche se non sulla scienza, ed è stato spesso definito una variante del panpsichismo. La sua innovativa concezione della natura dei processi fisici sostiene che il cambiamento fisico procede necessariamente da un'intrinseca incompletezza' di ogni «occasione» fisica, intendendo con occasione qualcosa come un evento fisico localizzato. In quest'otticà, il processo è più fondamentale della materia e dell''energia mediante le quali seguiamo i mutamenti fisici. Grosso modo, Whitehead concepiva le specifiche occasioni fisiche come definite dall'incessante assimilazione di occasioni adiacenti in una nuova occasione discendente, attraverso un processo da lui detto di prensione (si pensi a «prendere», «afferrare»). In questo processo, ciascuna occasione fisica assimila alcune caratteristiche delle occasioni adiacenti e cambia di conseguenza. In questa transizione nuove relazioni potenziali diventano momento per momento concrete, mediante un? attività di estensione e collegamento che incessantemente si verifica tra i loci appena «concretati» nello spazio e nel tempo. Il temùne tecnico da lui proposto è «concrescenza», che per molti versi appare analogo ,alla nozione di «collasso della funzione d'onda (probabilistica)» della fisica quantistica che segna la transizio, ne dall'indetemùnazione quantistica alla detemùnatezza classica. Se nessun oggetto, evento o interazione - fino alle più fondamentali interazioni della fisica, come quelle tra particelle elementari - è in sé completo, allora tutti gli aspetti della causalità fisica dipendono im. . · plicitamente da qualcosa che non è ivi fisicamente presente. Forse .. Taspetto più importante di questa incompletezza inerente a ogni oc~2 casione è l'intrinseco senso di una realtà animata. Whitehead conce-
I02
Natura incompleta
piva la prensione in termini attivi, come tendenza intrinseca di occasioni precedentemente isolate a collegarsi a, ed essere completate da, qualche occasione adiacente. In tal senso, la concepiva in termini intenzionali, anche se al più minimale dei livelli. Vedeva dunque nella prensione il più semplice esempio fisico di interpretazione. Un approccio micro~panpsichistico alla mente (o, altrimenti detto, un approccio micro-panvitalista alla vita) non risulta però tanto utile quanto si poteva sperare. Nel crescere in dimensioni e complessità dall'ambito micro a quello macro - per esempio dalle interazioni fra particelle alle creature viventi dotate di mente - la teoria di Whitehead spiega le speciali caratteristiche dei fenomeni viventi e mentali nei termini della speciale organizzazione delle «società» (sistemi?) di prensione di cui sono composti tali fenomeni complessi. Una mente diviene così una società di prensione particolarmente complessa e sinergica, in cui un grandissimo numero di azioni micro-interpretative messe insieme rende conto dell'emergere dell'esperienza soggettiva. Purtroppo, questa composizione di micro-homunculi a dare un macro-homunculus ignora un'importante differenza. Se il semplice fatto di essere costituito da una miriade di eventi prensionali fosse sufficiente a produrre lo stato senziente, allora un fiume in piena e una nuvola temporalesca dovrebbero esibire carattere mentale e po'testà causale intenzionale almeno quanto un cervello umano, e assai di più di un cervello di topo. Presumibilmente, per Whitehead ciò si può spiegare in virtù delle grandi differenze di organizzazione strutturale e funzionale che rendono i cervelli· tutti fra loro simili e tutti radicalmente diversi dai sistemi non viventi. Il sistema delle interazioni anche nel più semplice dei cervelli è di gran lunga più complesso, flessibile e diversificato di quello che compone un fiume o una nuvola temporalesca. In effetti, Whitehead fa appello a forme distinte di organizzazione per spiegare come mai certi complessi di prensioni sono associati con un'aperta soggettività e altri no. Se però quel che importa è h specifica complessità strutturale, allora assumere che c'era anche un qualche livello di micro-intenzionalità diffuso per tutti i processi componenti aggiunge poco alla spiegazione. La differenza di potestà causale e soggettività che distingue i processi che hanno luogo nei cervelli da quelli che avvengono nei fiumi
Homunculi
103
risiede nelle relative differenze di organizzazione. A meno di non voler immaginare che i fiumi abbiano stati soggettivi che però sono semplicemente impotenti in termini causali, sono gli aspetti organizzativi che distinguono un cervello da un fiume a darci tutto il potere esplicativo che distingue la materia senziente da quella non senziente, e i fenomeni entenzionali dai processi puramente meccanici. Resta ancora la necessità di spiegare le caratteristiche distintive degli attributi mentali in termini di tale organizzazione. Così, mentre la concezione dei processi fisici di Whitehead offre un precursore fisico per la finalità (nella tendenza attiva all'assimilazione dell'altro) e all'intenzionalità (nella fondamentale incompletezza delle occasioni attuali), nel complesso essa lascia però le caratteristiche distintive della vita e della mente ancora da spiegare nei termini della loro speciale forma di organizzazione. Qualcosa di giusto, in questa visione eraclitea del mondo, ci deve essere. Il processo è effettivamente fondamentale sia per la fisica sia per ogni concezione delle proprietà intenzionali. Sembra esservi un aspetto di tutti i fenomeni fisici che ha in sé un carattere di auto-destabilizzatione e di intrinseca incompletezza, cosa che è vera anche per i fenomeni entenzionali. Ma anche se la fondamentale incompletezza delle entità fisiche è una precondizione necessaria per un universo in cui esistano relazioni teleologiche, gli assunti panpsichistici non spiegano perché il carattere dei processi fisici as- · sociati alla vita e alla mente differisca tanto radicalmente da quello dei processi associati al resto della fisica e della chimica, persino della bizzarra fisica dei quanti.
Capitolo 3
Golem
La scienza non disumanizza l'uomo; lo de-homunculizza. B.F. Skinner 1
Schemi di eliminazione L'abitudine a riflettere su noi stessi in termini omunculari è per noi naturale, anche se poi ci lascia prigionieri di un gioco di specchi, un'interminabile galleria virtuale di riflessi di riflessi fra i quali è impossibile trovare una via d'uscita. Non c'è ragione di attenderci che l'evoluzione possa averci dotati di speciali lenti correttive con cui affrontare i problemi posti da questo genere di riflessioni su noi stessi. È nel regno delle interazioni sociali con altre creature a noi simili che abbiamo bisogno di strumenti per muoverci fra le difficoltà create dai processi entenzionali. Non ci capita spesso di doverci preoccupare del motivo per cui facciamo quel che facciamo, ed è raro che le nostre azioni ci colgano del tutto di sorpresa. Ma con gli altri ci succede spesso. Uno dei benefici attribuiti ad anni di psicanalisi o di meditazione è che possono darci una modesta capacità di intervento sulle nostre abitudini e predisposizioni, che per il resto rimangono escluse da ogni analisi. Ma la vita associata richiede continuamente di formulare ipotesi, previsioni e piani relativi alle azioni altrui. Molti studiosi dell'evoluzione mentale sostengono che questa capacità sia ben sviluppata solo in Homo sapiens. La capaci-
106
Natura incompleta
tà di sviluppare un modello mentale delle esperienze e delle intenzioni degli altri è spesso indicata dai ricercatori che indagano sul cornportarnento con l'espressione allusivamente umoristica di «lettura della mente». Malgrado le nostre qualità di esseri relativamente più evoluti, però, siamo ancora tutt'altro che bravi. Dato che farlo è difficile, e sbagliare è facile, trascorriamo una considerevole frazione delle nostre giornate a cercare di prevedere gli altri, e fin da molto piccoli sern_briarno predisposti a proiettare l'attesa che vi siano altre menti anche nei giocattoli inanimati. Quindi forse uno dei motivi per cui tendiamo a ragionate in termini di hornunculi anche in contesti in cui razionalmente sappiamo che non ha senso (carne nei cornportarnenti superstiziosi, o quando ci interroghiamo su cosa «significhi» una utile coincidenza) è sernplicernente che ci viene naturale. Questa abitudine psicologica, però, non dovrebbe esimerci in quanto filosofi e scienziati dall' esigenza di ragionare con maggior chiarezza intorno a simili questioni. D'altro canto, carne vedremo in seguito, evitare questo rnodo di pensare senza gettar via il bambino con l'acqua sporca è non solo difficile rna anche profondamente controintuitivo. Non solo chiamiamo in causa un sacco di hornunculi senza pensarci, rna anche tanti scrupolosi teorici che sisternaticarnente cercano di evitare di cadere in questo errore risultano spesso facile preda di qualche versione appena più sottile e criptica di questa fallacia. Per gli stessi motivi che la rendono tanto attraente, la fallacia dell'hornunculus è sfuggente e scivolosa da afferrare. Quando pensiamo di aver finalmente distrutto anche le ultime vestigia del nostro ingegnoso avversario, spesso rnolliarno la presa_, e rnanchiarno di notare la sua ricomparsa in forme più sottili e criptiche. Carne abbiamo osservato nel capitolo precedente, la maggior parte dei tentativi di considerare i fenomeni entenzionali tratta irnplicitarnente i dettagli decisivi della loro dinamica causale come fossero celati in un una scatola nera e, peggio ancora, invoca l'influenza causale di entità esplicitamente assenti. Per questo motivo, chi indaga le scienze della natura non può che fare ogni sforzo per evitare di assegnare un ruolo esplicativo nelle teorie ai processi entenzionali. E ogni volta che in campi come la biologia cellulare o le neuroscienze cognitive ci si imbatte in questioni di informazione o organizzazione funzionale le si tratta come segnaposto di natura eu1
Golem
ro7
ristica e si lavora per arrivare a rimpiazzarle con meccanismi fisici espliciti. Biologi e studiosi di neuroscienze cognitive considerano questa esigenza un imperativo, ed esaminano rigorosamente le proprie teorie per assicurarsi che siano libere da ogni accenno di teleologia. In termini filosofici, questo presupposto metodologico ha finito per esser chiamato materialismo eliminativo perché presuppone che tutti i riferimenti a fenomeni entenzionali possano e debbano essere eliminati dalle nostre teorie scientifiche e sostituiti da descrizioni di meccanismi di tipo materiale. Ma è poss~bile perseguire questa strategia di eliminazione in modo esauriente:' fino a sostituire ogni accenno di spiegazione entenzionale con spiegazioni meccanicistiche? E anche se lo fosse, potrà il risultato rendere conto in modo completo proprietà per cui la vita e la mente sono tanto diverse dall'energia e dalla materia? Io non dubito che un universo privo di fenomeni entenzionali sia possibile. Anzi credo che a un certo punto del lontano passato l'intero universo sia stato appunto in uno stato del genere. Ma non l'universo in cui viviamo adesso. Per questo motivo ritengo che questa impresa eliminativa sia costretta a sacrificare la completezza in nome della coerenza, lasciandosi dietro, incompiuto, qualcosa di importante. Abbiamo bisogno di spiegare la natura entenzionale della nostra stessa esistenza, non di spiegare che non esiste,
Le teste dell'idra A partire dall'Illuminismo, le scienze della natura hanno progressivamente affrontato il problema dell'homunculus cercando di stroncarlo. Il presupposto è che come principio esplicativo è illegittimo e, peggio ancora, accettarlo rischia di riammettere nella scienza divinità, demoni e simili surrogati, soprannaturale e dogmi. Come giustamente avverte il filosofo Daniel Dennett, accettare questo genere di spiegazioni significa contrarre un grave debito esplicativo. Ogni volta che il teorico propone di chiamare un evento, stato, struttura eccetera, in un qualsiasi sistema (come, diciamo, il cervello di un organismo) segnale, o messaggio o comando, o in qualche altro modo lo dota di contenuto, contrae un debito di intelligenza. ·... Tale debito deve alla fine essere ripagato indivi-
108
Natura incompleta
duando ed eliminando analiticamente ciò che «legge» o «comprende»; perché in mancanza di questo la teoria conterrà degli elementi antropomorfi non analizzati, dotati di intelligenza sufficiente per leggere segnali e così via. (Daniel Dennett, 1978) Un homunculus sta al posto di una spiegazione incompleta, e visto che, secondo il corrente canone scientifico, una buona spiegazione deve avere la forma di un'analisi meccanicistica, ogni riferimento a proprietà teleologiche attribuite ai siti in cui sta un homunculus deve essere sostituito da un meccanismo. Spesso però il tentativo di spiegazione che dovrebbe eliminare un. homunculus palese conduce alla sua involontaria sostituzione con tanti homunculi meno evidenti. Al posto di un ometto dentro la testa a svolgere il lavoro teleologico ci sono mappe sensoriali, invece di un élan vital che anima i nostri corpi geni che contengono informazione, molecole di segnalazione, recettori e così via. Tutto ciò mi ricorda la classica storia della lotta di Ercole con l'idra di Lema. L'idra era un mostro dalle molte teste. Quando si riusciva a tagliare una delle sue teste al suo posto ne crescevano altre due. Nel racconto mitico, Iolao, l'aiutante di Ercole, impedisce la crescita delle nuove teste cauterizzando i colli con il fuoco ogni volta che veniva mozzata una testa, finché anche l'unica testa immortale viene spiccata via e sepolta sotto un masso. A buon diritto si può dire che la testa è l'organo dell'intenzione: la fonte del senso e dell'agire. Come nel mito, i tentativi di rimuovere questo organo dell'intenzione non fanno che rendere più ardua la sfida, conferendo progressivamente maggior forza proprio al nemico che si sta cercando di domare, perché ricompare altrove. Nell'analogia fra questo mito e le teorie moderne, postulare una sede di causalità entenzionale non fa che trasmettere l'onere della spiegazione a .un processo ancora non spiegato che si verifica nella stessa sede o altrove, e che svolge il medesimo ruolo; solo che lo fa in modo meno ovvio. Il processo è dunque implicitamente incompleto, e forse anche impossibile a completarsi, visto che richiede che uno sforzo analogo da compiere in un qualche punto successivo dell'analisi si occupi di queste nuove creazioni. Lo sforzo di negare lo speciale carattere di processo entenzionale in quella sede, eliminando così ogni
Golem
!09
a
ri(erimento a fenomeni teleologici, serve soltanto dislocare questi ruoli funzionali in altri punti dell'apparato esplicativo. Al posto del problema di un homunculus finiamo per crearne un gran numero. E quello originale alla fine rimane. Allontanato dal corpo della teoria scientifica ma impossibile da mettere a t~cere, può solo essere nascosto da qualche parte, ma non eliminato definitivamente. L'analogia, e l'avvertimento, è davvero notevole. Un'esplicita proposta per far fuori l'homunculus in tema di causazione mentale è stata articolata da un pioniere dell'intelligenza artificiale, Marvin Minsky. Nel suo libro La società della mente, sostiene che malgrado l'intelligenza sembri un fenomeno unitario la sua organizzazione funzionale può essere compresa in termini di comportamento combinato di un gran numero di homunculi privi di mente e assai stupidi, che in ultima analisi per lui sono dei robot: computer semplici su cui girano algoritmi semplici. È un metodo efficace e consolidato per risolvere i problemi: spezzettarli in elementi sempre più piccoli finché nessuno di essi appaia troppo difficile. In quest'ottica, la mente va intesa come fatta da innumerevoli robot· privi di mente ciascuno dei quali esegue una piccola frazione di un compito «da homunculus»~ È lo stesso approccio cui pensa Dennett. Tutto dipende dall'idea che i processi mentali siano un effetto cu-. mulativo delle interazioni di minuscoli robot stupidi. Pur se in questo modo il problema dell'homunculus è suddiviso e distribuito, non è poi chi~ro che la riduzione di un'intenzionalità complessa a tante intenzionalità minuscole faccia qualcosa di più che dare l'impressione che la si possa semplificare e suddividere fino a dissolverla. Non è chiaro, infatti, dove si troverà questo punto di scomparsa. Anche· se intuitivamente si possono immaginare agenti sempre più semplici con capacità intenzionali sempre più stupide,. qual è il punto in cui smettono di essere intenzionali per diventare solo meccanismi? Finché bisogna dire che ciascuno degli agenti apparentemente ridotti genera le sue stupide risposte in base a informazioni, adattamenti, organizzazione funzionale e così via, ciò porta con sé problemi esplicativi in tutto e per tutto altrettanto seri di quelli che poneva l' ometfo dentro la testa, però moltiplicati e celati. Ciò che si presume eliminabile sono i concetti con cui la psicologia «ingenua» parla di fenomeni mentali come credenze, desideri,
IIO
Natura incompleta
intenzioni, significati e via dicendo. Diversi noti studiosi contemporanei di filosofia della mente, come Richard Rorty, Stephen Stich, Paul e Patricia Churchland e Daniel Dennett hanno argomentato a favore di varie versioni di una strategia eliminativa 2 • Anche se ciascuno sostiene una propria interpretazione di questa prospettiva, tutti hanno in comune l'assunto che questi concetti della psicologia ingenua dovranno da ultimo fare la fine di arcaici concetti delle scienze fisiche come il «flogisto», per essere sostituiti da descrizioni fisiche, neurologiche o computazionali più precise. Presumibilmente, la formulazione teleologica di questi concetti si limita a darci sostituti temporanei per una futura psicologia che alla fine riformulerà questi attributi mentali in termini puramente neurologici. Le versioni più forti di questa prospettiva vanno anche oltre, sostenendo che questi concetti mentalistici sono vacue entità fittizie come demoni e incantesimi. Mentre superficialmente questi tentativi cli eliminazione sembrano esplicativamente vittoriosi, e danno la breve impressione di poter ridescrivere un dato processo senziente in termini di meccanismi, creano invece un problema più arduo del precedente. Vedremo come presumere che le proprietà entenzionali possano essere eliminate limitandosi a tagliare ogni riferimento a esse dalla descrizione dei processi viventi o mentali le reintroduca inconsapevolmente in forma ancor più criptica. ·Frazionare un fenomeno complesso in elementi più semplici è una strategia consueta in quasi tutti i campi della scienza. Non è difficile trovare problemi complicati che si possono scomporre in un certo numero di problemi più semplici, ciascuno dei quali può poi essere risolto in maniera indipendente. I massimi successi della scienza sono quasi tutti dovuti ali' aver scoperto il modo migliore di spezzettare le cose in blocchi maneggevoli, per i quali i nostri strumenti analitici risultano adeguati. Ciò avviene perché la maggior parte dei fenomeni che incontriamo sono compositi a molti livelli di scala: pietre composte da microscopici granuli cristallini, granuli cristallini composti da «celle unitarie» regolari a scala atomica, celle cristalline composte di atomi, atomi composti di particelle e alcune di queste ultime composte di particelle ancor più piccole. Dovunque guardiamo, scopriamo questo genere di gerarchia di composizione a scale diverse. Questo però· non significa che sia universale,
Golem
III
o che il rapporto tra parti e intero sia semplice come sembra. I matematici riconoscono che certi problemi non ammettono soluzioni~ se si opera indipendentemente su parti separate, e i problemi di calcolo che non si possono scomporre in blocchi computabili indipendentemente non traggono vantaggio dalla potenza dell' elaborazione parallela. Anche se dunque può essere quasi una tautologia sostenere che tutti i fenomeni complessi che hanno delle parti possono esser descritti in termini di quelle parti, non è necessariamente vero che lo stesso insieme complesso può essere compreso una parte alla volta. Quelle che dal punto di vita di una descrizione possono sembrare le parti «giuste» potrebbero avere proprietà non descrivibili senza fare riferimento ad altre caratteristiche dell'intero che vanno a comporre. Per questo motivo preferisco fare una distinzione tra sistemi riducibili e sistemi scomponibili. La riduzione dipende solo dalla possibilità di identificare una granularità nei fenomeni complessi e dalla capacità di studiare le proprietà delle relative subunità in quanto distinte dai fenomeni collettivi da esse composte. La decomposizione richiede in più che le subunità in questione manifestino le stesse proprietà che presentano nell'intero, anche se del tutto isolate e indipendenti da esso. Un orologio, per esempio, è sia riducibile che scomponibile nelle sue parti, mentre un organismo vivente può essere analiticamente riducibile ma non è scomponibile. Le varie «parti» di un organismo si richiedono l'una con l'altra, perché si generano reciprocamente l'una con l'altra nell'organismo intero funzionante. Così un sistema scomponibile è per definizione riducibi-' le,' ma un sistema riducibile può anche non essere scomponibile. Il solo fatto che una cosa sia complicata e costituita da subunità distinguibili non significa che queste ultime diano abbastanza informazioni su come funziona una cosa, o come si forma, o perché nel suo insieme complesso presenta certe proprietà distintive. · La questione che ci sta dinanzi è se i fenomeni entenzionali siano soltanto riducibili o siano anche scomponibili. Io sostengo che mentre i fenomeni entenzionali dipendono dalle relazioni del substrato fisico, non sono però scomponibili in esse, ma solo in fenomeni entenzionali di ordine più basso. Ciò accade perché malgrado i fenomeni entenzionali siano necessariamente fisici, le parti in cui vanno scomposti non sono parti fisiche.
II2
Natura incompleta
A questo punto, la distinzione può sembrare una sottigliezza terminologica eccessivamente criptica, ma pur senza entrare nei dettagli possiamo almeno farci un'idea del perché ci può condurre al suddetto problema dell'idra. Se i fenomeni entenzionali complessi sono riducibili ma non scomponibili in meri processi fisici, è perché le loro componenti sono in un certo senso «infettate» da proprietà che sorgono al di fuori delle loro proprietà fisiche. Se dunque le si analizza isolatamente, il sito di tali proprietà viene ignora-' to, mentre tuttavia se ne riconosce l'espressione. Dato che ciò accade per ognuna delle parti analizzate, quella che prima era una caratteristica entenzionale unitaria è ora trattata come innumerevoli fenomeni micro-entenzionali ancora più criptici. Si considerino, per esempio, Ìe complesse molecole di DNA che, mediante un'analisi riduzionistica, riconosciamo come componenti di un organismo. Ciascuna sequenza nucleotidica in cui sia codificata una proteina ha caratteristiche che possono essere intese come aventi una funzione adattativa evolutasi in risposta a determinate esigenze poste dalle condizioni dell'esistenza di quella specie. Ma attribuire a queste sequenze proprietà come essere adattative, servire a una funzione o immagazzinare informazione significa prendere a prestito una proprietà dal tutto e attribuirla alla parte. Queste proprietà esistono solamente, per la sequenza nucleotidica in questione, in un particolare contesto sistemico, e potrebbero benissimo cambiare se cambiasse il contesto, nella vita dell'organismo o lungo le generazioni. Ciò che a un certo punto poteva essere funzionale potrebbe diventare disfunzionale in un altro momento, e viceversa. Come vedremo di seguito, sia che ascriviamo proprietà entenzionali cripticamente semplificate ad algoritmi di computer sia che le attribuiamo a molecole biologiche, se poi le trattiamo come proprietà fisiche intrinseche non facciamo che accrescere il mistero. Nel tentativo di dissolvere il problema per via di suddivisione, finiamo per moltiplicare i misteri da risolvere.
Verità mortali Nel folklore ebraico tardo-medievale si narra di una creatura detta golem. Un golem è fatto di argilla foggiata in figura d'uomo, e animato da un potente rabbi mediante magici incantesimi. Men-
Golem
Il3
tre l'onnipotente Jahweh ha sia la capacità di dar forma d'uomo all'argilla sia quella di infondervi l'anima, il mistico può solo dotare la sua creatura della capacità di movimento, lasciandola però priva d'anima. çome i sofisticati robot dell'odierna fantascienza, il golem può anche agire in modo simile a una persona ma, al contrario che nelle persone, dentro di lui non c'è nessuno. Il golem può percepire senza sentire, interagire senza capire, agire senza discernere. È solo una statua d'argilla animata, che segue i comandi del suo creatore, come un robot si limita a eseguire i suoi programmi. Se consideriamo l'homunculus come l'incarnazione delle proprietà entenzionali che si infiltrano nelle nostre teorie, possiamo prendere il golem a simbolo della cosa opposta: processi che sembrano di tipo mentale ma sono privi di proprietà entenzionali. Se l'homunculus è l'omino dentro la mia testa, il golem è l'uomo dalla testa vuota, uno zombie. Gli zombie sono altre creature mitiche, strettamente imparentate, che di recente sono state chiamate in causa nelle discussioni sulla realtà o meno dei fenomeni mentali. La concezione dello zombie nella cultura popolare ha origine nella mitologia del vudu, in cui le persone sono «Uccise» e poi rianimate, ma senza più mente né anima, e quindi schiave dello stregone l~ro padrone. Sono, con un termine alquanto enigmatico, non-morti. In senso filosofico, uno zombie è uguale a una persona per ogni aspetto fisico - capace di camminare, parlare, guidare un'auto nel traffico e dare risposte ragionevoli a domande complicate sulla vita - ma completamente privo di ogni esperienza soggettiva associata a tali comportamenti. La plausibilità di questo tipo di zombie, realmente indistinguibile da una persona normale per ogni altro aspetto tranne questo, è spesso indicata a fini di reductio ad absurdum come implicazione di una concezione interamente eliminativa. Se i fenomeni mentali soggettivi, come il senso dell'agire personale, possono essere interamente spiegati dalla fisica e dalla neurochimica dei processi cerebrali, allo.ra l'elemento della coscienza non sta svolgendo alcun ruolo esplicativo addizionale. E non dovrebbe importare se sia presente o no. Senza arrivare a simili estremi, possiamo riconoscere esempi faIlliliari di quella che potrebbe esser chiamata una condizione quasi da zombie. Spesso ci rendiamo conto che sono passati minuti in cui e"ravàmo impegnati in un compito che esige un'abilità complessa,
Il4
Natura incompleta
come guidare un'auto, eppure non abbiamo alcun ricordo di aver preso le relative decisioni o di aver notato i cambiamenti del paesaggio o i dettagli della strada. È come andare col pilota automati- . co. Nei fatti, probabilmente la vasta maggioranza dei processi cerebrali che contribuiscono al nostro comportamento momento per momento e all'esperienza soggettiva non è mai associata con la coscienza. In questo senso, abbiamo almeno un certo senso personale della nostra parziale natura di zombie (il che probabilmente rende il concetto intuitivamente concepibile). E molti di questi comportamenti coinvolgono credenze, desideri e propositi. Il vero problema posto da golem e zombie è che qualcosa che in superficie sembra essere dovuto ai propositi intrinseci di queste entità sia in realtà freddo meccanismo morto. Nel classico racconto medievale un golem veniva animato per proteggere la discriminata popolazione ebrea di Praga, ma finiva per produrre più male che bene a seguito del suo inflessibile comportamento insensato. Secondo una versione di questa storia, la capacità di movimento era «ispirata» nella figura d'argilla scrivendo sulla sua fronte la parola ebraica che significa «verità»: no~ 3. Così animato, il golem era in grado di eseguire autonomamente i comandi del suo creatore. Ma proprio l'inflessibile e letterale esattezza con cui svolgeva la sua missione portava a disastri imprevisti. Quando fu chiaro che il comportamento del golem era impossibile da incanalare solo verso il bene divenne ne-. cessario fermarlo. Per farlo, fu necessario cancellare una delle lettere scritte sulla sua fronte, lasciando così la parola che significa morte: no. Con ciò, il golem tornò a essere un grumo d'argilla inanimato. Questo mito è una delle tante storie sull'inevitabile rovina che colpisce l'uomo che cerca di emulare un dio, di cui la storia del mostro di Frankenstein scritta da Mary Shelley è il prototipo moderno. Non sorprende che le variazioni sul tema del golem e su quello di Frankenstein abbiano ispirato numerosi racconti morali contemporanei. Gli scrittori di fantascienza dei nostri giorni hanno trovato in questo tema della hybris scientifica un ricco filone di storie appassionanti. Fra l'assunto del mistico che il golem sarebbe stato pienamente controllabile e quello degli scienziati che i processi della vita e della mente possano essere intesi come congegni a orologeria c'è molto in comune. Come l'homunculus, il golem può essere preso a simbolo di un fenomeno assai più generale.
Golem
II5
Nel mito del golem c'è un'implicazione più sottile, rappresentata dal gioco di parole tra verità e morte. Oltre a non avere anima, a essere una creatura che esegue gli ordini con meccanica assenza di passione, il golem manca di discernimento. È questo che alla fine conduce alla rovina; non una qualche malevolenza, né da parte del golem né nel suo creatore. La verità è senza cuore e meccanica, e non ci si può fidare che lasciata a se stessa conduca solo al bene. La «verità» che può essere affermata è inoltre finita e fissa, mentre il mondo è infinito e cangiante. Incaricato, quindi, di eseguire ciò che comporta un dato comando, il golem perde in fretta, e sempre più gravemente, ogni sintonia con il contesto in cui si trova. Quindi un golem può essere visto come conseguenza assai concreta dell'investire un'implacabile logica di facoltà animate. I veri golem dei nostri giorni non sono esseri viventi artificiali ma piuttosto burocrazie, sistemi legali e computer. Nel modo in cui sono progettati come nel loro ruolo di schiavi infallibilmente letterali, i computer numerici sono l'epitome di una creazione in cui si incarna il mantenimento di una verità resa animata. Come il golem del mito, sono servitori devoti, ma insensati. Per questo, come il golem sono privi di discernimento e possono provocare disastri. Un computer è logica incorporata in un meccanismo. Lo sviluppo della logica è venuto dalla riflessione sul modo in cui sono organizzati i procedimenti del ragionamento umano. Però la logica non è pensiero, e neppure ne cattura l'essenza, che è la sua qualità di riguardare qualche cosa. Non è che lo scheletro del pensiero: sintassi senza semantica. Come uno scheletro vivente, questa intelaiatura di sostegno si sviluppa come parte integrante di un organismo intero, e non è né presente prima della vita né utile in sua assenza. La natura di golem della logica viene dalla sua fissità e chiusura. La logica è, in ultima analisi, una struttura fuori dal tempo. Funziona ad assicurare inferenze valide perché non prevede scelte o alternative. Dunque l'intero tessuto dèll'inferenza deduttiva valida è di necessità preformato. Si consideri la natura di un'argomentazione deduttiva, come quella del classico sillogismo: I. Tutti gli uomini sono mortali 2. Socrate è un uomo dunque 3. Socrate è mortale
rr6
Natura incompleta
Ovviamente, 2 e 3 sono già contenuti in I. Sono impliciti (etimologicamente «ripiegati dentro») in essa, anche se non esplicitamente presenti nelle stesse parole esatte. La ridondanza della menzione della parola «uomo» in I e 2 richiede che se I e 2 sono vere allora 3 ne deve seguire necessariamente. Un altro modo in cui lo si sarebbe potuto dire è che (1) la collezione di tutti gli uomini è contenuta nella collezione di tutti i mortali, e (2) Socrate è contenuto nella collezione di tutti gli uomini, dunque inevitabilmente, (3) Socrate è anche contenuto entro la collezione di tutti i mortali. Messa in questo modo, si può vedere che la logica è concepibile anche come necessario attributo della nozione di contenenza, sia nello spazio fisico sia nello spazio astratto delle categorie e classi di cose. La contenenza è uno dei concetti spaziali più basilari. Quindi ci sono buone ragioni per attenderci che anche il mondo fisico debba funzionare in questo m~do. Non dovrebbe sorprenderci, quindi, che la logica e la matematica siano potenti strumenti di con cui modellare i processi naturali e che possano persino dare anticipazioni di meccanismi fisici. L'inferenza deduttiva permette di trarre una conseguenza sola, e sempre la stessa, dallo stesso antecedente. Il mondo meccanico appare condividere la stessa connettività non divergente degli eventi, da cui.la sua prevedibilità. La matematica è così una strategia di manipolazione dei simboli governata dalle stesse limitazioni della causalità fisica, almeno in termini newtoniani. I processi meccanici possono per questo motivo esser costruiti in modo precisamente parallelo alle inferenze logico-matematiche, e viceversa. Ma la simbolizzazione matematica è finita, e ciascuno dei due membri di un'equazione specificante una possibile trasformazione è completo e limitato. Le macchine, quali noi esseri umani le costruiamo o le immaginiamo con i nostri modelli, sono anch'esse in un certo modo astrazioni fisiche. Noi costruiamo le macchine in modo che siano in larga misura immuni da ogni genere di piccole perturbazioni, in modo da poterle usare come se fossero interamente determinate e prevedibili rispetto a certi selezionati esiti. In questo senso, le costruiamo in modo che di regola possano ignorare influenze come espansioni e contrazioni termiche o il logorio dovuto all'attrito, anche se poi queste possono dare problemi se non vi si provvede con regolarità. Che una macchina sia un'idealizzazione diventa ovvio pro-
Golem
rr7
prio quando questo genere di effetti perturbatori si fa evidente: allora diciamo che la macchina non funziona più. Questa equivalenza tra logica, matematica e macchina è stata formalizzata, nel senso opposto, quando Alan Turing mostrò come, in linea di principio, ogni operazione matematica valida che possa essere precisamente definita ed eseguita in un numero finito di passi può anche essere modellata dalle azioni di una macchina. Questa è l'essenza del calcolo. Una «macchina di Turing» è un'astrazione che modella efficacemente la manipolazione dei simboli in un processo inferenziale (come la soluzione di un'equazione matematica) nei termini delle azioni di una macchina. La «macchina universale» di Turing comprende un mezzo di registrazione (egli immaginò un nastro di carta) un dispositivo fisico di lettura e scrittura, capace di scrivere, leggere o cancellare simboli sul mezzo e dal mezzo, e un meccanismo in grado di controllare in che punto del mezzo debba aver luogo l'azione successiva (per esempio, muovendo il nastro di carta). Il vincolo essenziale di questo principio è quello della completa specificazione. Turing riconobbe che vi era tutta una serie di problemi che non potevano essere calcolati con l'approccio della sua macchina universale. Oltre a tutto ciò che non può essere completamente specificato fin dall'inizio, vi sono molti tipi di problemi per cui non si può determinare se il calcolo sarà condotto a termine; L'una e l'altra cosa esemplificano i limiti di questa idealizzazione. Si consideri, tuttavia, che nella misura in cui mappiamo i processi fisici su logica, matematica e funzionamento delle macchine, il mondo ne risulta modellato come fosse preformato, e ogni esito fosse implicito nello stato iniziale. Ma lo stesso Turing riconosceva che la mappatura tra il calcolo e il. mondo non è simmetrica. Lo . spiega bene Gregory Bateson. In un computer, che funziona secondo causa ed effetto, con un transistor che ne attiva un altro, le sequenze di causa ed effetto sono usate per simulare la logica. Trent'anni fa la domanda era: può un computer simulare tutti i procedimenti della logica? La risposta è «SÌ», ma la domanda era senz'altro sbagliata. Avremmo dovuto chiederci: può la logica simulare tutte le sequenze di causa ed effetto? E la risposta sarebbe stata no. (Bateson 1979).
II8
Natura incompleta
Quando dunque lo si estrapola al mondo fisico in generale questo parallelismo astratto ha una serie di implicazioni alquanto destabilizzanti. Suggerisce infatti nozioni come predestinazione e fato: la visione di un atemporale e cristallino mondo quadridimensionale in cui non vi sono sorprese. Cosa che rientra nei problemi legati alla spiegazione delle relazioni intenzionali, quali finalità, relazionalità e coscienza, perché come fanno da secoli notare teologi e filosofi, nega ogni spontaneità, ogni agenzia e ogni creatività, e fa di ogni evento qualcosa di passivamente necessario, già prefigurato nelle condizioni precedenti. Conduce insomma inesorabilmente a una fotma di universale preformismo. Paradossalmente quindi, questo passo nella direzione di un super-homunculus elimina tutti gli homunculi, ma nel farlo non ci aiuta per nulla a capire il nostro carattere omunculare. Invece dovremmo stare bene attenti, qui, a non prendere la mappa per il territorio. La sintassi logica è costituita da ciò che necessariamente consegue quando si assume che i significati siano discreti, fissi e privi di ambiguità. Un meccanismo è anch'esso un'astrazione dello stesso genere. Certe proprietà delle cose devono essere mantenute costanti perché le loro combinazioni e interazioni possano essere interamente coerenti e prevedibili. Nell'uno e nell'altro caso, dobbiamo fingere che il mondo manifesti precisione e finitezza, trascurando determinati dettagli del mondo reale. Curiosamente, anche ammettendo questa sorta di ideale separa.:. bilità totale della sintassi dalla semantica della logica non c'è garanzia di completa prevedibilità. È ampiamente riconosciuto che famosa prova di incompletezza di Kurt Godel, del 1931, dimostra che di una simile idealizzazione dobbiamo accettare o che sia incompleta o che sia incoerente. Purché un sistema sintattico sia potente quanto l'algebra elementare e consenta di assegnare valori alle sue espressioni, dovrà sempre ammettere questa scappatoia. La significatività di questa limitazione, tanto per i computer quanto per i processi mentali, è stata largamente esplorata, ma non si è ancora giunti a conclusioni decisive. A ogni modo, resta l'avvertimento che una simile idealizzazione non è scevra da propri specifici problemi. Un golem completo e coerente non è, per questo motivo, ottenibile. Semplificando un po', il problema risiede nell'assunto stesso che sintassi e semantica, logicà e rappresentàzione siano reciprocamen-
Golem
II9
te indipendenti. Un golem è sintassi senza semantica, logica senza rappresentazione. Non c'è nessuno dentro il golem perché non c'è alcuna rappresentazione possibile: né significati, significatività o valori, solo un meccanismo fisico, una cosa dopo 1' altra con terribile e inflessibile coe~enza. Il punto è tutto qui. La vera questione, per noi, è se davvero quella del golem sia la sola alternativa che non introduca di contrabbando piccoli esserini analoghi all'uomo cui far svolgere il lavoro della cognizione. Davvero se eliminiamo gli homunculi ci restano solo dei golem? Un golem, come abbiamo visto, è un'idealizzazione. La logica formale assume già che le variabili delle sue espressioni siano potenziali rappresentazioni. Si limita a metterle da parte per esplorare soltanto i vincoli puramente relazionali che devono rispettare. Forse dunque è bene sospettare che ogni volta che ci imbattiamo in un golem ci sia da qualche parte un homunculus nascosto, un tizio dietro un sipario o un rabbi dai magici incantesimi, a tirar fili quasi invisibili.
Il fantasma nel computer Il comportamentismo fu in origine concepito come rimedio alla. tacita accettazione di facoltà omunculari al posto di spiegazioni ·psicologiche. Dire che un desiderio, una voglia, un'idea, un progetto è la causa di un qualche comportamento non fa che sviare 1'attenzione verso un segnaposto che - malgrado sia familiare all'introspezione e alla «psicologia ingenua» - è solo una «scatola nera» non . analizzata quanto al suo meccanismo causale. Skinner e colleghi credevano che una psicologia scientifica dovesse sostituire queste nozioni omunculari con fatti osservabili, come gli stimoli presenta•ti agli organismi e i loro comportamenti. Il risultato sarebbe stato · una scienza naturale del comportamento, solidamente fondata su dati empirici del tutto privi di ambiguità. .. Sfortunatamente, con il senno di poi, per la psicologia il rime·. dio fu quasi mortale. Nello sforzo di evitare queste spiegazioni circolari, il comportamentismo ha ignorato il ruolo di pensieri ed . esperienze, trattandoli come tabù, e dunque pretendendo che gli , aspetti più notevoli dell'avere un cervello funzionante fossero me;, re fantasie metafisiche. I ricercatori di scuola comportamentista do-
120
Natura incompleta
vevano inoltre ignorare anche il «comportamento» che ha luogo dentro il cervello, per i limiti tecnici del tempo. Negli ultimi decenni, però, l'influenza del comportamentismo classico si è affievolita, le neuroscienze hanno accoppiato alla metodologia comportamentista precise misure del «comportamento» neurologico, come quelle ottenute dalle registrazioni elettriche dell'attività dei neuroni o con la visualizzazione in vivo dei correlati metabolici dell'attività cerebrale. Ma anche con queste estensioni verso l'interno, questa logica continua a trattare il contenuto del pensiero o delle esperienze come se non svolgessero alcun ruolo in ciò che succede. Ci sono comportamenti e basta: di organismi interi e delle loro parti. Con il suo dogma minimalista, il comportamentismo è stato uno dei primi seri tentativi di definire esplicitamente una metodologia con cui evitare la fallacia dell'homunculus in psicologia, basando così questo campo di studi sulle sole evidenze fisiche. Ma l'indicazione più puntuale che se ne trae è che il problema dell'homunculus non se ne andrà a forza di ignorarlo. Anche se dalle applicazioni più sottili e attente agli aspetti neurologici della logica comportamentista sono venuti notevoli elementi di comprensione della funzion.e cerebrale e del controllo senso-motorio, in definitiva essa non ha fatto che posporre ancora il problema di spiegare il rapporto tra l'esperienza mentale e la funzione cerebrale. Negli anni sessanta il dominio del comportamentismo è tramontato. C'è un certo numero di battaglie ben identificabili ~he segnarono il punto di svolta 4, ma più di tutto fu la sua austerità, e 1' assurdità di trascurare il regno celato della cognizione, a condurre alla caduta del comportamentismo. Tuttavia, l'allergia all'homunculus che lo caratterizzava non fu abbandonata in questo passaggio. Un elemento chiave, probabilmente, del successo delle nuove scienze cognitive cresciute negli anni settanta è che queste trovarono il modo di incorporare uno studio empirico di questa dimensione nascosta della psicologia, continuando però in apparenza a evitare la temuta fallacia dell'homunculus. La soluzione fu concepire i processi mentali per analogia con quelli di elaborazione numerica, gli algoritmi. Lentamente, nei decenni successivi, computer e calcolo sono di- · ventati sempre più un ovvio e banale fatto della vita. Oggi si dà una
Golem
121
voce sintetizzata persino ad auto, sistemi GPS ed elettrodomestici da cucina, che con essa ci parlano del loro stato di funzionamento. E ogni volta che cerco di fare una telefonata a un'azienda per risolvere un malfunzionamento di un elettrodomestico o discutere di una fattura generata da un computer per qualcosa che non ho acquistato, mi tocca cominciare rispondendo a domande poste da un software con voce tranquillizzante ma non del tutto umana. Nulla di tutto ciò, ovviamente, è più che un dispositivo elettronico automatico di commutazione. Con questa nuova metafora della mente sembrò che gli homunculi che Skinner stava cercando di evitare fossero :finalmente stati esorcizzati. Il problema di identificare quali dei circuiti o sub-organi del cervello potessero costituire il «sé» fu ampiamente riconosciuto come una domanda che non andava posta. La maggior parte delle.persone, scienziati e no, poteva immaginare il cervello come un computer particolarmente potente, disegnato con squisita precisione e governato da programmi di controllo quasi perfetti. Non c'era posto per ometti, e nulla che ne prendesse il posto. Pareva dunque che la nostra immaginazione potesse infine fare a meno di questa stampella. Negli anni ottanta e novanta questa metafora fu poi affinata ed estesa. Malgrado le vaste differenze consapevolmente riconosciute tra le architetture del cervello e del computer, l'analogia con le macchine è diventata l'ipotesi di lavoro comune del nuovo campo di ricerca. Molti dipartimenti di psicologia si sono trovati incorporati in più vasti programmi di scienze cognitive, di cui facevano parte anche ricercatori informatici e filosofi. Prendendo sul serio l'analogia, si è spesso finito per trattare la cognizione come un software che girasse sull'hardware del cervello. C'erano sistemi di input, di output, database venuti dall'evoluzione e algoritmi acquisiti a collegarli e a tener vivi i nostri corpi quel tanto che basta da assolvere .decentemente il compito della riproduzione. Non c'era bisogno di . nulla e nessuno che vegliasse dal di fuori su questo sistema di algo. ritmi incarnati, che desse il via a cambiamenti nel suo funzionamento, o che registrasse che stava avvenendo qualcosa. Andava avanti l'elaborazione, e basta. !;. · Per molti versi però questo salto dalla padella del comportamen~y:tismo portava solo dentro una brace computazionale. Come già per
122
Natura incompleta
il comportamentismo, la stretta aderenza a un'analogia meccanicistica, necessaria per evitare manifesti assunti omunculari, avveniva a prezzo di non lasciare spazio a spiegazioni dell'esperienza della coscienza o del senso di agenzia mentale, e finiva poi per ridurre le nozioni di rappresentazione e significato a una specie di scherni fisici. Come in una segreta reincarnazione del comportamentismo, quindi, gli studiosi di scienze cognitive si sono trovati a discutere della probabilità che queste esperienze mentali non offrano in realtà alcuna capacità esplicativa ulteriore rispetto alle immediate attività materiali dei neuroni. Di quale funzione addizionale ci sarebbe bisogno, se si può postillare un algoritmo per spiegare ogni comportamento? E anzi, perché mai dovrebbe essersi evoluta la coscienza? Anche se il passaggio dal comportamentismo e dalla sua esclusiva concentrazione sull'esterno alle scienze cognitive con la loro varietà di approcci alle attività mentali interne sembrò segnare una svolta radicale, queste due prospettive sono imparentate a un livello più profondo. L'una e l'altra cercano di eliminare gli homunculi mentali per sostituirli con relazioni fisiche di corrispondenza tra fenomeni fisici. Ove però i comportamentisti assumevano che sarebbe stato possibile scoprire tutte le regole rilevanti della psicologia nei rapporti tra stati in ingresso e risposte in uscita, i computazionisti portavano la stessa logica all'interno. Un calcolo, nella definizione dell'informatica, è una descrizione di un funzionamento della macchina di andamento regolare. Per esempio, chiamiamo calcolo uno specifico processo della macchina se siamo in grado di assegnare un insieme di interpretazioni ai suoi stati e alle sue operazioni in modo da farli corrispondere alla sequenza dei passi che si potrebbero compiere in operazioni come il calcolo di una somma, l'organizzazione di una serie di cartelle, il riconoscimento di caratteri tipografici, o l'apertura di una porta quando qualcuno cammina verso di essa .. Sotto questo aspetto, il modo in cui funziona il mio computer da tavolo, come ogni altra macchina da calcolo, non è che l'equivalente elettronico di una serie di leve, pendoli, molle e ingranaggi che interagiscano consentendo ai cambiamenti che si verificano in una parte del meccanismo di produrre cambiamenti in altre parti di esso. Non è essenziale che siano realizzati in circuiti elettronici; ciò si limita a darci la conve-
Golem
123
nienza di facile configurabilità, dimensioni ridotte e altissima velocità di funzionamento. Le macchine che usiamo come computer possono essere definite «macchine universali» perché sono fatte per poter essere configurate in un numero quasi infinito di possibili disposizioni di cause ed effetti. Ogni configurazione specifica può essere ottenuta mediante istruzioni che sono essenzialmente una lista delle configurazioni di commutatori necessarie a determinare la sequenza di operazioni che si farà realizzare alla macchina. Il software è qualcosa di più di una procedura automatizzata per configurare interruttori solo nella misura in cui la serie di operazioni fisiche che descrive corrisponde anche a operazioni fisiche o mentali eseguite secondo una logica, di significati o pragmatica, organizzata per raggiungere uno specificato fine. Così, per esempio, la descrizione dei passi relativi alla soluzione di un'equazione con carta e penna è stata formalizzata per assicurare che quelle manipolazioni di caratteri condurranno a risultati affidabili quando i caratteri torneranno a essere mappati su effettive quantità numeriche. Dato che queste operazioni fisiche possono essere descritte in modo preciso e privo di ambiguità, ne segue che ogni possibile modo di eseguire una manipolazione a esse corrispondente porterà a risultati equivalenti. Le implicazioni della possibilità di specificare questo tipo di corrispondenze tra operazioni meccaniche e manipolazioni di simboli dotate di senso è stato il progresso concettuale che ha dato origine all'età del computer di cui oggi godiamo. Un'azione eseguibile da una persona per un certo scopo si può far eseguire anche a una macchina, purché questa sia organizzata in modo che i vincoli fisici imposti al suo funzionamento possano essere fatti corrispondere uno per uno alle azioni umane. Ciò sembrava implicare che se gli stessi mo'vimenti, sostituzioni e rimaneggiamenti di «segni» di natura fisica potevano essere specificati sia in virtù di principi dotati di significato sia di principi puramente fisici, allora per ogni operazione mentale si dovrebbe poter escogitare una corrispondente operazione meccanica. Il mistero di come un'idea potesse avere una determinata conseguenza fisica pareva risolto. Se le operazioni definite in termini teleologici possono concretizzarsi in operazioni puramente fisiche, non potremmo allora fare a meno della teleologia e concentrarci su questa natura fisica?
124
Natura incompleta
La b'allata di Deep Blue La versione classica di questa posizione è detta teoria della mente come computer, e in una forma o nell'altra è in giro fin dagli albori dell'età del computer. Essenzialmente la si può sintetizzare nell'affermazione che la manipolazione dei segni del pensiero - equivalenti neurali delle stringhe di caratteri, o degli schemi ricorrenti di potenziali elettrici in un computer - ne descrive in modo completo il processo. L'input proveniente dai sensori comporta la sostituzione delle interazioni fisiche con alcuni di questi elementi («bit») di informazione, pensare su di essi comporta rimaneggiarli sostituirli con altri, e agire rispetto a essi comporta la trasduzione del risultante modello di attività neurale in schemi motori dei muscoli. Il modo in cui hanno luogo queste varie traduzioni da un modello al1' altro non richiede che ci sia qualcuno che faccia da centro di controllo, ma solo un insieme di algoritmi e strutture circuitali ereditati o acquisiti. Ma è vero che il calcolo è pienamente descritto solo da questo processo fisico o c'è bisogno di qualcosa di più per distinguerlo dal semplice rimescolamento fisico di molecole neurali o differenze. di potenziale elettrico? Un anello debole di questa catena di assunti si cela dentro il concetto di algoritmo. Un algoritmo è un insieme preciso e completo di istruzioni per generare un processo e ottenere una specifica conseguenza. Un'istruzione è una descrizione di ciò che deve avvenire, ma una descrizione non è in sé un processo fisico. Dunque un algoritmo occupa una sorta di posizione intermedia. Non è né un'operazione fisica né una rappresentazione di significati o scopi. E non è neppure un aspetto ulteriore del meccanismo. È piuttosto una relazione di mappatura tra qualcosa di meccanico e qualcosa di significativo. Ciascuno dei caratteri o stringhe di caratteri interpretabili del linguaggio di programmazione corrisponde a qualche operazione fisica della macchina, e imparare a usare questo codice significa imparare come una data operazione della macchina sarà mappata in una corrispondente manipolazione dei segni cui può essere assegnata un'interpretazione significativa. Nel corso dei numerosi decenni in cui si è sviluppato il calcolo, gli informatici hanno
e
Golem
125
sviluppato modi sempre più sofisticati di costruire tali mappature. E finché si realizza un'appropriata mappatura per ciascuna macchina diversamente organizzata, lo stesso algoritmo astratto può essere adottato su meccanismi fisici anche assai diver;si e produrre risultati descrittivamente equivalenti. Ciò perché il livello di descrizione di cui fa parte l'algoritmo dipende solo da una mappatura su certe proprietà macroscopiche di superficie della macchina. Queste ultime sono state organizzate in modo tale da permetterci di ignorare la maggior parte dei dettagli fisici salvo quelli che corrispondono a determinate manipolazioni di simboli. Ulteriori passi di traduzione (algoritmi per interpretare algoritmi) consentono a un algoritmo o ai relativi dati di esser codificati in forme fisiche diverse (per esempio, in schemi di «fori» otticamente riflettenti su un disco o di particelle magnetiche orientate su un nastro) consentendone l'immagazzinamento e il trasferimento indipendentemente da ogni particolare meccanismo. Ovviamente, questa equivalenza interpretativa dipende dalla garanzia che tale relazione di corrispondenza sia ristabilita ogni volta che avviene la mappatura su uno specifico meccanismo (il che pone problemi man mano che cambia la tecnologia . dei computer). Sotto questo aspetto, gli algoritmi (o, più colloquialmente, il software) hanno un utile attributo in comune con tutte le forme di descrizione: non specificano tutti i dettagli causali (per esempio, fi·. no al livello degli elettroni e dei nuclei atomici). Neanche il pro· . cesso di traduzione arriva a tanto s. Questa capacità di ignorare molti dettagli causali di livello microscopico è resa possibile dal fatto che· un congegno di calcolo ben progettato limita le sottili variazioni dei suoi stati, così da tendere ad assumere solo stati discreti distinguibili senza ambiguità. Sono così possibili molte differenti realizzazioni fisiche dello stesso processo di calcolo. È solo necessario che sia vincolato abbastanza perché i suoi macro-stati replicabili e le sue possibili transizioni di stato corrispondano al livello di dettaglio descrittivo richiesto dall'algoritmo. Come le parole stampate a inchiostro su una pagina (che spesso uno dei modi in cui è codificato e immagazzinato il software per{ ché vi accedano gli esseri umani), ogni concretizzazione del codi(;, ce è solo uno schema fisico. Ciò che ci spinge a consideralo qual:..
126
Natura incompleta
cosa di più è la sua potenziale capacità di organizzare le operazioni di una macchina appositamente progettata. Ma questo «qualcosa di più» non è intrinseco al software, né alla macchina, né alla possibi. lità di mappare il software sulle operazioni della macchina. È qualcosa di più solo perché noi riconosciamo questo potenziale. Allo stesso modo in cui il testo stampato di un romanzo non è che carta e inchiostro senza una mente umana a interpretarlo, il software non è che uno schema salvo che per essere interpretabile da un'appropriata macchina per un appropriato utente. La questione che resta irrisolta è se l'esistenza di una corrispondenza determinata tra tale schema e un qualche schema della dinamica della macchina costituisce un'interpretazione nel senso offerto da un lettore umano. Anche il lettore di un romanzo sta semplicemente usando lo schema dei segni a inchiostro sulla pagina per specificare certe «operazioni macchina» del suo cervello? È sufficiente la realizzazione di tale corrispondenza a costituire il significato del testo? O c'è qualcosa di più di queste operazioni fisiche? Qualcosa cui si riferiscono l'uno e le altre? Uno degli eventi che hanno segnato l'ultimo decennio del XX secolo, in tema di intelligenza e calcolo, è stata la sconfitta· del campione mondiale di scacchi, Garry Kasparov, da parte di un programma per computer, Deep Blue. Per molti versi, è la moderna controparte di una storia, e una ballata, che fa parte delle grandi tradizioni popolari americane: quella di John Henry. John Henry; così narra la ballata, era uno steel-dri.vin' man, un uomo che martellava l'acciaio: l'incarnazione quasi sovrumana del1'operaio delle ferrovie; il suo lavoro era conficcare a colpi di mazza le caviglie d'acciaio nelle traversine che tengòno in posizione le rotaie. Era un uomo grande e grosso, con la reputazione di essere il più forte e il più abile di tutti g~ «uomini dell'acciaio». L'introduzione di una macchina per la battitura delle caviglie azionata a vapore, a metà del XIX secolo, minacciava di rendere inutile il suo lavoro 6 • Al centro della storia sta una sfida traJohn Henry e la macchina. Alla fine, John Henry riesce a stare alla pari con la macchina, ma a costo della vita. Nella versione moderna della storia, di solito Kasparov riusciva a imporre la patta a Deep Blue, ma per l'uomo era faticoso al pun-
Golem
127
to da esaurirne le forze, mentre la macchina non provava nulla. Alla fine, in tutte e due le sfide, la macchina resiste più dell'uomo che si misura con essa. La vittoria di Deep Blue su Kasparov ha segnato la fine di un'era. Almeno per il gioco degli scacchi, l'intelligenza della macchina poteva battere il meglio di quel· che la biologia aveva da offrire. Ma in mezzo ai festeggiamenti degli informatici e ai lamenti dei commentatori sulla supremazia dell'intelligenza al silicio, c'era qualcuno che non era poi così certo che ciò cui aveva assistito fosse proprio questo. Il campione del mondo di scacchi aveva giocato contro una macchina intelligente o contro centinaia di programmatori-scacchisti? Inoltre, queste numerose decine di programmatori-scacchisti potevano incorporare nel programma librerie quasi illimitate di partite giocate in passato e potevano trarre vantaggio dalla capacità del computer di seguire alla velocità della luce gli andamenti delle innumerevoli mosse che l'uno e l'altro gio.catore avrebbero potuto fare dopo una certa mossà. In tal modo; il computer poteva confrontare un numero di alternative di parecchi ordini di grandezza superiore a quanto potrebbe fare qualunque memoria di lavoro umana. Dunque, contrariamente a quella dell'avversario d'acciaio di John Henry, che affrontava la forza con la forza, e con acciaio e vapore contrapposti a muscoli e ossa, la vittoria di Deep Blue somigliava di più a quella che potrebbe ottenere un esercito contro un uomo solo, in cui l'esercito aveva inoltre a disposizione librerie e risorse di tempo assai maggiori. Gary Kasparov non ha, in questo senso, giocato contro una macchina, ma contro una macchina in cui erano stati abilmente introdotti di nascosto, per procura, dozzine di homunculi. Come la macchina con cui il Mago di Oz abbagliava il ingenuo pubblico, gli attuali computer sono mezzi attraverso cui si esprimono delle persone (i programmatori). Il software è un modello surrogato di quel che potrebbe fare un folletto antropomorfo che sposti, immagazzini e trasformi simboli. Da ultimo, quindi le funzioni software sono intenzioni umane di configurare una macchina perché svolga un qualche compito specificato. Che significa questo, allora, per il modello della cognizione basato sul computer? Be', nella misura in cui una parte significativa della cognizione non è che ·· manipolazione di segnali secondo precise istruzioni, l'analogia è va-
128
Natura incompleta
lida. Come ha spiegato lrving J. Good agli albori dell'età del computer: Le parti del pensiero che abbiamo analizzato in rnodo completo potrebbero essere eseguite al computer. La divisione corrisponderebbe, pressappoco, alla divisione tra mente cosciente e mente inconscia. (1958) 7 Ma quali sono le parti del pensiero che possono essere analizzate in rnodo completo? Fondarnentalrnente, solo quella piccola parte che riguarda i processi regolari, abituali e quindi meccanici, carne certi passaggi interamente rnernorizzati di addizioni e moltiplicazioni, o le frasi fatte che usiamo senza pensarci o perché richieste da convenienze burocratiche. Quindi, interpretando in tal rnodo le valutazioni di Good, il calcolo somiglia ai processi mentali inconsci. In questo genere di attività non c'è nessuno ai comandi. Fatti scattare i giusti interruttori, il programma gira sernplicernente come una palla che rotoli giù per una discesa. Ma chi fa scattare gli interruttori? Di solito qualche hornunculus; o un organismo cosciente come voi e rne, o qualcuno che attualmente non si vede, rna ha collegato certi sensori o qualche altro tipo di trasduttori agli interruttori in rnodo che in certe condizioni potessero subentrare ad azionare gli interruttori in rnodo diretto. In tutti questi esempi, l'apparente agenzia del computer è nei fatti soltanto l'agenzia dislocata di un qualche progettista umano, e la funzione di rappresentazione del software è soltanto una corrispondenza prestabilita tra segni di un certo tipo e una macchina prevista e progettata da un programmatore umano. C'è un qualche senso in cui si può dire che i computer che compiono questo genere di operazioni hanno una loro propri.a agenzia, o uno scopo, un senso, o forse addirittura delle esperienze, a prescindere da o a dispetto di queste origini e punti di riferimento umani? Se la risposta è no, e però siamo ancora disposti ad accettare la metafora del computer come adeguato modello della mente, allora sarebbe difficile attribuire un'agenzia a tali progettisti e programmatori, se non riferendola a un ulteriore interprete esterno. Alla fine di questa linea di ragionamento troviamo o una grande scatola nera, un definitivo hornunculus, o un re-
Golem
129
gresso all'infinito, o semplicemente il nulla: in questa casa non c'è nessuno, fino a laggiù in fondo e fino a lassù in alto. Molti critici della teoria della mente come computer sostengono che in ultima analisi gli algoritmi - e implicitamente anche il livello di descrizione cognitivo, che fa riferimento a intenzioni, agenzia e esperienza cosciente - non offrono più che una glossa descrittiva di questa mappatura di operazioni su altre operazioni. Ciò che conta è la corrispondenza con qualcosa cui, secondo gli utenti umani, si riferiscono l'algoritmo e le Operazioni del computer. Se presumiamo che ciò che viene rappresentato sia un effettivo stato delle cose nel mondo, allora quel che abbiamo descritto è in ultima analisi un parallelismo codificato fra due processi fisici riconoscibile dai suoi utenti, ma questa corrispondenza a mediazione umana non è per il resto intrinseca al funzionamento del computer e a ciò cui è considerato riferirsi. Questo problema è ereditato dalla teoria computazionale della mente, e rende teleologicamente impotente anche questo passo di mediazione umana. Un computer che trasdu:.. ce entrate e uscite di un altro computer non è, in effetti, che un altro computer più grosso. Si noti però che potrebbero esserci innumerevoli possibili modi di mappare qualche livello di descrizione di uno stato di una macchina su qualche livello di descrizione di un qualche altro stato fisico. Non c'è nulla che escluda che a una stessa operazione del computer possa essere assegnato un gran numero di mappature ad altri tipi di attività dotate di senso; i limiti stanno solo nel livello di dettaglio richiesto e nella raffinatezza del processo di mappatura. Questa interpretabilità multipla è una proprietà importante dal punto di vista dell'uso delle simulazioni numeriche nella ricerca. E allora, se sono possibili innumerevoli relazioni di corrispondenza alternative, siamo costretti a concludere che la stessa operazione fisicamente realizzata costituisce più di un tipo di calcolo? O forse sarebbe un calcolo solo in rapporto a una di queste particolari mappature? E questo allora vuol dire che dato qualsiasi processo meccanico precisamente determinato siamo giustificati nel dire che è un potenziale calcolo, in base all'assunto che sarebbe possibile, in ultima analisi, escogitare qualche operazione simbolica interpretabile che può essere m offie proprio le condizioni più critiche perché l'autocatalisi possa sostenersi: la prossimità dei catalizzatori reciprocamente interdipendenti. La principale conseguenza del confinamento autoassemblato è il blocco locale della diffusione molecolare. La vicinanza spaziale di tutti i costituenti di un insieme autocatalitico è la precondizione essenziale per un' autocatalisi sostenuta, ma in soluzione la diffusione spontanea contrasta questo requisito. Il confinamento può però mantenere la prossimità a prescindere da se la catalisi stia o no avendo luogo, e persino in assenza di substrati. E, reciprocamente, l'autocatalisi è complementare all'autoassemblaggio. La principale conseguenza dell'auto~atalisi è la continua produzione di molecole identiche nella stessa regione, mentre l'autoassemblaggio è. particolarmente robusto se la concentrazione delle molecole componenti è mantenuta malgrado il loro consumo da parte del processo stesso. Il massimo di affidabilità per l'autoassemblaggio si ha dunque in condizioni in cui vi sia un costante rifornimento di molecole. strutturali componenti fino al punto di chiusu-
354
Natura incompleta
ra, dal quale in poi gli ulteriori componenti sono irrilevanti. Dunque una rapida produzione di molecole identiche a passo accelerato mediante autocatalisi è specificamente coerente con le condizioni che promuovono l'autoassemblaggio. La reciproca complementarità di questi processi significa che un collegamento spontaneo tra autocatalisi e confinamento autoassemblato rientra nell'ambito del possibile. Ciò potrebbe accadere nel caso in cui un ciclo autocatalitico producesse come sottoprodotto una molecola che dal canto suo possa autoassemblarsi spontaneamente in una forma idonea a fare da contenitore. In una simile configurazione, ciascuno dei due processi auto-organizzati contribuirebbe reciprocamente alle condizioni che promuovono la stabilità, la persistenza o la ricorrenza dell'altro. Sarebbero prodotti materiali grezzi che portano alla formazione di un contenitore. Tenderebbe a formarsi una struttura di confinamento nelle vicinanze dell'autocatalisi più attiva, che poi tenderebbe spontaneamente a rinchiudere l'insieme di molecole autocatalitiche al suo interno. E la chiusura del contenitore preverrebbe la dispersione dei componenti dell'insieme autocatalitico. Il contenimento finirebbe anche per bloccare l'autocatalisi limitando la disponibilità dei substrati, ma lo farebbe soltanto dopo essere giunto a chiusura.
Sistemi autogeni Questa complementarità di processi può produrre molto più che la semplice creazione di una sorta di bottiglia molecolare. La loro reciprocità dà luogo a una particolare stabilità emergente, che nessuno dei due è in grado di attingere isolatamente. Anche se nello stato confinato la catalisi continua risulta impedita, resta però po-. tenziata dalla prossimità di tutte le molecole essenziali dell'insieme autocatalitico. Ove un tale contenitore dovesse esser rotto o spezzato da agitazione o degrado chimico nelle vicinanze di nuove molecole di substrato, l'autocatalisi riprenderebbe, e sarebbero sintetizzate nuove molecole capaci di riformare il contenitore. Ciò potrebbe condurre o al ripristino dell' originàle o alla formazione al suo posto di due ci più nuovi contenitori di catalizzatori. In altre parole, la reciproca complementarità di questi due processi auto-orga-
Autogenesi
355
nizzati crea un potenziale di autoriparazione, autoricostituzione e persino autoreplicazione, in forma minima. Importante è poi il fatto che probabilmente questa proprietà non è limitata a un piccolo gruppo di forme molecolari. Si tratta di una classe generica di dinamiche chimiche che potrebbe essere ottenibile in parecchi modi diversi. Il requisito chiave è solo il reciproco accoppiamento di un processo spontaneo di produzione di componenti con uno spontaneo processo di mantenimento della prossimità che comprenda tutti i componenti essenziali. Anche se queste relazioni reciproche sono in qualche misura restrittive, non sono affatto estreme, e la loro occorrenza spontanea è resa più probabile dal fatto che sono probabilmente realizzabili in ambienti chimici vari e piuttosto diversificati. Delle condizioni molecolari candidate si discuterà più avanti, ma è probabile che la cofacilitazione tra due processi morfodinamici possa essere realizzata da un'ampia varietà di substrati molecolari, e in laboratono si potrebbe ottenere anche con materiali non organici. Certo i requisiti energetici e stereochimici per la formazione spontanea di un tale sistema sono assai limitanti, ma analoghi sono i limiti per ogni altro insieme di interazioni molecolari proposto come precursore dei processi viventi. È la relativa semplicità di questo sistema di relazioni dinamiche, unita alla diversità dei modi in cui potrebbe essere ottenuta questa cofacilitazione, che fa di un complesso molecolare di questo tipo un candidato assai più plausibile come primo sistema capace di autoriproduzione spontanea. Pensando ai processi noti estratti dalla vita, insiemi autocatalitici a base di proteine racchiusi da un analogo dei capsidi virali potrebbero probabilmente essere sintetizzati in laboratorio. Questa ipotesi è quindi anche realisticamente suscettibile di verifica. Data la familiarità di queste classi di processi molecolari, e malgrado la natura attualmente ipotetica del processo, ritengo sia giustificato assumere che le caratteristiche da me attribuite a questi semplici sistemi molecolari siano estrapolazioni realistiche, che giustificano la considerazione delle loro implicazioni per gli effetti dinamici emergenti. Li propongo, anzi, come la classe potenzialmente più semplice di sistemi teleodinamici. Data la semplicità e l' assenza di mistero delle proprietà che potrebbe esibire un processo mo-
Natura incompleta
lecolare di questo tipo, se possiamo dimostrare che le sue proprietà dinamiche risultano in una chiara dinamica ortograda di ordine superiore a quella dei suoi processi componenti, dotata di proprietà entenzionali non ambigue, sia pur minime, allora avremo a disposizione un sistema modello in grado di demistificare appieno questo campo senza né ridurlo a mera termodinamica né introdurre di soppiatto nella nostra trattazione qualche homunculus. ,Altrove ho dato a questo tipo di ipotetico sistema molecolare il nome di autocell [«autocellula», N.d. T.]. Purtroppo mi sono poi reso conto che il termine è limitativo e fuorviante, dato che i com- . ponenti descritti non sono necessariamente cellulari, e il termine stesso non richiama le principali proprietà distintive di questi sistemi. Nel resto di questo libro adotterò il termine più descrittivo di sistema autogeno, per questa classe di sistemi teleodinamici minimi correlati rn. n termine coglie la caratteristica distintiva che forse meglio lo definisce: il suo essere un sistema autogenerato. Sotto questo aspetto è strettamente legato al termine «autopoiesi» proposto da Maturana e Varela, anche se qui è riferito a un distinto processo dinamico unitario e non a un processo più generale, per cui ho inteso riservare il termine più ampio di teleodinamica. La parola «autogeno», in più, è facilmente declinabile per applicarla a una più vasta classe di forme correlate: si può applicare come aggettivo a ogni forma di sistema autoconfinato, autoriparantesi e autoreplicantesi costituito da processi morfodinamici reciproci, per poi chiamare, appropriatamente, il processo stesso autogenesi. Il termine autogenesi non è tuttavia inteso a indicare semplicemente ogni processo di autogenerazione. Si potrebbe pensare, con un'interpretazione meno stringente, di riferire il termine anche alla replicazione di molecole identiche nei processi autocatalitici o all'ipotetica autoreplicazione di molecole di RNA II. Il termine va invece riservato ai sistemi dinamici semplici che arrivano ad autogenerarsi sfruttando la reciprocità codipendente dei processi componenti. Anche se qui assumo provvisoriamente che sia una proprietà esibita solo da sistemi molecolari semplici, non vi è alcuna ragione teorica per assumere che non sia possibile trovarla anche in forme radicalmente differenti. Saranno da ultimo necessari esperimenti con sistemi autogeni molecolari semplici per determinare i parametri di fomiazione, persistenza e replicazione dei sistemi autogeni
Autogenesi
357
molecolari, nonché per detenninare le proprietà di supporto che devono avere le molecole substrato e il circostante ambiente molecolare. Ma la plausibilità logica e teorica di questa forma di organizzazione dinamica è una giustificazione sufficiente per considerarne le implicazioni per l'emergenza dei fenomeni entenzionali. Anche prima quindi della definitiva realizzazione di processi molecolari autogeni in laboratorio, e a prescindere da se questa proprietà possa o meno esser realizzata con altri tipi di substrati, si possono esplorare affidabilmente molte delle proprietà di tali sistemi; e in particolare quelle che esemplificano l'organizzazione teleodinamica. La teoria dei sistemi autogeni è superficialmente simile a quella degli ipercicli di Manfred Eigen, nel senso che ciascuno dei due processi che si autopromuovono promuove in qualche modo anche l'altro, dando luogo a qualcosa di. analogo a un circolo causale di circoli causali, per così dire. Ma la somiglianza con l'architettura degli ipercicli tennina qui, e per altri aspetti la differenza è fondamentale. Un ciclo autocatalitico è suscettibile a dinamiche autolimitanti e che ne minano le stesse condizioni di esistenza, e un iperciclo risulta a ciò doppiamente (o molteplicemente) suscettibile (a seconda del numero di sottocicli substrato-dipendenti che lo costituiscono). Ciascuno di essi è un potenziale anello debole, e se spezzato provoca conseguenze catastrofiche per la più ampia sinergia. Di contro, il reciproco collegamento dei due processi morfodinarnici complementari che costituiscono un sistema autogeno ha un effetto opposto. Anche se ciascuno dei processi componenti, quando è isolato, pregiudica le sue stese condizioni di esistenza ed è codipendente, insieme sono reciprocamente autolimitanti. Così, mentre l'esaurimento del substrato conduce alla cessazione sia dei sistemi autocatalitici che degli ipercicli e alla dispersione dei componenti, un sistema autogeno stabilisce la sua capacità di riformarsi prima di esaurire i substrati, purché la sua chiusura si completi prima che tale punto sia raggiunto. Ciascuno dei due processi offre all'altro essenziali condizioni al contorno, realizzando l'equivalente di un ambiente che dia continuo supporto all'uno e all'altro. Si potrebbe allora descrivere un sistema autogeno come un sistema iperciclico gerarchico, in cui ciascuno dei componenti auto-organizzati fa da ambiente o contesto di sostegno per l'altro.
Natura incompleta
Nella misura in cui comporta la possibilità di autoricostituzione dopo parziale disaggregazione, l'autogenesi offre anche un potenziale meccanismo di autoriproduzione. Grazie allo stesso processo che già aveva consentito la formazione di un sistema autogeno, i componenti frazionati di un sistema autogeno disaggregato - fra cui involucro e molecole catalitiche in stretta vicinanza e molecole di substrati provenienti dal mezzo circostante - saranno in grado di ricostituire ciascuno una nuova unità completa. In altre parole, un sistema autogeno disaggregato potrà, con la stessa probabilità, dar luogo a due sistemi autogeni identici invece di ricostruirne uno solo. Un sistema autogeno può dunque realizzare in termini molecolari - e in modo considerevolmente più compatto di quanto finora considerato - ciò che von Neumann richiedeva per l'autoriproduzione: può riprodurre sia se stesso sia la propria capacità fisica di riprodursi. Notevole è il fatto che può farlo pur essendo privo di molti degli attributi che normalmente si assume siano essenziali per la vita, come replicazione secondo uno stampo molecolare dei suoi componenti e dello stampo stesso, continu;i termodinamica lontana dall'equilibrio, confinamento entro membrana semi-permeabile e così via. Questa dinamica dà una qualità di mantenimento attivo di autosimilarità che equivale a una forma di individualità, o «sé» (self}, che non esiste altrimenti al di fuori dei processi viventi. Vi è sia un'identità individuale dei sistemi autogeni, come unità chiusa inerte ma potenzialmente autoricostituentesi, che un'identità automantenuta di «discendenza» dovuta alla trasmissione di vincoli dinamici intrinseci e tipi molecolari relativamente invarianti di generazione in generazione a seguito della replicazione. L'autoricostituzione non mantiene completamente l'identità nel tempo perché consente sostituzioni molecolari, e non mantiene neppure una continuità dinamica o energetica nel tempo, dato che può perdurare in fase statica per lunghi periodi. Ma questa capacità di autoricostituzione conserva una persistente e distinta sede di organizzazione che mantiene l'autosimilarità attraverso il tempo e il mutare delle condizioni. Eppure, da ultimo non vi è alcuna continuità materiale, visto che i sistemi autogeni sono disaggregati solo per essere ricostituiti e replicati con componenti neo-sintetizzati. A mantenersi attraverso le ri-
Autogenesi
359
petute iterazioni di dissoluzione e ricostituzione è solo la continuità dei vincoli che determinano l'architettura causale autogena. Un sistema autogeno ha dunque un'identità solo rispetto a questo modello generale persistente di mantenimento e replicazione di vincoli, che prescinde da ogni costituente molecolare particolare. Nei fatti, è la continuità della trasmissione ereditaria dei vincoli alle sue dinamiche molecolari a costituire tale identità. C.he però può variare man mano che una linea discendenza di sistemi autogeni evolve dando luogo a forme variabili di queste dinamiche che la definiscono. Per questi motivi il sé di un sistema autogeno e l'identità di una linea di discendenza di sistemi autogeni sono esempi, in senso filosofico, di tipi generali efficaci. Si tratta, per essere più specifici, di un tipo empirico determinato soltanto dalla continuità di questi vincoli dinamici, che sono essi stessi espressioni di limitazioni dinamiche, potenziali modalità di cambiamento inespresse. L'organizzazione di tipo autogeno esiste soltanto in relazione a un ambiente che offra il debito supporto. L'individuazione dei sistemi autogeni è dunque anch'essa definita solo rispetto a un particolare tipo di ambiente. Identità e ambiente si definiscono e determinano così l'un l'altro, perché la stessa configurazione molecolare in un ambiente che non la sostenga manca di tutte le proprietà che definiscono l'autogenesi. La stessa possibilità di esistenza dei sistemi autogeni, anzi, può esser descritta come una delle possibili microconfigurazioni di certe classi di ambienti, la cui costituzione molecolare conduce alla formazione di sistemi autogeni. Questa è la base ultima di quello che Jakob von Uexkiill 12 ha chiamato Umwelt; il mondo esterno in quanto rilevante per l' organismo. Questa decisiva relazione tra sistema autogeno e ambiente è tuttavia, curiosamente, una condizione sufficiente ma non costantemente necessaria per la persistenza dell'autogenesi. Un potenziale di autogenesi può mantenersi anche in condizioni non permissive. Dunque malgrado una certa configurazione molecolare sia un sistema autogeno solo rispetto a uno specifico ambiente capace di sostenerlo, esso può comunque permanere strutturalmente attraverso vari e diversi ambienti privi di capacità di sostegno, per essere poi riprodotto quando si trova in un ambiente che lo sostenti. In questo modo il mantenimento di un'identità autogena trascende ogni spe-
360
Natura incompleta
cifica dipendenza dal contesto. Nel suo stato chiµso, inerte, i sistemi autogeni possono mantenere tale potenziale attraverso vaste epoche del tempo e ambienti diversamente avari di sostegno. Ciò conferisce loro un certo grado di autonomia dal contesto, che di nuovo è una caratteristica dei sistemi dinamici viventi, .ma non di· quelli non viventi. In un senso di notevole interesse, tuttavia, l'identità di un sistema autogeno è.stranamente tenue. Quando è chiuso e completo un sistema autogeno è inerte, eppure quando è aperto da una rottura e sta attivamente formando nuovi costituenti non è che una mera collezione di molecole dispersa in un mezzo molecolare più ampio. In ,altre parole, è un individuo ben delimitato solo quando è morto, ed è attivo nell'autogenerazione solo quando non è più un'unità materiale delimitata da confini discreti. Questo dimostra una volta di più che ciò che costituisce un «sé» autogeno non può essere identificato con alcun particolare substrato, struttura delimitata o processo energetico. In un senso importante, anzi, il sé creato dalla teleodinamica dei sistemi autogeni è un sé solamente virtuale; e però è sede di reali influenze chimiche e fisiche. Quest~ caratteristica è stata riconosciuta anche da Francisco Varela nella sua concezione dei sistemi autopoietici, pur senza riconoscere il modo in cui ciò può essere prodotto da una reciprocità sinergica dì processi auto-organizzati. Ecco come Varela descrive questo sé virtuale: Di particolare importanza è il fatto che possiamo ammettere che (i) un sistema può avere separate componenti focali per le quali (ii) non vi è alcun centro o sé localizzato, e tuttavia l'insieme si comporta come un'unità e per l'osservatore è come se vi fosse un agente che agisce da coordinatoré «virtualmente» presente al suo centro. (Francisco Varela) r3 Il carattere generico, autonomo e tenue dei sistemi autogeni fa sì che questa sia una proprietà funzionale, non materiale, chimica, o energetica. Un sistema autogeno è una fonte di influenza causale precisamente.identificabile perché genera e rreserva vincoli dinamici, la base del lavoro termodinamico. Ma, come abbiamo visto, un vincolo è un esempio di cosa che non avviene. In questo senso quindi un
Autogenesi
361.
·sistema autogeno ci mette dinan'zi finalmente senza ambiguità, a una qualità assenziale. Questa è l'essenza della causalità teleodinamica. Esaminando con maggiore precisione questo modello saremo in grado di dimostrare in che modo i processi entenzionali acquistino questo carattere apparentemente paradossale di assenza efficace.
Evoluzione di sistemi autogeni Dato che i sistemi autogeni sono capaci di autoreplicazione, sono anche potenziali progenitori di linee di discendenza di sistemi autogeni. Una di tali linee di discendenza si farà sempre più numerosa, purché vi siano sufficienti molecole di substrato nell'ambiente circostante e sufficiente agitazione molecolare da turbare periodicamente l'integrità del sistema, ma non tanta da disperderne il contenuto più in fretta di quanto esso possa tornare ad assemblarsi. Questa è la prima condizione perché si abbia selezione naturale. La seconda condizione è la competizione tra le varie linee di discendenza. Questa si verifica anch'essa spontaneamente perché la moltiplicazione di ciascuna linea dipende dalle stesse molecole presenti nell'ambiente circostante. Le varie linee di' discendenza sono perciò in competizione per tali substrati, e anche nel persistere contro le relative influenze disgregatrici potenzialmente presenti .nell'ambiente (e in una certa misura necessarie per l'aumento numerico delle linee di discendenza). La terza condizione è che vi sia variazione tra le linee. Partiamo dal caso più semplice: un unico tipo di sistema autogeno. I sistemi autogeni tendono ad autoricostituirsi e così ristabilire le strutture molecolari predisposte dai catalizzatori e dalle molecole dell'involucro che hanno dato origine ai loro progenitori; ma dato che ciò deve avvenire per parziale rottura e nuova chiusura dell'involucro è probabile che ogni nuovo involucro incorporerà in più qualche altra molecola dell'ambiente locale, alcune delle quali potrebbero po'ter continuare a essere trasmesse nelle divisioni successive. Per la maggior parte, queste tenderanno a essere inclusioni innocue, che fanno soltanto diminuire lievemente le concentrazioni· dei catalizzatori attivi. Concentrazioni più o meno alte di queste molecole relativamente neutre tenderanno a produrre lievi differenze nel tasso
Natura incompleta
di ricostituzione o nella sensibilità alla dissociazione tra una linea di discendenza e l'altra. Se le molecole incluse per caso non presentano alcuna correlazione con le specificità allosteriche delle funzioni autogene, la loro aggiunta o perdita in una linea sarà dovuta solo al caso. Qualche frazione delle molecole accidentalmente incorporate, però, presenterà similarità allosteriche con i catalizzatori funzionali, i loro prodotti o i loro substrati. Queste avranno la tendenza a interagire direttamente con essi e influiranno sugli attributi funzionali della chimica dei sistemi autogeni. Fra i loro possibili effetti vi sono interferenze con diminuzioni o incrementi dei tassi di catalisi, influssi sulla formazione del contenitore, alterazioni della stabilità del contenitore, alterazioni della diffusione molecolare nelle fasi di disgregazione, aggiunta di tappe catalitiche parallele e collegate del ciclo che consentono l'uso di substrati molecolari alternativi o lievemente diversi e così via. L'incorporazione di molecole funzionalmente interagenti renderà una certa linea di discendenza più o meno attiva nella propagazione. Le linee di sistemi autonomi contenenti diversi tipi di molecole che ne migliorano in uno di questi modi le funzioni tenderanno a superare le altre nella riproduzione. Ciò avrà un effetto se~ lettivo permanente su una linea di discendenza solo se è soddisfatta un'altra condizione: l'inclusione permanente di questi tipi molecolari entro una linea di discendenza dipenderà dal loro essere sintetizzati all'interno di un ciclo autocatalitico esteso o parallelo. Grazie a questi mezzi, l'aumento di complessità e affidabilità dell'autocatalisi, il miglioramento del confinamento, e l'uso delle speciali proprietà energetiche e strutturali di altri tipi molecolari (per esempio i metalli) possono evolvere mediante propagazione differenziale delle linee di discendenza. Prese nel loro complesso queste considerazioni mostrano che malgrado i sistemi autogeni siano sistemi molecolari incredibilmente semplici le loro proprietà di autoricostituzione in ~mbienti favorevoli danno spontaneamente luogo a condizioni sistemiche sufficienti a dare inizio a una forma persistente, anche se debole, di selezione naturale. In un ambiente in cui sia probabile la riproduzione di sistemi autogeni sarà probabile anche che questi si evolvano. In ambienti complessi dal punto di vista molecolare, la competizione
Autogenesi
per le risorse tra linee di discendenza di sistemi autogeni tenderà a condurre all'evoluzione di linee varianti «adattate» in modo differenziale ai relativi ambienti locali. Ciò soddisfa tutte le condizioni materiali e logiche necessarie e sufficienti per la selezione naturale, malgrado si verifichino in un sistema che manca di molti degli attributi base della vita, compresa l'eredità genetica in senso biologico. Stabilita una logica di evolvibilità dei sistemi autogeni, possiamo brevemente considerare casi e aspetti speciali di questo processo che divergono dalla norma della selezione naturale fra gli organismi. Una fonte potenziale di differenze tra linee di discendenza è l'emergenza indipendente. È possibile che in ambienti lievemente diversi sorgano tipi interamente indipendenti e distinti di sistemi autogeni, ciascuno dei quali dia origine a linee che poi giungono a sovrapporsi nei loro ambienti; Tali linee di discendenza sorte in modo indipendente non devono necessariamente sovrapporsi nei substrati richiesti, e dunque non devono essere necessariamente in competizione. Molteplici filoni paralleli di evoluzione di sistemi autogeni sono possibili e forse probabili, dato che un contesto molecolare sufficientemente ricco da dare origine a un tipo potrà potenzialmente dare origine anche ad altre varianti. Ciò non produrrebbe necessariamente una dinamica di selezione naturale, se non nella misura in cui vi fosse una qualche sovrapposizione casuale di substrati. Anche così, i loro effetti indipendenti su altri aspetti dell'ambiente possono dar luogo a effetti indiretti che influenzano i relativi tassi di propagazione in modi più generici (per esempio influendo sulla diffusione molecolare). C'è una grossolana analogia con il modo in cui le diverse specie di un ecosistema influenzano l'evoluzione l'una dell'altra, anche in assenza di interazioni dirette. Ma la natura passiva e in parte distruttiva della propagazione dei sistemi autogeni, che è ben diversa dalla massima parte della riproduzione cellulare dei viventi, introduce anche altre potenziali vie di interazione evolutiva. La forma più diretta di interazione potrebbe aver origine per mescolanza, e dare per risultato l'inclusione di qualche componente di un tipo di sistema autogeno in un altro. Dato che confinamento e colocalizzazione dei catalizzatori essenziali sono caratteristiche in qualche misura generiche dei sistemi autogeni, vi sono molte opportunità per lo sviluppo di collegamenti tra linee di
Natura incompleta
discendenza di origine assai diversa, e persino per l'inclusione dell'intero insieme di catalizzatori di un tipo di sistema autogeno entro un altro. Qui c'è una grossolana analogia con l' endosimbiosi, oggi riconosciuta come un'importante, anche se forse rara, fonte di nuove funzioni sinergiche nell'evoluzione, e una certa somiglianza anche con gli scambi genici laterali comunemente osservati nell'evoluzione batterica e virale. L'incorporazione di sistemi autoricostituentesi complementari entro. altri sistemi autoricostituentesi che presentano requisiti di substrato, dinamiche catalitiche e condizioni di autoassemblaggio alquanto diverse potrebbe essere una significativa fonte di crescita di complessità e di adattamento. I cicli in qualche modo non regolati di rottura e richiusura da cui dipende la propagazione dei sistemi autogeni sono in tal modo più simili alla· riproduzione dei virus che a quella delle cellule, e potrebbero quindi condividere anche altri aspetti dei percorsi evolutivi dei virus. La selezione naturale è la dinamica aggregata che sorge dall'interazione di un gran numero di sistemi unitari dotati di queste proprietà. Le diverse linee di discendenza di sistemi autogeni manténgono ciascuna un filo di continuità mnemonica e di identità, anche quando si verificano mescolanze. A parte i casi di convergenza tra linee di discendenza, quando si trovano separati in linee diverse i meccanismi autogeni varianti saranno in competizione per le risorse disponibili nelle condizioni circostanti. Ciò fa di ogni meccanismo autogeno anche un rappresentante di una specifica relazione di correlazione tra la topologia della sua dinamica intrinseca e le caratteristiche dell'ambiente più vasto. Con i sist~mi autogeni dunque vi sono molteplici unità inter-· connesse di individuazione evolutiva: la linea di discendenza, il sistema autogeno in quanto autonomo, e la loro sinergia dinamica reciprocamente automantenuta, anche se quest'ultima probabilmente passa al livello di unità autogena quando le dinamiche reciproche indipendenti arrivano a intrecciarsi in un singolo sistema integrato. Gli organismi viventi derivano la loro peculiare dinamica causale l'apparente finalizzazione, la logica funzionale, il rovesciamento, in prima istanza, della seconda legge della termodinamica, e l'adattabilità - da questo spostamento verso l'alto in ciò che costituisce un'unità di individuazione riproduttiva ed evolutiva.
Autogenesi
L'analisi fin qui svolta mostra che la selezione naturale emerge delle dinamiche di processi auto-organizzati che si rinforzano reciprocamente. Questa sinergia dinamica autoricostitutiva è l'ingrediente essenziale precedente e sottostante alla vita. Ciò suggerisce che la selezione naturale sia da ultimo un'operazione che preserva in modo differenziale certe forme alternative di processi morfodinamici nei confronti di altre, rispetto alle sinergie fra le une e le altre e alle condizioni al contorno che le rendono possibili. La selezione, dunque, non è pienamente definita solo in riferimento alla replicazione dell'informazione genetica. Come riconosceva Kant, decisivo è un «potere formativo» automantenuto. E ciò richiede processi che generino, preservino e propaghino vincoli. Quelli morfodinamici sono i soli processi spontanei che generano e propagano vincoli, e i sistemi autogeni dimostrano che la reciprocità tra processi morfodinamici è in grado di preservare e replicare vincoli. L'informazione genetica, pertanto, deve essere un prodotto della selezione naturale e non la sua precondizione.
Il dente d'arresto della vita l sistemi autogeni potranno essere soggetti a selezione naturale ed evoluzione ma non sono vivi, nella maggior parte delle accezioni della parola. Mancano della maggior parte degli attributi oggi associati agli organismi viventi. Non sono proprio agenti autonomi, nel senso di Stuart Kau:ffinan, perché non si può dire esattamente che «agiscano» per proprio conto, anche se rendendo meno stringente la definizione di «azione» potrebbero rientrarvi. Un grosso limite è che in realtà sono passivi. Non accumulano né mobilitano attivamente energia al loro interno. Sono parassiti del loro ambiente pértino per l'inizio della replicazione, proprio come i virus. Contrariamente ai virus, però, i sistemi autogeni si riproducono senza l'ausilio di altri organismi ma con ciò che può essere fornito ubiquitariamente dall'ambiente o che potrebbe essere ottenuto dalla rottura dei legami molecolari che tengono insieme grosse molecole di substrato. La differenza forse più notevole tra sistemi autogeni e organismi è che i primi non mantengono una persistente dinamica di non equilibrio. Ciò malgrado però riescono ad aggirare la seconda leg-
366
'Natura incompleta
ge rispetto alla propria struttura e funzione. Lo fanno attraverso quello che si può chiamare un effetto dente d'arresto di ordine superiore. Come abbiamo visto, i processi morfodinamici massimizzano il flusso di entropia, cioè la dissipazione dei vincoli, ma con la stessa velocità con cui l'aumento di entropia diffonde l'asimmetria distribuzionale introdotta una perturbazione esterna la ricostituisce. Il risultato è un passaggio costante di energia e un tasso costante di generazione di entropia. La regolarizzazione si verifica quando le regioni che dissipano i vincoli più lentamente spostano questo vincolo a settori meno vincolati e a più alta entropia del sistema. Nel suo stato di attrattore di bacino un sistema morfodinamico è giunto al massimo «flusso» di entropia distribuito attraverso il sistema. Si potrebbe dire dunque che l'auto-organizzazione è un processo al servizio della seconda legge. Diversi teorici hanno sostenuto che anche la vita debba essere considerata un processo di massimizzazione del flusso di entropia. È possibile vedere l'evoluzione della vita sulla Terra come un processo dinamico al servizio di un'efficiente generazione di entropia per bilanciare il costante flusso di energia solare che bombarda il pianeta? Se la vita non fosse che un processo morfodinamico, sarebbe verosimile. Ma non è così per la teleodinamica. Anche se i processi teleodinamici sono costituiti da interazioni tra processi morfodinamici, la massimizzazione del flusso di questi processi componenti non è, in questa interazione, additiva. Perché i bacini di attrazione verso cui tendono i processi morfodinamici sono specificamente strutturati, e dunque costituiscono di per sé dei vincoli. I caratteri teleodinamici che emergono in un processo autogeno sono .il risultato della generazione reciproca di vincoli. La formazione dei sistemi autogeni deve effettivamente comportare un aumento' di entropia, e ciascun processo morfodinamico componente si sviluppa na.:. turalmente verso uno stato in cui è massimo il tasso di produzione di entropia~ Ma i vincoli complementari che ciascuno di essi genera rispetto all'altro sono tali. da· pregiudicare se stessi. La loro progressione verso un tasso ottimale di produzione di entropia porta anche a uno stato in cui il cambiamento dinamico cessa. La regolarità si accumula solo per essere poi congelata dalla chiusura. La piena dissipazione è impedita ndpunto in cui si raggiungono le con-
Autogenesi
dizioni ottimali per poter rapidamente dare di nuovo inizio al processo. Un sistema autogeno è dunque in realtà un dente d'arresto della negentropia. Proprio quella distribuzione asimmetrica delle molecole che consentiva lo scarico vincolato di entropia, ma con il mantenimento dei vincoli, viene· rigenerata nel processo. Questo effetto, che conserva i vincoli a costo di arrestare prematuramente la generazione di entropia, è il segreto della tendenza della vita a preservare l'informazione relativa all'organizzazione adattativa del passato. Ciò consente sia l'affinamento sia l'aumento di complessità delle vita rendendo possibile il progresso basato sui precedenti successi. Queste fondamenta preservate di vincoli riprodotti sono il precursore dell'informazione genetica (o meglio di una proprietà generale condivisa anche dall'informazione genetica). Come si chiarirà nei capitoli seguenti, che sia incarnata in specifiche molecole portatrici di informazione (come il DNA) o soltanto nei vincoli delle interazioni molecolari di un semplice processo autogeno, l'informazione è costituita in ultima analisi da vincoli conservati. Il fatto che un organismo non massimizza il tasso a cui genera entropia o il flusso di energia che lo attraversa non dovrebbe essere una sorpresa. Un organismo usa invece questo flusso per costruire vincoli che da ultimo deviano e rallentano tale processo, incrementando la quantità di lavoro locale estraibile. La nostra possibilità di attingere alle riserve di carburanti fossili della Terra per ottenere l'energia con cui alimentiamo le nostre industrie e facilitiamo la nostra vita è il risultato dell'accumulo di molecole complesse a partire dall'energia solare. Antichi organismi ne hanno accumulato l' eccesso in modi di cui la Terra inorganica non poteva disporre. Essi ne hanno rallentato il processo di dissipazione reindirizzando i flussi di energia attraverso intricati cammini molecolari, catturandone una frazione in legami molecolari (vincoli alla mobilità degli atorrù) neo-sintetizzati nel corso di milioni e milioni di anni. A questa energia temporaneamente sequestrata e non liberata non è stato consentito di dissiparsi alla morte di molti di questo organismi perché questi sono stati sepolti sotto strati di sedimenti che ne hanno ulteriormente ostacolato il processo di dissipazione. La chimica, al confronto semplice, della combustione, che usiamo per estrarre questa energia bloccata dal dente d'arresto imposto dalla vita agli in-
368
Natura incompleta
granaggi dell'entropia, è .un modo di generare rapidamente l'aumento di entropia che tale processo ha per tanto tempo rallentato. Trasformando le dinamiche formative dei processi auto-~rganiz zati in strutture che transitoriamente resistono alla degradazione, gli organismi viventi (e i sistemi autogeni) mettono le basi per lo sviluppo di ulteriori forme di propagazione di vincoli. Mentre, dunque, i processi morfodinamici non fanno che propagare e amplificare i vincoli, i processi teleodinamici in più li conservano. Questo è il tema comune della vita come dell'evoluzione. Vi è un'ulteriore complicazione in questa torsione fisica della termodinamica data dalla vita. Gli organismi (e i sistemi autogeni) differiscono per un altro aspetto importante da altri processi dissipativi: si riproducono. Così non solo possono usare i flussi locali di energia per ricostituire i vincoli da cui sono individuati, e resistere alla dissipazione totale, ma possono anche generare ulteriori repliche in.dividuate. Ciò moltiplica i cammini di dissipazione dell' energia e i siti di generazione dei vincoli. La riproduzione dunque moltiplica i tassi regionali di dissipazione dei vincoli, mentre allo stesso tempo ogni singola unità autogena ne blocca gli ingranaggi. Nel corso dell'evoluzione, le specie a riproduzione più rapida tendono a sostituire quelle più lente, degradando più in fretta il gradiente di energia disponibile. Vi è dunque un interessante equilibrio che tende a svilupparsi tra i tassi di produzione di entropia degli organismi e quelli degli ecosistemi. Dato che una nicchia di risorse rende a essere rapidamente invasa, l'ulteriore competizione riproduttiva tenderà a favorire le specie di maggiore efficienza nella generazione·di vincoli. Questa, come è ovvio, è una forza motrice cruciale della selezione naturale.
L'emergere della teleodinamica I sistemi autogeni segnano la transizione dalla massima produzione di entropia alla produzione e conservazione di vincoli, e da processi ortogradi caratterizzati dall'autosemplificazione (morfodinamica) a processi ortogradi esemplificati da autopreservazione e correlativo incremento della complessità (teleodinamica). Questa transizione da organizzazione. morfodinamica a organizzazione te-
Autogenesi
leodinamica può esser detta una transizione emergente, nello stesso senso in cui lo è quella da organizzazione termodinamica a organizzazione morfodinamica. Ognuna di queste transizioni è caratterizzata dallo sviluppo di una disposizione ortograda contraria a quella che l'ha preceduta e le ha dato origine. L'organizzazione morfodinamica emerge così in seguito all'interazione tra due opposti processi termodinamici (per esempio perturbazione e ristabilimento dell'equilibrio), e risulta nell'amplificazione dei vincoli invece che nella loro dissipazione (cioè aumento di entropia). Analogamente l'organizzazione teleodinamica emerge in seguito a processi morfodinamici reciprocamente organizzati, e risulta nella stabilizzazione dei vincoli invece che nella loro amplificazione, e nel blocco dell'entropia invece che nella sua produzione. Sotto · questo aspetto, la formazione dei sistemi autogeni è una esempio della caratteristica che definisce una transizione di fase emergente: la comparsa di una nuova forma di organizzazione ortograda. La dinamica dei sistemi autogeni dimostra anche che il fossato che divide la termodinamica .dalle dinamiche dei viventi non può essere attraversato d'un sol passo ma richiede come intermedio un ponte morfodinamico; una disposizione sinergica di processi autoorganizzati non all'equilibrio. I processi evolutivi che ne risultano distano così due livelli emergenti dai semplici processi termodinamici. La teleodinamica emerge dalla morfodinamica che emerge dalla termodinamica. Poter dare una descrizione completa di un sistema molecolare estremamente semplice capace di autoriproduzione e suscettibile di selezione naturale ci mette nella posizione migliore per poter riflet, tere sulla natura emergente dei processi della vita e dell'evoluzione, · e sui loro rapporti con altri processi naturali. La plausibilità dei si. sterni autogeni offre un modello semplice per esplorare i requisiti . delle proprietà entenzionali in genere. Si tratta di un primo passo ·. . importante nella direzione di una teoria fisica più sviluppata che sia . adeguata a spiegare i processi della vita e della mente, oltre a quelli non viventi. In parole povere, è l'impalcatura su cui costruire una , metodologia emergente, e non più eliminativa, per lo studio di tut, ti i fenomeni organizzati in funzione delle loro conseguenze, dal :. metabolismo alla rappresentazione mentale.
370
Natura incompleta
Dal punto di vista teorico, questa analisi contribuisce anche a distinguere tra i caratteri auto-organizzati dei sistemi adatt.ativi complessi da quelli basati sulla selezione, e mostra il modo in cui sono intrinsecamente legati. Il carattere generale di questo tipo di relazione dinamica fa pensare che le specifiche caratteristiche molecolari della vita sulla Terra possano essere assai meno universali di quanto si sarebbe altrimenti potuto ipotizzare, e che processi simili a quelli dei sistemi autogeni potrebbero essere presenti in forme e in condizioni planetarie ben diverse da quelle· che sono mai state presenti sul nostro pianeta. Al di là della spiegazione dei contributi collegati di auto-organizzazione e selezione darwiniana all'evoluzione filogenetica, questa analisi potrebbe anche far luce sulla loro interazione in altri processi biologici e persino non biologici, come epigenesi, elaborazione neurale dei segnali ed evoluzione del linguaggio. Processi auto-organizzati possono insorgere in numerosi sistemi dinamici e possono esser costituiti da numerosi substrati. La dipendenza dei processi evolutivi dai processi di auto-organizzazione non è necessariamente limitata ai processi molecolari. Questa analisi dovrebbe avere una portata generale. Delle dinamiche evolutive dovrebbero emergere spontaneamente in ogni dominio in cui si trovino soddisfatte analoghe condizioni di auto-organizzazione reciproca. L'emergenza dei processi teleodinamici comprende più dei soli processi organizzati in vista delle loro conseguenze. Anche nei sistemi a organizzazione teleodinamica semplice come quelli autogeni possiamo identificare relazioni tra componenti che sono i precursori minimi di molti dei caratteri a organizzazione finalistica da noi associati alla vita. Per esempio, malgrado la dinamica ortograda di ordine superiore che li caratterizza dia ai sistemi autogeni robustezza rispetto alle perturbazioni e mantenimento della propria integrità, ciò non è in sé sufficiente a costituire qualcosa che si possa giustificatamente chiamare individualità autonoma. La robustezza rispetto alle perturbazioni è una delle caratteristiche distintive di ogni dinamica ortograda. Così i sistemi in equilibrio termodinamico resistono all'allontanamento da tale stato e i sistemi morfodinamici (auto-organizzati e dissipativi) in prossimità della propria dinamica di attrattore più
Autogenesi
371
«rilassata» tenderanno anch'essi a resistere a ciò che ne turba la caratteristica regolarità. Dato che i sistemi autogeni sono costituiti da processi sia termodinamici che morfodinamici, ereditano entrambe queste forme di resistenza. Ma non si limitano a resistere alle perturbazioni. Dinanzi a una perturbazione catastrofica i componenti fisicamente separati conservano tuttavia la propria identità sistemica tanto bene da essere in grado di riassociarsi in strutture unitarie con identica organizzazione. Ciò indica che questi componenti sono in una certa misura presenti a causa del loro contributo a un tutto di ordine superiore. È sotto questo aspetto che sé e funzione sono concetti interdipendenti intrinsecamente definiti in riferimento alle loro conseguenze. Anche se il concetto di funzione viene talora applicato anche a sistemi inanimati, si tratta in larga misura di un uso metaforico, in cui si tratta un rapporto fisico come se fosse organizzato per conseguire un certo fine. Ovviamente, con l'eccezione dei congegni di fabbricazione umana, i sistemi inanimati non viveIJ.ti non sono organizzati in vista del conseguimento di conseguenze date. I sistemi autogeni però lo sotio. Per esempio si può dire che il. contenitore autoassemblato di un sistema autogeno ha funzioni di mantenimento e propagazione della capacità di svolgimento del ciclo dell'insieme autocatalitico, e si può dire che l'insieme autocatalitico funziona allo scopo di sostenere il processo di autoassemblaggio. Per riprendere i termini di Kant, insomma, ciascuno dei processi componenti è presente perl'altro. Ciascuno di essi è per l'altro sia fine che mezzo. È la loro ca-produzione correlata ad assicurare la perpetuazione di questa codipendenza olistica. Le funzioni sono normative, nella misura in cui riescono o meno a conseguire un certo fine. L'autocatalisi, il contenitore e la relazione tra di essi sono generati a ciascuna replicazione precisamente perché sono vantaggiosi per l'integrità di un sistema autogeno individuale e per la sua capacità di contribuire alla continuazione di questa forma di individualità autonoma. Anche se si potrebbe dire che, come le forze della gravità e della fusione nucleare nel Sole, i processi componenti di un primo sistema autogeno generatosi spontaneamente si sono semplicemente trovati accidentalmente a svolgersi insieme generando questa forma metastabile, la stessa cosa
372
Natura incompleta
non si può dire della replicazione di tale organizzazione nei sistemi autogeni successivi. Contrariamente alle correlazioni accidentali, l'organizzazione che viene a crearsi di nuovo attraverso la replicazione dei sistemi autogeni accade precisamente perché ha avute) questa conseguenza. Ma, a costo di ripeterci: è l'organizzazione teleodinamica ad avere questa conseguenza, e non una pura e semplice collezione di molecole interagenti, perché queste sono sostituibili ma l'organizzazione non lo è. L'identità, e il beneficiario, non sono cose ma una forma dinamica. Dunque già questi semplici sistemi molecolari hanno superato una soglia in cui possiamo dire che è emersa una forma elementare di valore, perché 'possiamo dire che ciascuno dei processi autogeni componenti è presente in vista dell'integrità del sistema autogeno, o per il mantenimento di quella particolare forma di autogenic,ità. Similmente possiamo definire le diverse caratteristiche dell' ambiente molecolare circostante come «benefiche» o «dannose» nel medesimo senso in cui applicheremmo queste valutazioni a un microrganismo. E la cosa più importante è che queste non sono mere glosse provenienti da un osservatore umano, ma caratteri intrinseci e funzionalmente rilevanti della natura organizzata in vista delle sue stesse conseguenze del sistema autogeno stesso. Le funzioni adattative, tuttavia, sono più che semplici elementi di un'entità che risponde al suo ambiente. Nella loro forma e nel loro potenziale dinamico, esse incorporano determinate caratteristiche dell'ambiente che, se presenti, saranno favorevoli o dannose per la persistenza di questa complessa dinamica. La presenza di simili condizioni può verificarsi o meno. Gli adattamenti quindi possono essere o meno appropriati a un dato contesto, fino al punto che la conseguenza rispetto alla quale sono organizzate può essere conseguita o meno. Di nuovo, questa è un indicazione della normatività delle funzioni: la possibilità di disfunzioni. In caso di disfunzione la relazione di corrispondenza tra organizzazione interna e condizioni estrinseche non esiste più. Grossolanamente, quindi, possiamo descriverla come una predizione erronea , basata su una sorta di induzione fisica a partire da istanze passate. Sotto questo aspetto - di corrispondenza possibile ma fallibile - si può considerare un adattamento come qualcosa che incorpora in-
Autogenesi
373
formazioni su un possibile stato del mondo. E come altre più ovvie forme di rappresentazione, questa proiezione può essere erronea; potrebbe non esservi nulla, nell'ambiente immediatamente circostante, di corrispondente. Così si può dire che i sistemi autogeni rappresentano il proprio ambiente, grosso modo nello stesso senso in cui si può dire che un'impronta rappresenta una scarpa. Siamo ben lontani da una piena spiegazione dei tipi di processi teleologici vissuti a livello della consapevolezza umana, e a una considerevole distanza da ciò che si ritrova nelle più semplici forme di vita del nostro pianeta. Questa prova di principio, sotto questo aspetto è davvero minimale. Tuttavia è un esempio definitivo di superamento del fondamentale iato che intercorre tra il mondo meccanico da quello delle funzioni e delle norme. , Riassumendo quindi, in questo semplice sistema molecolare dinamico possiamo discernere i precursori minimi di funzione, adattamento, teleologia, valutazione, persino una prima vaga anticipazione di quella che sarà l'informazione relativa all'ambiente, e di un sé rispetto al quale tutto ciò ha importanza. Ciascuno di questi attributi è implicitamente intenzionale, e però la loro emergenza può essere compresa con precisione senza bisogno né di attribuirli a forme misteriose o bizzarre di causalità né di sostenere che non c'è alcuna fondamentale soglia che viene attraversata a questo punto. Ciò dimostra che almeno in linea di principio - e in ultima analisi solo questo conta - reali fènomeni teleologici e intenzionali possono emergere da processi fisici e chimici in precedenza privi di tali propri.età. Così, ora che abbiamo esplorato a fondo questo semplice sistema teleodinamico e abbiamo dimostrato come possa emergere da processi morfodinamici meno còmplicati, e in definitiva dalla termodinamica, ci troviamo nella posizione di poter cominciare a riformulare il modo in cui intendiamo la fisica dei processi organizzati in vista delle loro conseguenze. Come minimo, questa analisi dimostra che non può esservi una semplice mappatura uno a uno delle relazioni teleodinamiche sulle relazioni meccanicistiche. Questo legame tra la meccanica di base e i processi e rapporti entenzionali deve necessariamente passare attraverso un livello di processi morfodinamici intervenienti. I tentativi falliti di mappare le dinami-
e
374
Natura incompleta
che dei viventi e i processi cognitivi su processi fisici più semplici, e dunque di ridurre i processi cognitivi a più semplici processi fisici, erano quindi destinati al fallimento fin dal principio, anche se non in seguito a qualche fondamentale discontinuità o dualismo: La relazione di sopravvenienza fra essi è effettivamente necessaria, ma è da un lato doppiamente indecomponibile, e dall'altro doppiamente negativa. È doppiamente indecomponibile perché si basa su due transizioni emergenti, ciascuna delle quali è definita dalla generazione intrinseca di vincoli olistici di ordine superiore, che non possono essere decomposti in componenti o rapporti di ordine inferiore. È doppiamente negativa perché ogni livello della dinamica emerge dall'interazione di vincoli di livello inferiore che sono essi stessi proprietà assenziali. In effetti, quindi, ciascuno di essi è espressione di una forma di assenza di ordine superiore generata da rapporti fra assenze di ordine inferiore. Questo carattere dei processi teleodinamici è quasi certamente uno dei motivi per cui ci risulta così profondamente controintuitivo dal punto di vista meccanico. L'analisi di questo ulteriore livello di transizioni emergenti ci consente inoltre di identificare una logica comune con cui definire l'emergenza più in generale, senza ambiguità. Una transizione dinamica emergente è segnalata dal cambiamento della topologia dello spazio delle fasi delle probabili traiettorie dinamiche. Usando il termine che abbiamo applicato alle asimmetrie dei probabili cambiamenti di stato, ogni transizione dinamica emergente comporta la comparsa di una nuova modalità di logica d'attrattore ortograda. Così, la transizione da un semplice regime termodinamico a un regime morfodinamico è segnata dall'emergenza di tendenze ortograde verso vincoli globali altamente regolarizzati che contrastano le tendenze ortograde alla dissipazione dei vincoli dei sottostanti processi termodinamici. L'emergenza, nei fatti, è definita dal rovesciamento di polarità delle dinamiche ortograde man mano che si sale di scala. Così il segno distintivo ortogrado del cambiamento termodinamico è la dissipazione dei vincoli, il segno distintivo ortogrado del cambiamento morfodinamico è 1' amplificazione dei vincoli e il segno distintivo ortogrado del cambiamento teleodinamico è la preservazione e correlazione dei vincoli. Il rovesciamento di polarità che definisce
Autogenesi
375
l'emergenza della teleodinamica dalla morfodinamica è ciò che caratterizza la vita e l'evoluzione. Un'adatta, o interdipendente, corrispondenza tra vincoli di domini diversi è l'essenza sia dell'adattamento biologico sia delle relazioni che caratterizzano i rapporti di rappresentazione. Questo dunque ci dà il primo ponte su cui attraversare la «frattura epistemica» che ha segnato il confine tra i due corni del dilemma cartesiano, la terra di nessuno che ha diviso scienza e metafisica relegandole in due universi apparentemente incommensurabili. Fin qui l'analisi è stata prevalentemente confinata a processi che si situano nello spazio che va dalla termodinamica molecolare fino ai più semplici processi di tipo vitale. Le transizioni din.amiche emergenti sono però ubiquitarie in natura, e se ai livelli di scala inferiori sono più semplici possono farsi assai più complesse ai livelli di scala in cui emergono organismi pluricellulari, cervelli e fenomeni sociali umani. Ciò nondimeno, c'è un principio generale esemplificato dai più semplici sistemi autogeni qui descritti che si applica a tutti i livelli superiori di dinamica emergente: tutti i processi teleodinamici devono essere costituiti da relazioni morfodinamiche reciprocamente sinergiche, e tutti i processi morfodinamici devono 'essere costituiti da proces~i omeodinamici in competizione. Pur se i processi teleodinamici di ordine superiore possono esibire proprietà più elaborate di quelle dei sistemi autogeni elementari, essi devono così insorgere attraverso una ricapitolazione della stessa logica gerarchica di dinamiche emergenti, anche se i componenti sono poi essi stessi sistemi teleodinamici. I sistemi teleodinamici possono interagire omeodinamicamente, le relazioni omeodinamiche tra sistemi teleodinamici possono dar luogo a relazioni morfodinamiche, e relazioni morfodinamiche sinergicamente reciproche costituite da sistemi teleodinamici interagenti possono produrre relazioni teleodinamiche di ordine superiore. A ognuna di queste transizioni eme1;genti vi sarà un caratteristico nuovo livello di geometria ortograda di causalità, ma la generazione delle singole transizioni emergenti deve necessariamente dipendere da questa logica emergente omeo-morfo-teleo. Come i sistemi autogeni elementari, i sistemi teleodinarnici di ordine superiore saranno anch'essi sistemi individuati, auto creati, automante-
Natura incompleta
nuti e autoriproducentesi, ma potranno anche esibire proprietà teleodinamiche emergenti non esibite dai loro componenti teleodinamici di ordine inferiore. Chiamare «autogeni» i sistemi teleodinamici di secondo e terzo ordine, e descrivere come autogene le loro proprietà sarebbe perciò troppo restrittivo, e falsamente riduttivo. Chiamerò perciò i sistemi teleodinamici di ordine superiore teleogeni per designarne sia l'individualità che la capacità di generare ulteriori forme di processi teleodinamici. Esamineremo alcune delle proprietà di questo tipo di relazioni teleodinamiche emergenti di ordine superiore nei capitoli finali, e discuteremo le implicazioni dei processi omeodinamici, morfodinamici, e anche teleodinamici costituiti dalle interazioni di sistemi teleodinamici di ordine inferiore, come accade negli ecosistemi, negli organismi complessi, nei cervelli e nei sistemi sociali. Ma prima di applicare questa logica a sistemi sempre più complicati dobbiamo riflettere sulla generalità di questa analisi al di là del modello elementare che abbiamo usato come esempio di questo terzo reame di dinamiche.
Capitolo
II
Lavoro
Che cos'è l'energia? Ci si potrebbe aspettare a questo punto una bella definizione chiara e concisa. Prendete un testo di chimica, o di fisica, o di termodinamica, e cercate nell'indice «Energia, definizione di»; non troverete nessuna voce del genere. Penserete che possa essere un'errore di distrazione; quindi andate alla giusta sezione del libro, la, studiate ben bene e non ci trovate niente di utile. Ogni volta che si presenta l'opportunità di definire l'energia, omettono di farlo. Perché tutto questo segreto? O si presume che lo sappiate già? O forse è semplicemente ovvio? H.C. Van Ness 1
Costretti a cambiare La teoria delle dinamiche emergenti non è in conflitto con i principi base della dinamica fisica. È anzi basata quasi per intero su teorie fisiche già ben stabilite prima del XX secolo. Vi è però un modo interessante in cui può ampliare ed estendere a quei regni del1' organizzato e dell' entenzionale che finora sono rimasti prevalentemente disgiunti dalle scienze fisiche. In questo capitolo, dunque, riesamineremo le comuni nozioni di energia, potere, forza e in particolare lavoro, nel tentativo di capire in che modo possano essere generalizzati e riformulati in termini di dinamiche emergenti. Ci~ voluto il genio di Galileo e quello di Isaac Newton per mostrare in modo definitivo che, trascurando gli effetti dell'attrito, gli
Natura incompleta
oggetti che si muovono in linea retta mantengono indefinitamente velocità e direzione, purché non siano soggetti alla gravità, ostacolati da collisioni o in altri modi costretti a deviare. Ne risulta che il moto rettilineo uniforme è oggi considerato equivalente allo stato di quiete. Tende a persistere in quanto modello spontaneamente stabile di cambiamento. Anche un sistema termodinamico all'equilibrio è in continuo cambiamento, anche se a livello macroscopico sembra sempre uguale. Sotto questo aspetto, è analogo a un oggetto in moto uniforme non soggetto a disturbi. Estendendo l' analogia, possiamo paragonare le interazioni oggetti che si muovono diversamente a quelle tra sistemi termodinamici con differenti calori specifici o livelli energetici. Quando gli oggetti interagiscono le differenze di quantità di moto relativa danno luogo ad accelerazioni che ne modificano i moti. La differenza di calore totale, o nel contenuto energetico tra differenti sistemi termodinamici all'equilibrio può. tradursi in cambiamenti in entrambi i sistemi se sono fatti interagire. Queste corrispondenze fanno parte delle fondamenta su cui è stata costruita la fisica. classica, e hanno poi trovato espressione ancor più sottile nelle teorie della relatività e dei quanti.· Di quanto cambino le cose rispetto a quanto sarebbe avvenuto spontaneamente riflette la quantità di lavoro compiuto per dar luogo a tale cambiamento. Fino a che ·un cambiamento controgrado persiste, è coinvolto del lavoro, e così può accumularsi nel tempo e sulla distanza. Di quanto cambiano riflette inoltre quanta energia viene scambiata nel corso della transizione dalla condizione precedente a quella cambiata nell'interazione. L'energia è legata alla capacità di compiere lavoro, che sia espressa nella collisione di due masse o trattenuta nel potenziale elettrico compresso nei legami co.valenti di una molecola di'idr-Ocarburo. Come abbiamo visto, però, il concetto di energia è notèvohnente difficile da fissare. Ciò si deve in parte al fatfo che è una nozione ottenuta per astrazione dal concetto di lavoro. In un certo senso, la si potrebbe considerare semplicemente un modo per tenere la contabilità. È quel che non cambia in nessun cambiamento fisico, spontaneo o meno che sia. Il lavoro, d'altro canto, è intuitivamente più trattabile, dato che si riflette nel quantitativo di cambiamento non spontaneo che nerisulta. E, contrariamente ali' energia, la capacità di compiere lavoro
fra
Lavoro
379
non resta costante. È quel che intuiamo quando l'acqua è tutta fluita a valle e non possiamo più usarne il moto per far girare una ruota ad acqua, o quando il calore è stato pienamente trasferito tra due sistemi che ora si trovano all'equilibrio. Durante la caduta dell'acqua diciamo che dell'energia è trasferita dal movimento dell'acqua alla ruota che gira, e durante lo scambio di calore diçiamo che del1' energia è trasferita dal contenitore più caldo a quello più freddo. Arrivata a livello del terreno l'acqua non può compiere altro lavoro,, e una volta stabilitosi l'equilibrio non si può più estrarre altro lavoro dal sistema termodinamico. Si dice in questo caso che non vi è più «energia libera» da trasferire in tali interazioni. Ovviamente, parte dell'energia implicita nell'acqua ad alta quota potrebbe essere «liberata» se trovassimo il niodo di farla scorrere a una quota ancor ·più bassa, e parte dell'energia di un sistema termodinamico ali' equilibrio tornerebbe a essere libera se tale sistema dovesse in seguito essere posto in contatto con un sistema ancor più freddo. Ovviamente a un certo punto non c'è alcun punto più basso in cui possa scorrere l'acqua, e nessun sistema più freddo che possa portar via parte del calore di un sistema termodinamico. Quest'ultima condizione è detta zero assoluto (e non è una sorpresa che la materia cominci a comportarsi in modo strano in prossimità di questa temperatura). Questa capacità di «liberare» o «intrappolare» l'energia ci dice che non è l'energia in se stessa, qualunque cosa essa sia, a essere la fonte del cambiamento. Piuttosto, è la sua disponibilità a «muoversi» da un posto all'altro o subire transizioni da una forma all'altra a fornire il potenziale di cambiamento controgrado. È per questo che i vincoli imposti a questo «movimento» sono così centrali per la nozione di causalità. Inoltre la generazione di dinamiche emergenti di ordine superiore dipende anch'essa dal lavoro compiuto a livelli di ordine inferiore. Quel che scopriremo è che a ogni nuova transizione emergente emerge anche una nuova capacità di compiere lavoro. E una nuova modalità di lavoro introduce nel mondo nuove possibilità causali. Per capire dunque l'emergenza di nuove forme di causalità dobbiamo spiegare più precisamente l'emergenza e la natura di queste forme di lavoro di ordine superiore.
380
Natura incompleta
Sforzo La precisa analisi di Newton del concetto di lavoro meccanico è stata solo l'inizio dell'analisi fisica di questa spiegazione dei cambiamenti dello stato delle cose. Per rendere coerenti fra loro tutte le forme di lavoro fisico, e spiegarne la reciproca convertibilità, i fisici del XIX e del XX secolo hanno dovuto scoprire in che modo il concetto newtoniano equivale alla capacità di produrre cambiamento di motori termici, reazioni chimiche, interazioni elettromagnetiche e trasmutazioni nucleari. Nel terzo decennio del XX secolo questo progetto era ormai stato portato a termine. Ma alle spalle di questo gigantesco risultato della fisica teorica sta una concezione del lavoro più vasta, generalmente ignorata nelle scienze naturali perché si assume che sia un mero analogo colloquiale di questa accezione più tecnica. L'analisi tecnica del lavoro, nei fatti, è stata di gran lunga preceduta da questa più generica concezione, di cui ci avvaliamo per descrivere una vasta serie di imprese che comportano uno sforzo. La questione che affronteremo in questo capitolo è se questi altri concetti di lavoro si possano anch'essi ricondurre a una più precisa relazione formale con la nozione delle scienze fisiche. In altre parole, per evidenziare soltanto un esempio, può il lavoro di concepire questi pensieri, trasformarli in frasi e scegliere le parole più appropriate per esprimerli, essere inteso come altrettanto reale e misurabile del lavoro di un motore a combustione interna? Non parlo soltanto del sostegno metabolico delle reazioni biochimiche neurali e muscolari coinvolte, anche se queste pure sono rilevanti, ma del lavoro di ordine superiore di formulare e interpretare i relativi concetti; di che cosa, cioè, faccia sì che le fantasticherie non richiedano ·sforzi ma risolvere problemi, con un consumo energetico equivalente, sia difficile. Anche se poi spesso sotto il profilo energetico non sono equivalenti, sosterrò che non è l'energia usata a fare la differenza ma la manipolazione del contenuto di questi pensieri: una cosa che abbiamo sostenuto non essere fisicamente presente. Non si tratta di risolvere un problema puramente accademico. Misurare la quantità di lavoro necessaria per un certo compito è spesso un fattore importante nel determinare i requisiti minimi per il successo o per determinare l'efficienza relativa di vari modi di
Lavoro
giungere allo stesso risultato. Quando si tratta di valutare compiti di natura fisica, per esempio, gli ingegneri calcolano regolarmente quanto lavoro vada compiuto per spostare gli oggetti entro un' officina, per sollevare un oggetto pesante a una certa altezza o per accelerare un veicolo a una certa velocità. Ma il tipo di lavoro che spesso siamo interessati ad analizzare non è sempre soltanto fisico in. questo senso. L'uso forse più consueto del termine «lavoro» si riferisce ad attività che non rientrano bene nello schema della fisica, ma comportano difficili decisioni da prendere, effetti causali ignoti da analizzare e misteri da esplorare. Tendiamo anzi a chiamare lavoro le nostre occupazioni. A un estraneo possiamo chiedere: «Che lavoro fai?» e parliamo di «andare _al lavoro» al mattino, dove il lavoro è considerato una classe di attività umane o addirittura il luogo in cui queste si svolgono. Ciò che queste nozioni più colloquiali hanno in comune con il concetto newtoniano di lavoro è la superficiale implicazione che l'attività di cui si parla fa accadere cose che senza di essa non accadrebbero, o che altre cose invece accadrebbero se non si fa del lavoro per impedirlo. Possiamo dunque dire che l'idea comune dietro a tutte queste forme di lavoro è quella di attività necessaria a superare resistenze al cambiamento. La resistenza può essere passiva o attiva, e quindi il lavoro può essere indirizzato a far avvenire cambiamenti che altrimenti non avverrebbero o a prevenire cambiamenti che in sua assenza avverrebbero. Ciò vuol dire che il lavorò può anche essere un'attività contrapposta ad altre forme di lavoro in competizione con essa, come quando la polizia contrasta il lavoro dei criminali. Questo uso più generico del concetto di lavoro vale anche per indicare attività che richiedono sforzi soltanto mentali, in cui il legame con attività fisica e processi energetici può essere davvero oscuro. Sappiamo, per esempio, che produrre una nuova routine software per svolgere un compito computazionale, o risolvere un difficile schema di parole crociate, o concepire e organizzare i passi necessari a realizzare in modo efficiente un indumento sono tutte cose che richiedono lavoro. Ma non è affatto ovvio in che modo si possano misurare o comparare tutte queste forme di lavoro, sia fra loro che rispetto al concetto generale di lavoro della fisica. Ciò malgrado, siamo spesso abili nel dare valutazioni comparative del lavoro mentale. Un puzzle difficile da ricomporre richiede
Natura incompleta
più lavoro di quelli facili. Ciò può essere dovuto semplicemente al fatto che i pezzi sono di più. E può essere più difficile se i pezzi sono tutti rovesciati in modo che non vi sia alcuna immagine a suggerire quali sono adiacenti l'uno all'altro. Per renderli ancora più difficili, alcuni produttori tagliano i pezzi del puzzle in forme fra loro molto simili, in modo da rendere indisponibili i vincoli relativi all'incompatibilità di forma. Queste complicazioni non richiedono necessariamente più manipolazione fisica dei pezzi, ma quasi certamente richiederanno più «manipolazione mentale». Questo esempio indica che il numero delle disposizioni opzionali delle cose che non sono desiderabili o funzionali e la difficoltà di distinguere fra esse contribuisce a questa nozione della quantità di lavoro mentale necessano. Come potrebbe essere collegato alla più familiare riozione di lavoro meccanico? Anche se spostare i pezzi del puzzle da una parte all'altra comporta un certo lavoro meccanico, e se ci vogliono più movimenti per trovare le corrette corrispondenze per tentativi ed errori nei problemi a molti componenti che in quelli con un nu, mero di componenti minore, non è in questi termini che intuitivamente stimiamo la quantità di lavoro che sarà necessaria. Probabilmente il miglior parametro di stima è una misura del numero di operazioni che sarà necessario per arrivare a una soluzione. Ogni operazione, ovviamente, anche quelle mentali, richiede energia, visto che anche queste non hanno grandi probabilità 'di verificarsi spontaneamente. Ma spesso questa è solo la più banale delle forme di resistenza da superare. Nello scrivere questo libro, per esempio, il lavoro delle dita necessario per immettere il testo nel computer è banale in confronto a quello necessario a concepire ed esprimere queste idee. Ciò è in accordo con l'intuizione per cui rianalizzare e riformulare modi di pensare altrimenti largamente accettati - e particolarmente lo sforzo di confezionare critiche convincenti e spiegazioni alternative, e quello di scoprire il miglior modo di comunicare idee che possono essere controintuitive o estranee o comunque contrarie alle nozioni consolidate - è un lavoro difficile, anche se può non essere più esigente, in termini di energia, di un chilometro di passeggiata. Ciò fa pensare che le fonti di resistenza su cui si concentra il lavoro da fare comprendano anche tendenze trascurate da fisici e ingegneri;
Lavoro
per esempio tendenze del pensiero che contribuiscono alla difficoltà di cambiare opinioni o credenze. Si può essere tentati di obiettare che la somiglianza tra queste varie nozioni di lavoro e il concetto di lavoro del fisico sono solo superficiali, e che l'uso dello stesso termine per riferirsi a una forma di impiego o a uno sforzo mentale creativo è legato alla nozione newtoniana solo in per via di metafora. Ma se c'è un più profondo isomorfismo che collega tutte queste nozioni, allora arrivare a capire questa connessione potrebbe essere di grande beneficio. Sta di·ventando sempre più importante trovare il modo migliore di misurare e confrontare tutte queste diverse forme di lavoro, tanto più in un epoca in cui un gran numero dì persone trascorre le sue giornate a classificare e analizzare dati, a organizzare le informazioni in modo utile, e a comunicare con altre persone sul modo in cui lo fanno. Se dunque fosse possibile identificare un principio unificante che esprima le interdipendenze tra la concezione di lavoro dei fisici e l'esperienza del suo lavoro del programmatore di computer, per esempio, ciò potrebbe avere un profondo valore scientifico e pratico. Non solo perché queste conoscenze potrebbero servire a valutare l'efficienza relativa delle strategie gestionali, aiutare le agenzie di Wall Street a trovare le campagne pubblicitarie ottimali o contribuire agli sforzi dei politici di manipolare l'opinione pubblica, ma perché il lavoro è il comune denominatore di tutte le attribuzioni di potere causale, dalle collisioni delle palle da biliardo ai colpi di stato militari alla produzione creativa di un genio. Più in generale, quel che intendiamo per «causalità» è profondamente correlato a quel che intendiamo con «lavoro». Una delle principali ragioni per cui scienziati e filosofi continuano a discutere sul tipo di causalità che costituisce la nostra capacità di dar inizio ad attività finalizzate è che non riusciamo a capire come collegare questa forma di lavoro mentale alle forme di lavoro fisico che vi sono anch'esse necessariamente coinvolte. Per dare finalmente un taglio all'aggrovigliata matassa di confusione che circonda i misteri dell'agenzia mentale e dell'efficacia delle rappresentazioni, dunque, per prima cosa dobbiamo sviluppare una teoria generale del lavoro: una teoria che dimostri il collegamento tra i modi in cui sia l'energia che le idee introducono cambiamenti non spontanei nel mondo.
Natura incompleta
Contro la spontaneità Gregory Bateson, antropologo e teorico dei sistemi, è noto per i suoi incessanti sforzi di demolire la difiùsa fallacia di descrivere le relazioni informazionali, in biologia e nelle scienze umane, mediante metafore energetiche. Nel tentativo di definire l'informazione nel modo più generale possibile, e per distinguerla dall'energia, l'ha definita come «una differenza che fa la differenza». Ciò rende esplicita una concezione dell'informazione che è centrale per la teoria matematica delle· comunicazioni di Claude Shannon, alla quale Bateson aggiungeva un implicito aspetto cibe~etico in virtù del gioco di parole su «fare la differenza». Torneremo sul problema di definire l'informazione, ma questa idea di differenza, non senza ironia, è rilevante anche per il concetto di lavoro. Bateson stava cercando di distillare l'essenza della logica della teoria dell'informazione e controllo evidenziando il fatto che secondo questa teoria l'informazione era soltanto una misura di varietà o differenza, e non una «cosa». Stava sottolineando il fatto che una differenza è una relazione astratta, e in quanto tale si comporta assai diversamente da quanto fanno le sostanze materiali e le loro interazioni da sole. Come esempio, fa notare che un interruttore non è né dentro né fuori da un circuito elettrico. Esso media invece il rapporto tra certi eventi esterni al circuito e quelli che si verificano al suo interno. Nell'azionare l'interruttore una differenza ·esterna di un certa caratteristica crea una differenza entro il circuito, che a sua volta provoca una differenza ali' esterno, e così via. Quella di Bateson era una reazione contro l'uso metaforico ma fuorviante di concetti energetìci per parlare di processi legati all'informazione, che si presentano per esempio in concetti come la «forza» delle idee, la «potenza» dell'ideologia, o la «pressione» delle emozioni represse (dovuta per esempio a un blocco del flusso della libido nelle teorie freudiane della nevrosi). Egli si batteva contro una consolidata terminologia sostanzialistica che oscurava le decisive differenze tra i principi della fisica e quelli che si stavano cominciando ad articolare nei campi allora agli inizi della teoria dell'informazione e della cibernetica. Questa fuorviante confusione di energia e informazione ci spinge spesso a trattare l'informazione- come fosse una
Lavoro
materia prima di tipo fisico; qualcosa che si può acquisire, immagazzinare, vendere, spostare, perdere, condividere e così via. Come risulta ovvio da quest'elenco di verbi, questo è proprio ciò che intende, colloquialmente, con questo concetto. La precisazione di Bateson suggerisce che, come nel caso dell'energia, sarebbe stato possibile progredire solo sostituendo tutto ciò con una concezione relazionale e dinamica dell'informazione. Questa è stata realizzata negli anni quaranta. Nel prossimo capitolo torneremo ad analizzare il concetto di informazione, spiegando sia questo progresso sia perché non sia ancora sufficiente a dame una concezione completa. Per ora però è sufficiente riconoscere che questa tendenza «sostanzialistica» è analoga all'idea dell'energia come sostanza che ha dominato il XVIII e il primo XIX secolo. La frase di Bateson quindi, pur cogliendo alcuni importanti aspetti caratterizzanti dell'informazione, che ne dimostrano la differenza dalle «cose» pure e semplici, lascia ancora molte ambiguità, e nei fatti non arriva del tutto a dissipare, come intendeva Bateson, l'ambiguità fra energia e informazione. Di recente un collega di Berkeley, Tyrone Cashman, mi ha raccontato una sua discussione di qualche anno fa con l'influente ecologo Howard Odum. Cashman stava cercando di spiegare la distinzione che Bateson aveva istituito tra energia e informazione mediante questo epigramma. Ma Odum obiettò che la frase non dimostrava affatto univocamente questa distinzione, perché si poteva applicare altrettanto bene al concetto energetico di lavoro: una differenza nella distribuzione dell'energia in un sistema può essere usata per produrre una differenza nella distribuzione dell'energia in un altro. L'obiezione è ben posta. Come detto, si tratta di una definizio. ne accurata del concetto di lavoro meccani~o o termodinamico. Dunque Bateson era in errore? La sua definizione di informazione è insoddisfacente? Da una parte, devo concordare con Odum: questo epigramma non coglie le caratteristiche distintive ·dei processi informazionali che li rendono diversi dal lavoro in senso energetico. D'altra parte, se caratterizzare l'energia in questo modo è utile (e io penso di sì), allora questa corrispondenza suggerisce qualcosa di assai interessante. Fa pensare che la generazione di informazione può essere intesa come una forma di lavoro, forse correlata, anche se non identica, al
386
Natura incompleta
lavoro energetico. Dunque un confronto con lo sviluppo del concetto di energia può forse dare qualche indizio sui vari tipi di concezioni errate che tendono a presentarsi nell'analisi del concetto di informazione. In che modo questa nozione di Bateson, presa come descrizione del lavoro fisico, può indicarci la strada verso una più precisa concezione generale del lavoro? Consideriamo come potrebbe applicarsi a un processo fisico. 'Quando l'energia è trasformata da una forma all'altra, è una differenza che viene trasferita da un substrato a un altro (cioè un gradiente di non equivalenza, un'asimmetria della distribuzione, per esempio, della quantità di moto delle molecole), ma in questo passaggio è coinvolta qualche resistenza. I sistemi «resistono» all'essere allontanati da uno stato di equilibrio. Anche questo è implicitamente compreso nella frase di Bateson, che infatti implica che la seconda differenza è fatta - costretta a - venire in essere dalla prima. La differenza «fatta» dipende dalla differenza presa come data. L'implicazione è che la nuova differenza che si crea in questo processo non si sarebbe verificata se non fosse esistita la prima differenza. Un altro modo di descrivere il lavoro dunque, avvalendosi della caratterizzazione di Bateson, è che esso coinvolge qualcosa che non tende ad avvenire spontaneamente e viene indotto a verificarsi da qualcos'altro che avviene spontaneamente. Possiamo dire che il lavoro è l'organizzazione di differenze tra processi ortogradi in modo che venga a crearsi una sede di processi controgradi. O semplicemente: il lavoro è un cambiamento spontaneo che fà accadere un çambiamento non spontaneo. Con questa definizione generica di prima approssimazione possiamo cominciare a dipanare la logica che collega energia, forma e informazione. Già prima del XIX secolo Isaac Newton aveva dato una precisa definizione di lavoro meccanico. L'importanza degli esperimenti di Joule, qualche secolo dopo, fu di mostrare che c'è un preciso rapporto tra questa ormai accettata nozione di lavoro meccanico e la generazione di calore. In entrambi i casi il lavoro era definito in relazione al cambiamento di qualcosa che altrimenti avrebbe teso a restare com'era. Ma il rapporto tra lavoro meccanico e lavoro termodinamico è più profondo, e più largamente intrecciato che semplicemente parallelo.
Lavoro
Si ricordi che le proprietà termodinamiche sono il riflesso macroscopico della dinamica newtoniana a livello molecolare. Dal punto di vista newtoniano, ogni collisione fra molecole in un gas ideale comporta un minuscolo quantitativo di lavoro meccanico, quando le molecole che collidono sono deviate dal loro precedente cammino. Anche all'equilibrio, vi sono continue collisioni molecolari, e dunque continuo lavoro a livello molecolare. L'energia complessiva media delle collisioni, anzi, non è diversa quando il sistema è in equilibrio e quando è lontano da esso. Questo «moto browniano» è il mezzo attraverso cui le molecole di una goccia di inchiostro che cada nell'acqua finiscono per diffondersi in tutta la soluzione. Senza questo lavoro molecolare non può esservi alcun cambiamento. Ma mentre è possibile ottenere lavoro da un sistema che si trova in uno stato lontano dall'equilibrio, man mano che questo evolve spontaneamente verso l'equilibrio stesso questa capacità diminuisce rapidamente, anche se l'ammontare totale del lavoro a livello molecolare rimane costante per tutto il tempo. E al1' equilibrio il gran numero di collisioni e la grande quantità di lavoro microscopico che continua a prodursi non danno alcuna capacità «netta» di compiere lavoro macroscopico. Dunque malgrado il potenziale di lavoro macroscopico dipenda da un incessante processo di lavoro microscopico, non è da esso che deriva il lavoro macroscopico. Esso deriva piuttosto da una distribuzione assai asimmetrica del lavoro microscopico nell'intero sistema. Questo ci mostra che i due livelli di lavoro - microscopico-molecolare e macroscopico-termodinamico - non sono direttamente correlati. Il lavoro microscopico è una condizione. necessaria ma non sufficiente per il lavoro macroscopico. Ogni interazione che allontani il sistema dall'equilibrio sarà anch'essa risultato di cambiamenti di queste collisioni a livello microscopico. Così, sia accelerare un sottoinsieme di molecole in contatto cort una fonte di calore sia rallentare molecole ponendole in contatto con una superficie fredda produce la capacità di compiere lavoro termodinamico. A prescindere da che l'energia sia aggiunta a o rimossa dal sistema, è il grado di differenza asimmetrica nello spazio delle velocità molecolari medie che conta. Da ultimo, la capacità del sistema nel suo complesso di fornire lavoro a un livello superiore a
388
Natura incompleta
quello delle collisioni molecolari è conseguenza delle caratteristiche distribuzionali dell'incessante lavoro microscopico, non dell'energia dellè collisioni dei componenti, che nel suo complesso può aumentare, diminuire o restare invariata. In termodinamica, cioè, il macro non si riduce semplicemente al micro, anche se da esso dipende. Il fattore critico è la forma macroscopica della distribuzione. Così, inoltre, come per una massa in moto rettilineo, uno stato di cambiamento incessante può essere anche uno stato termodinamicamente stabile. Ciò suggerisce un'altra interessante analogia tra la nozione newtoniana e quella termodinamica di lavoro. In termini newtoniani, una massa può essere perturbata dallo stato di quiete o da una traiettoria lineare solo per imposizione di una forza estrinseca; come attraverso l'interazione con un'altra massa con differenti valori di velocità e direzione o sotto l'influenza di un campo di forza, come la gravità. In altre parole, la sua resistenza al cambiamento si riflette nella quantità di lavoro richiesta per produrre un certo cambiamento. La resistenza è caratteristica anche dei sistemi termodinamici. Un sistema termodinamico all'equilibrio può essere allontanato da questo bacino dinamicamente simmetrico solo se accoppiato a un secondo sistema che abbia valori diversi di una variabile di sistema, come temperatura o pressione. Quando due sistemi con diversi valori di equilibrio sono accoppiati, la stabilità cede il passo al cambiamento, e i sistemi accoppiati cambiano per raggiungere un nuovo punto di equilibrio. La fase transitoria durante la quale il sistema termodinamico combinato, ora più vasto, cambia fino a raggiungere un nuovo stato di equilibrio globale è così analoga al breve periodo in cui gli oggetti in collisione in un mondo newtoniano subiscono accelerazioni o decelerazioni in seguito alla loro interazione. Nel mondo reale neppure le interazioni newtoniane sono istantanee, soprattutto se gli oggetti che si urtano sono elastici. Gli effetti elastici sottolineano la base di tipo termodinamico delle stesse interazioni newtoniane, dato che il rimbalzo elastico degli oggetti reali quando si urtano comporta una destabilizzazione asimmetrica interna, in forma di compressione di certe distanze molecolari, seguita da un ritorno ali' equilibrio quando l'energia interna di entrambi gli oggetti si ridistribuisce. L'analogia a questo punto si fa un
Lavoro
po' più stiracchiata, perché contrariamente all'analogo newtoniano, in cui gli stati interni degli oggetti tornano come erano prima della collisione e gli oggetti si disaccoppiano permanentemente, nei sistemi termodinamici interagenti non c'è una distinzione netta tra stati interni e caratteristiche relazionali esterne, come la quantità di moto. Quale che sia la fonte di resistenza e stabilità, il cambiamento verso i nuovi valori di equilibrio e la nuova stabilità dinamica è spontaneo. Ciò significa che il profilo intrinseco di cambiamento spontaneo è esso stesso la fonte della resistenza al cambiamento del sistema. Così due sistemi termodinamici, che si trovino in condizioni di equilibrio diverse o siano entrambi in fase di cambiamento spontaneo con velocità differenti, possono essere considerati controgradi l'uno rispetto all'altro. Per questo, potranno compiere lavoro l'uno sull'altro se vengono accoppiati. Questo ci consente di proporre una definizione ancor più generale di lavoro: è produzione di cambiamento controgrado. Questo modo di descrivere il lavoro in relazione a una tendenza spontanea al cambiamento ci mostra che la possibilità di compiere lavoro per cambiare lo stato delle cose dipende essa stessa dalla relazione tra processi che non richiedono lavoro. In altre parole, le differenze nei processi di cambiamento spontanei e la loro resistenza a deviare dagli specifici parametri di tale cambiamento sono la fonte del lavoro. O, per dirlo in modo più succinto, i processi controgradi sorgono dall'interazione di processi ortogradi non identici. Paradossalmente, così, le interazioni tra le diverse tendenze spontanee dei sistemi sono responsabili di tutti i cambiamenti non spontanei. Dato che i sistemi compositi, che sono inerentemente interattivi, esibiscono asimmetrie statistiche dovute alle variazioni delle interazioni dei relativi componenti, un dato sistema composito avrà in genere tendenze asimmetriche spontanee nettamente diverse da quelle di un altro sistema. Ciò è particolarmente probabile nei casi in cui i substrati di tale interazione sono di forme radicalmente diversa. Nei capitoli precedenti abbiamo preso in prestito la distinzione aristotelica fra cause efficienti e cause formali per sostenere che la capacità di produrre cambiamenti non spontanei può essere approssimativamente paragonata alla causa efficiente di Aristotele e le con-
390
Natura incompleta
dizioni che producono cambiamenti spontanei alla causa formale. A questo punto possiamo essere più espliciti. Per cominciare, ricapitoliamo le nostre conclusioni sui processi ortogradi. Se la distribuzione del lavoro di ordine inferiore (micro) non è simmetrica, un sistema termodinamico composto di tali interazioni tenderà a cambiare in una direzione asimmetrica, verso una distribuzione più simmetrica, e resisterà a ogni tendenza a ristabilire nuove asimmetrie. È questo elemento distribuzionale, con l'asimmetria statistica delle possibilità di interazione a livello micro, a prescindere dal lavoro totale svolto a tale livello inferiore, a essere responsabile della direzionalità del cambiamento. Questa proprietà dell'intero è una proprietà geometrica, sia della distribuzione spaziale che della distribuzione statistica del lavoro al livello inferiore. Questa base distribuzionale è il motivo per cui ha sen~o considerare questa proprietà come una sorta di causa formale. Vincoli e condizionamenti formali, però, non compiono lavoro. Non allontanano il corso del cambiamento dal suo andamento spontaneo. Ma in quanto fondamento di ogni asimmetria che possa insorgere tra un sistema e l'altro, divengono la base del lavoro a livello più alto. Si consideri adesso la capacità di compiere lavoro a questi due livelli. La non correlazione dei movimenti molecolari relativi è la base del lavoro compiuto dalle collisioni molecolari all'interno di un gas, ma è il carattere della distribuzione statistica globale di questo lavoro di livello inferiore a essere responsabile delle proprietà ortograde di livello superiore. Analogamente la non correlazione delle proprietà ortodinamiche dei sistemi termodinamici collegati è responsabile del lavoro· di livello superiore. Così senza lavoro micro non possono esservi tendenze ortograde di cambiamento o di resistenza al cambiamento di livello superiore, ma senza tendenze ortograde non può esservi lavoro a livello ancora superiore. Sotto questo aspetto, processi ortogradi e controgradi creano reciprocamente le condizioni necessarie gli uni per gli altri, ma ai livelli adiacenti della gerarchia composizionale. Se pensiamo il lavoro come analogo alla causalità efficiente di Aristotele possiamo trattare causa efficiente e causa formale come interdipendenti e inseparabili controparti l'una dell'altra. Ma c'è un'altra distinzione che va aggiunta, sul modo inverso in cui si rap-. portano alle relazioni di simmetria che ne costituiscono la base: la
Lavoro
391
simmetria rispetto al tempo. Tanto le interazioni newtoniane quanto le trasformazioni prodotte dal lavoro termodinamico possono svolgersi in senso inverso in modo approssimativamente simmetrico. Per esempio il film di una collisione fra palle da biliardo proiettato al contrario non sembra strano, e un motore termico può essere invertito a produrre refrigerazione. Ma l'urto di una palla da biliardo che disperde le altre precedentemente disposte a triangolo e la diffusione di una goccia di inchiostro in un bicchiere d'acqua sembrerebbero del tutto innaturali se proiettate all'inverso. Lo si può descrivere in termini astratti come segue: quando un'asimmetria è trasformata in un altro tipo di asimmetria, nelle loro rispettive deviazioni dalla simmetria esse risultano fra loro simmetriche, il che vuol dire che sono reciprocamente convertibili, ma un'asimmetria che passa a uno stato più simmetrico costituisce un cambiamento fondamentale della simmetria, e i due stati non sono reciprocamente convertibili. Ma visto che la produzione di cambiamento controgrado reversibile - il lavoro - è sempre basata su processi ortogradi irreversibili di ordine inferiore, la reversibilità del lavoro non è mai completamente efficiente. A ogni trasformazione deve sempre verificarsi una qualche perdita della capacità di compiere lavoro. Per dirlo con una battuta facile da ricordare: le cause efficienti non sono mai efficienti al cento per cento. Per riassumere, dunque, abbiamo identificato quello che sembra essere un principio di causalità assai generale che mostra in che modo il lavoro e i vincoli che lo rendono possibile vadano compresi in termini di livelli di scala e organizzazione sopravveniente. Più in generale rinveniamo nella logica della causalità fisica due componenti, grossolanamente paragonabili alle nozioni aristoteliche di causa efficiente e causa formale. Si distinguono anche i loro ruoli complementari nella produzione e nell'organizzazione del càmbiamento, mostrando come siano complementari l'uno all'altro a livelli adiacenti di una gerarchia sopravveniente.
Trasformazione Normalmente per gli scopi umani (e per gli esseri viventi in generale), ci concentriamo su una sola direzione di questi effetti di interazione. Siamo cioè interessati a modificare lo stato di una singo-
392
Natura incompleta
la cosa, per renderla più utile, e dunque ci sforziamo di sottoporla a qualche altra influenza per ottenere lo scopo. Il cambiamento che questo impone sulla tendenza spontanea dell'altro sistema spesso non è per noi di alcuna importanza e tende a essere ignorato. Così, per esempio, nel familiare caso in cui un semplice motore a combustione interna sia usato per sollevare un peso dal suolo facciamo uso della spontanea espansione del carburante bruciato per superare l'inerzia spontanea del veicolo o del peso, anche se nel processo la velocità di espansione del gas è considerevolmente diminuita in confronto a quel che sarebbe accaduto in assenza di questo accoppiamento. Il sollevamento del peso, il rallentamento dell'espansione del gas e i vincoli che limitano il modo in cui essa può avvenire sono tutte cose diverse da come sarebbero state in assenza di tale accoppiamento. Ma l'espansione del gas, pur rallentata dall'azione contrograda, procede ancora in direzione ortograda, mentre il cambiamento della posizione del peso procede in direzione interamente contrograda in seguito allo squilibrio tra le forze in gioco. Per questo motivo diciamo che viene compiuto lavoro sul peso dal gas in espansione e non viceversa, anche se il rallentamento della velocità di espansione è anch'esso controgrado e costituisce un quantitativo uguale e opposto di lavoro. Entro il dominio di meccanica e termodinamica vi sono tante forme diverse di lavoro quanti sono i motori termici. E questa varietà non è che una frazione delle possibilità esistenti, che sono differenziate quanto i possibili tipi di substrato e di accoppiamenti realizzabili. Da ultimo, ogni trasformazione dell'energia da una forma all'altra comporta lavoro, nel senso in cui l'abbiamo fin qui defini:.. to. Nella trasformazione, quel che conta è l'organizzazione. Il modo in cui sono vincolate le interazioni è il determinante critico della natura del lavoro che ne risulta, perché da ultimo tutte le trasformazioni di questo genere comportano un cambiamento di dimensioni e gradi di libertà (cioè modalità dinamiche e vincoli) mentre l'energia totale resta immutata. Ciò richiede inevitabilmente lavoro, perché è un processo di ristrutturazione di vincoli. Negli ultimi secoli abbiamo imparato a costruire ogni genere di congegni capaci di convertire energia da una forma all'altra. Così un gradiente di temperatura può essere trasformato a generare lavoro meccanico in un motore termico, una corrente elettrica può es-
Lavoro
393
sere trasformata a generare un gradiente di temperatura in un frigorifero, l'energia della luce può essere trasformata in corrente elettrica in una cella fotovoltaica, e tutti questi processi possono essere organizzati in modo da svolgersi nella direzione opposta. Tutti comportano la produzione di cambiamenti· controgradi, ad accoppiare questi domini che altrimenti sono in larga misura disaccoppiati. Nel caso di un motore termico, questi domini sono separati dalle radicali differenze di scala tra moti molecolari microscopici da un lato e movimenti meccanici su larga scala dall'altro. Ma le distinzioni possono essere ancora più estreme, in senso qualitativo, e di conseguenza i limiti imposti alle possibili interazioni possono essere assai restrittivi. Per superare queste naturali suddivisioni sono spesso necessari materiali altamente specifici. Questo limite delle possibilità di interazione dovuto ai substrati è la base della diversità delle for. me di lavoro che possono essere generate, dati gli appropriati collegamenti dinamici di mediazione. Così, per esempio, una cella fotovoltaica richiede metalli in cui gli elettroni sono facilmente spostati dalla luce a mediare la trasformazione dell'energia luminosa in un gradiente di carica elettrica, e l'immensa forza di compressione della gravità solare è necessaria a trasformare la massa nucleare in luce e calore, attraverso la fusione nucleare. ' Il valore di questa concezione astratta del lavoro, però, non sta nel darci un altro modo di descrivere forme di lavoro che sono già comprese nella fisica contemporanea, ma nel darci una caratterizzazione generale astratta che può essere applicata anche al di là di questi tipici campi. Ciò che offre questo approccio - e non è affatto ovvio, se si parte solo dalla fisica - è la possibilità di estendere un concetto di lavoro analiticamente preciso a domini che non possiamo identificare con la fisica dei processi energetici: quelli della generazione di forme e dei processi semiotici. In altre parole, questa caratterizzazione astratta può essere applicata a tutti e tre i livelli di dinamica che abbiamo esplorato in questo libro. Su queste basi possiamo cominciare a formulare una teoria del lavoro morfodinamico e di quello teleodinamico. Queste formulazioni sono possibili perché a ciascun livello di dinamica vi sono classi di tendenze ortograde - condizioni di simmetria spezzata che tendono verso una maggior simmetria - che defi-
394
Natura incompleta
niscono classi di stati «attrattori» analoghi ali' equilibrio termodinamico. Così, l'accoppiamento di sistemi morfodinamici (o di sistenù teleodinamici) può, analogamente far interagire le loro distinte e spesso complesse tendenze ortograde, facendo emergere tendenze contrograde dalle loro differenze nette. Ciò apre la porta a una capacità emergente di generare forme di lavoro ancora più complesse e prima non presenti, a livelli di dinamica di ordine superiore, introducendo una possibilità di produzione di conseguenze causali che non tenderebbero a sorgere spontaneamente. Possiamo cioè cominciare a scorgere una base per una forma di apertura caùsale nell'universo. Per dare a questa idea una forma più enigmatica di livello cosmico, potremmo immaginare che mentre le leggi di conservazione della scienza ci dicono che l'universo è chiuso alla creazione o distruzione del quantitativo di possibile «differenza» (il determinato ultimo di ciò che costituisce la massa-energia) disponibile nel mondo, esse non pongono restrizioni alle possibilità distribuzionali accessibili a tali differenze; e sono le relazioni distribuzionali a determinare le forme che può prendere il cambiamento. Detto questo, dobbiamo tener presente che il rapporto fra questi diversi paradigmi dinamici di lavoro è complesso. In un certo senso non sono che analoghi fra loro, ed è importante non confonderli l'uno con l'altro. Comportano substrati assai diversi, e diversissime concezioni di cosa sia spontaneo o meno e di ciò che costituisce le differenze che generano cambiamenti spontanei, e nozioni nettamènte distinte di ciò che costituisce una sede o un sistema e di come possano essere collegati insieme. Tuttavia vi è più che una semplice analogia fra essi. Svolgono infatti lo stesso ruolo a ognuno dei livelli di dinamica e, cosa più importante, sono gerar~ chicamente interdipendenti e annidati allo stesso modo di questi tre livelli di dinamiche. Il lavoro teleodinamico dipende dal lavoro morfodinamico che dipende dal lavoro termodinamico. A ciascun livello vi è una classe di tendenze ortograde e contrograde in cui cambiamenti controgradi possono aver luogo soltanto contrapponendo dei processi ortogradi l'uno all'altro. Il passaggio di un sistema termodinamico a uno stato di maggio~ re entropia, in assenza di perturbazioni da influenze estrinseche, è l'esempio classico e più elementare di cambiamento ortogrado. Nel
Lavoro
395
mondo reale, nulla è mai completamente isolato, e nessun sistema :fisico resta per sempre libero da influenze esterne. Ciò significa che questo cambiamento ortodinamico trova spesso resistenze, o è modulato, o invertito, a seconda del relativo grado e durata dell'interazione con altri vincoli o processi contrari. In ogni contesto, i processi ortogradi proseguiranno :fino. a raggiungere uno stato di simmetria fra le probabili direzioni di cambiamento, o :fino a che non cambiano le condizioni che lo supportano. Questo termine dinamico di un processo ortogrado ne costituisce l'attrattore, che può essere o no uno stato di quiete. Nei capitoli 8 e 9 abbiamo esteso il concetto di dinamica ortograda a comprendere le forme intrinsecamente asimmetriche di dinamica che sorgono in contesti persistentemente lontani dall'equilibrio. Tutte sono compatibili, nella forma, con l'asimmetria 9rtograda descritta dalla seconda legge per tre importanti aspetti: (1) esibiscono una tendenza asimmetrica altamente probabile, caratteristica e generata intrinsecamente, nel modo in cui cambiano le loro proprietà globali, (2) la direzione di questo cambiamento converge verso un attrattore comune a prescindere dalle condizioni iniziali, e (3) questa asimmetria è dinamicamente sopravveniente su una dinamica contrograda (lavoro) equilibrata (cioè simmetrica) di ordine inferiore. Si ricordi che i processi ortogradi termodinamici dipendono da incessanti interazioni molecolari di ordine inferiore i cui effetti controgradi (lavoro) sono simmetrici rispetto al tempo, e che in un sistema isolato l'energia totale del sistema rimane costante 2 lungo il cambiamento ortogrado anche se l'entropia cresce. Questa incessante attività contrograda di ordine inferiore garantisce il costante passaggio da uno stato all'altro, ma la direzionalità asimmetrica della traiettoria del cambiamento globale non è una diretta conseguenza di questo lavoro. Questa costate attività contrograda di ordine inferiore determina un costante cambiamento, ma non la sua direzione. La simmetria ha un'origine «formale», perché si sviluppa entro la geometria condizionata dello spazio delle possibili traiettorie di cambiamento. I processi morfodinamici ortogradi sono anch'esso dinamicamente sopravvenienti su un'incessante dinamica contrograda stabi-
Natura incompleta
le di ordine inferiore: l'equilibrio (simmetria) tra incessante destabilizzazione di origine estrinseca, che introduce vincoli, e incessante dissipazione spontanea (ortograda) di tali vincoli. Questo, nei termini di Prigogine, costituisce un sistema dissipativo. Può risultarne una tendenza asimmetrica verso l'amplificazione e la propagazione di vincoli a livelli di scala più alti se questi vincoli non sono dissipati con la stessa velocità con cui sono introdotti. L'asimmetria non è però una semplice elaborazione di questa dinamica simmetrica di ordine inferiore, ma piuttosto, anche in questo caso, riflette le tendenze formali globali delle traiettorie disponibili per il cambiamento globale delle proprietà del sistema. L'asimmetria insorge in queste condizioni in seguito a combinazione non lineare di vincoli, Ciò avviene perché ogni opzione dinamica di cui è impedito il verificarsi in seguito all'introduzione di vincoli estrinseci non può condurre a un incremento delle variazioni dinamiche attraverso ulteriori interazioni contrograde di questa regione vincolata del sistema con le altre. Così, fino a che son.o introdotti nuovi vincoli estrinseci più in fretta di quanto siano dissipati, i successivi stadi di cambiamento esibiranno una gamma di variazioni progressivamen~ te ridotta. In altre parole, si autosemplificheranno e diverranno più «ordinati». I processi teleodinamici orto~adi sono più complessi perché sopravvengono dinamicamente su processi morfodinamici. Ciò mal~ grado continuano a esser validi questi principi generali rispetto al relativo supporto dinamico di ordine inferiore. I modelli di cambiamento teleodinamici emergono dalle interazioni contrograde tra processi morfodinamici. Così, nel sistema autogeno modello descritto nel capitolo precedente, due· processi morfodinamici ortogradi dalla dinamica d'attrattore completamente diversa - auto catalisi e autoassemblaggio - interagiscono, e ne consegue che compiono lavoro l'uno rispetto all'altro. Va notato che questa interazione avviene sia nel dominio termodinamico che in quello morfodina~ mico. Assumendo che entrambi i processi 'siano termodinamicamente orto gradi in condizioni di supporto favorevoli, .ciascuno di essi può essere sostenuto soltanto in presenza di un costante lavoro che mantenga lo squilibrio termodinamico che suppona questa asimmetria. Nel caso dei.singoli processi morfodinamici, tutti e due
Lavoro
397
(autocatalisi e autoassemblaggio) richiedono che siano costantemente mantenuti alti livelli locali di molecole substrato. Ciò potrebbe essere fornito estrinsecamente, per esempio, in condizioni di laboratorio. Ma quando questi processi sono collegati in virtù del fatto che un prodotto dell'uno (l'autocatalisi) serve da substrato per l'altro (l'autoassemblaggio) queste favorevoli condizioni al contorno possono essere in parte generate intrinsecamente. Mentre così è necessario che vi sia la disponibilità dei substrati per l'autocatalisi, è il processo di autocatalisi stesso a fornire substrati per l'autoassemblaggio e a generarne di nuovi in tale regione locale, pur essendo questi assorbiti per aggregazione all'involucro in accrescimento. Reciprocamente, l'autoassemblaggio riduce al minimo la diffusione dei catalizzatori interdipendenti. Contemporaneamente, però, attraverso l'inclusione fa cessare l'autocatalisi. L'auto catalisi compie così lavoro termodinamico aumentando asimmetricamente la concentrazione dei substrati per l'autoassemblaggio dell'involucro e l'autoassemblaggio compie lavoro termodinamico nell'impedire la diffusione del catalizzatore. Inoltre questa interazione comporta processi contrapposti di generazione di vincoli, e dunque lavoro morfodinamico. Ogrii processo morfodinamico genera un incremento dei vincoli, anche se in domini diversi. Ma lo sviluppo di vincoli alla diffusione dovuto all'autoassemblaggio di un involucro limita progressivamente la disponibilità dei substrati necessaria per l'auto catalisi, fino al punto in cui da ultimo questo processo si blocca entro un contenitore in cui i substrati sono stati totalmente consumati. L'auto-assemblaggio di un involucro chiuso è in più autolimitante. Ma la probabile inclusione di un insieme completo di catalizzatori interdipendenti comporta anch'essa lavoro morfòdinamico nel creare i vincoli che prevengono la dispersione di queste interdipendenze e la danno la possibilità di replicarle. Si tratta di una dinamica teleodinamica ortograda potenziata in modo persistente da questo sottostante lavoro morfodinamico e termodinamico. Questo modo di intendere il lavoro allarga la rilevanza dell' epigramma di Bateson sulla differenza che fa la differenza a una gam·ma di fenomeni assai più larga di quanto egli sembri aver mai immaginato, che comprende il dominio a suo avviso più proprio,
Natura incompleta
quello dei processi legati all'informazione. Così, malgrado il tentativo di delineare una «teoria generale del lavoro» possa apparire un'impresa noiosa e poco stimolante, esso risulta invece altrettanto decisivo per chiarire i concetti di forma e informazione quanto lo è stato per il concetto di energia nella fisica del XIX secolo.
Lavoro morfodinamico I processi termodinamici ortogradi hanno probabilità ampiamente maggiori di presentarsi spontaneamente nell'universo dei processi morfodinamici ortogradi. Corrispondentemente, gli esempi di lavoro morfodinamico avvenuto spontaneamente sono rari in confronto al lavoro termodinamico, ed è facile che sfuggano, perché la loro forma è poco familiare. Per identificarli possiamo cominciare con il definire i nostri criteri di ricerca considerando alcune analogie e differenze di tipo termodinamico. Tutti i cambiamenti di stato sono in ultima analisi cambiamenti termodinamici, ma certi cambiamenti termodinamici sono più complessi di altri. Nel descrivere forme di lavoro più complesse di quello termodinamico non intendiamo implicitamente dire che esistano nuove fonti di energia, o forme di cambiamento fisico indipendenti da quello termodinamico, e tanto meno influenze ineffabili. Le forme di lavoro di ordine superiore comportano inevitabilmente - e anzi richiedono - anche lavoro termodinamico. È solo che dar conto di certi processi in termini termodinamici è troppo semplice, e ignora intere categorie di fenomeni che svolgono un ruolo critico nell'organizzare ciò che accade, perché le descrizioni termodinamiche tengono conto soltanto delle energie coinvolte, e. assumono come date le condizioni al contorno e i vincoli strutturali entro i quali hanno luogo ·1e trasformazioni termodinamiche. Ma il lavoro termodinamico può anche modificare tali condizioni al contorno, e dato che esse sono i determinanti essenziali dell'organizzazione delle possibilità causali in un sistema, questo più alto livello di cambiamento è spesso il fattore decisivo per capire la dinamica di un sistema. Come abbiamo appena visto, nella nostra considerazione di varie macchine, le regolarità formali e condizio~ ni di simmetria di tali vincoli, e le correlazioni fra essi costituisco~ no la cornice entro la quale si rende possibile il lavoro termodina-
Lavoro
399
rnico. La termodinamica può essere considerata indipendentemente da questi vincoli che la rendono possibile perché l'analisi è concentrata su degli aspetti costanti di conservazione dell'energia, trasformazione dell'energia e quantità di lavoro coinvolte. Ma il modo in cui i vincoli in un sistema influenzano quelli di altri sistemi collegati segue una logica che esibisce degli aspetti invarianti a prescindere dalle differenze di condizione termodinamica. Dato che la velocità del cambiamento termodinamico è funzione delle proprietà dello spazio delle fasi dei possibili microstati, e queste sono funzione dei vincoli e condizionamenti di dissipazione e interazioni microscopiche, ogni alterazione di questi vincoli coinvolge implicitamente lavoro termodinamico. Ma nella misura in cui ai vincoli sulle tendenze termodinamiche è richiesto di compiere lavoro termodinamico, accade anche che i precedenti vincoli siano usati per creare nuovi vincoli ogni volta che viene compiuto lavoro termodinamico 3. Questa capacità dei vincoli al cambiamento dinamico di propagare nuovi vincoli ad altri. sistemi dinamicamente collegati è la capacità di compiere lavoro morfodinamico. Nel caso del lavoro termodinamico, è stato per prima cosa necessario descrivere quei processi che tendono ad accadere spontaneamente e poi identificare i .modi in cui questi possono essere oggetto di resistenza e/ o usati per superare tale resistenza in sistemi accoppiati. Analogamente, nel caso del lavoro morfodinamico bisogna cominciare da un'analisi delle tendenze spontanee alla formazione di vincoli e poi esplorare i modi in cui queste tendenze generano resistenza alle perturbazioni e come questa si possa usare per perturbare la formazione spontanea di vincoli in processi accoppiati. La seconda legge della termodinamica descrive ciò che tende ad accadere spontaneamente - il cambiamento ortogrado - nel dominio termodinamico. I processi morfodinamici esibiscono anch'essi forti tendenze a svilupparsi verso andamenti dinamici stabili. Di conseguenza la giustapposizione di queste tendenze o la resistenza a esse può analogamente essere intesa come comportante una forma di lavoro; effetti controgradi rispetto a tendenze ortograde. Ciò detto, la dipendenza dei processi morfodinamici da processi termodinamici rende la distinzione fra essi sottile e complicata. I processi morfodinamici non solo dipendono dai sottostanti processi dissipa-
400
Natura incompleta
tivi termodinamici, ma sono specificamente il risultato di un costante lavoro termodinamico che continuamente contrasta la tendenza all'aumento dell'entropia entro un dominio ristretto o parzialmente isolato. Che si tratti del fischio del vento che soffia tra fili elettrici e rami d'albero o della simmetria esagonale del flusso del-· le celle di convezione che trasferiscono calore all'aria alla superficie, tutte le regolarità morfodinamiche sorgono nel contesto di un equilibrio tra il tasso al quale il sistema evolverebbe spontaneamente verso una maggiore entropia e il lavoro termodinamico imposto dall'esterno a ostacolare il processo; un equilibrio, cioè di influenze termodinamiche ortograde e contrograde. Sotto questo aspetto, la regolarità morfodinamica stabilisce un nuovo livello di equilibrio dinamico tra il tasso di aumento dell'entropia e il tasso con cui il lavoro contrasta tale tendenza. È per questo che la regolarità auto-organizzata di basso ordine di complessità è un caso particolare e non la regola in natura. Assai più spesso i sistemi costantemente perturbati rimangono in uho stato turbolento semicaotico. L'equilibrio di parametri indipendenti richiesto per la convergenza verso la regolarità dinamica è spesso assai specifico, e per questo motivo è una coincidenza improbabile. La distinzione basilare tra lavoro termodinamico e la:voro morfodinamico può essere riconosciuta con facilità a causa della specificità di forma che quest'ultimo comporta. Per esempio un vortice che si formi in un ruscello dietro un masso è un sistema morfodinamico prodotto da un incessante lavoro termodinamico. Le molecole d'acqua che hanno acquisito quantità di moto nel fluire (spontaneamente) a valle incontrano 1a resistenza del masso e iUavoro risultante dall'interazione devia sistematicamente di un certo angolo la quantità di moto di molte molecole rispetto alle loro traiettorie originarie. Ma questa deviazione è contrograda al flusso ortogrado e tende a ostacolare il movimento verso valle, provocando forse instabilità locali quando l'acqua si accumula qua e là più in fretta di quanto si allontani, e dando luogo a un flusso sempre più turbolento. La formazione di un vortice regolarizza questa instabilità, con il risultato di ridurre al minimo questo tipo di squilibri caotici. La simmetria rotazionale del vortice che realizza la ridistribuzione delmomento angolare nel flusso è così conseguenza I) della tendenza
Lavoro
401
termodinamica ortograda al ritorno alla simmetria per cui il flusso caotico mina se stesso; 2) dei vincoli geometrici sul modo in cui l'asimmetria globale introdotta dal masso può essere ricondotta a simmetria, a produrre di nuovo un flusso più lineare. Che genere di lavoro può dunque essere compiuto rispetto a questa tendenza morfodinamica ortograda? Si noti che rimescolare l'acqua con una pagaia in parallelo con la rotazione non ne turba l'andamento. Ma ogni altro modello di agitazione, o che semplicemente ostacoli questo modello di flusso, tenderà a sconvolgerlo. Questi modelli di interazione disturbanti sono controgradi alla tendenza del sistema a regolarizzarsi. I modelli di interazione nonparalleli compiono così lavoro morfodinamico contro questa tendenza ortograda, mentre il modello parallelo non lo fa. Si n.oti inoltre che ogni modello che compie lavoro morfodinamico comporta anche del lavoro termodinamico, mentre il modello parallelo non lo fa. Ma questo è relativo alla tendenza ortograda intrinseca al sistema in questione. Se dunque il flusso tende a farsi caotico perché l'organizzazione geometrica dell'andamento della corrente rispetto alle velocità di flusso non è adatta a dar luogo alla formazione di vortici, agitare l'acqua nella giusta direzione può aiutare la formazione di un vortice e diminuire la turbolenza. Anche questo sarebbe lavoro morfodinamico, visto che la formazione del vortice non era la tendenza ortograda intrinseca. Di conseguenza l'introduzione di lavoro morfodinamico richiede anche lavoro termodinamico. Si noti poi che la quantità di lavoro meccanico e/ o termodinamico coinvolto dipende dalla forma del disturbo indotto dalla pagaia rispetto a quella del flusso. Ciò suggerisce una regola generale: al fine di perturbare una forma dissipativa auto-organizzata allontanandola dall'attrattore verso cui tende spontaneamente deve essere introdotta una forma contrastante e la quantità totale di lavoro termodinamico e morfodinamico coinvolta sarà funzione del numero di dimensioni di asimmetria invertite nel processo, aggiustata secondo le relative grandezze nei due processi dinamici alternativi. In tal modo, i parametri che definiscono il lavoro morfodinamico di livello superiore svolgono un ruolo' significativo nel determinare la relativa quantità di lavoro termodinamico richiesta.
402
Naturà incompleta
Una volta riconosciuto che sono coinvolte relazioni di dipendenza sia parallele che asimmetriche dobbiamo chiarire quali siano le analogie e le differenze tra lavoro morfodinamico e lavoro termodinamico. Si potrebbe, per esempio, essere tentati di descrivere ·1a dinamica regolare dei processi auto-organizzati semplici chiamandoli equilibri morfodinamici, in analogia con gli equilibri termodinamici. A complicare una tale analogia sta il fatto che molti processi morfodinamici restano parzialmente caotici (come il ruscello di cui sopra) - descrivibili solo in termini di vincoli e non di regolarità geometriche - e che anche i sistemi morfodinamici semplici possono avere più d'un attrattore dinamico quasi stabile. Questa complicata logica d'attrattore, che è diventata l'emblema degli studi sulla complessìtà, complica anche l'analisi del lavoro morfodinamico. Dato il potenziale di rottura della simmetria nei sistemi morfodinamici, descrivere il modo in cui l'interazione tra processi morfodinamici può trasformarne la dinamica ortograda in cambiamento controgrado nel dominio morfodinamico è assai più difficile che per i sistemi termodinamici, anche per la complessità gerarchica dei processi morfodinamici. Ci vuole lavoro termodinamico per alimentare gli attrattori morfodinamici, e dunque le interazioni morfodinamiche non possono minare questa -base termodinamica e continuare a compiere lavoro morfodinamico. La possibilità di organizzare precisamente un meccanismo di ·mediazione che sia in grado di trarre vantaggio dalle interazioni tra differenti attrattori morfodinamici ortogradi è così limitata dalla necessità di allineare sia i processi termodinamici che quelli morfodinamici. Inoltre, dato che gli attrattori morfodinamici non sono definiti solo da parametri quantitativi ma anche da proprietà formali di simmetria, le possibilità di allineamento controgrado di differenti processi morfodinamici sono assai più ·ristrette. A dispetto di queste difficoltà concettuali, abbiamo già descritto un caso di lavoro morfodinamico: un semplice sistema molecolare autogeno. È un caso particolare a causa della sua precisa organizza-· zione sinergica ricorsiva. Ma prima di riprendere in considerazione questo caso particolare in termini di lavoro in esso coinvolto, dobbiamo prima esaminare qualche esempio più generico, per farci un'idea generale di cosa nel lavoro morfodinamico subisca trasformazioni.
Lavoro
403
Si consideri una camera risonante come può essere un flauto o un fischietto, continuamente alimentata di energia vibrazionale dal1' aria entrante attraverso un'apertura che induce turbolenza. Con un flusso turbolento costante a un'estremità, l'aria lungo il tubo si stabilizza in un andamento vibratorio stabile, udibile come una nota continua. Cambiando la lunghezza effettiva della camera, mediante apertura o chiusura di fori in varie posizioni lungo il tubo, si provocano cambiamenti negli andamenti vibrazionali (note) stabili, anche se il flusso d'aria resta lo stesso. Le vibrazioni risonanti presentano una notevole robustezza nelle camere lineari, come quella di un flauto, ma in camere irregolari si fanno meno affidabili, e più sensibili ai cambiamenti dell'energia di alimentazione. Già in uno strumento musicale come il flauto le fluttuazioni dell'energia in entrata possono impedire la convergenza verso una vibrazione stabile. È comune, per i flautisti principianti, l'esperienza di soffiare troppo forte o troppo piano, o con l'angolazione sbagliata rispetto al bocchino, con il risultato di far oscillare il suono fra due due note diverse, mischiate ai rumori fischianti del flusso d'aria caotico. Ciò dimostra che la regolarità morfodinamica esibita dalla produzione della nota è sensibile al tasso e alla forma con cui è introdotta l'energia di perturbazione. Una volta stabilitasi una vibrazione stabile, però, il suono di un flauto può indurre altri oggetti (come un calice da vino) a vibrare, nella misura in cui siano anch'essi capaci di vibrazione regolare nella gamma di frequenza della nota del flauto. Interessante è poi che se il risonatore indotto ha una sua distinta frequenza di risonanza può risultarne un'interazione instabile, la cui conseguenza .è che quest'ultimo vibra con un andamento che è diverso da quello del flauto ma tipicamente è attratto verso un multiplo regolare della frequenza della nota del flauto: uno dei suoi armonici. Non solo energia costante, ma anche vibrazioni costantemente dissonanti devono essere introdotte per indurre il vetro ad assumere un andamento vibrazionale diverso dalla sua più robusta frequenza di risonanza spontanea. Quindi vi sono due livelli di lavoro che sono necessari per mantenere questa regolarità non spontanea. Le due forme di lavoro coinvolte sono: 1) lavoro termodinamico, responsabile dell'energia necessaria per indurre il risonatore indotto a vibrare; e 2) lavo-
Natura incompleta
ro morfodinamico, che è necessario per far sì che il risonatore vibri a frequenza diversa da quella spontanea. Il ruolo del lavoro morfodinamico è dimostrato dal fatto che anche con la stessa energia diverse frequenze di alimentazione avranno una capacità di allontanare la risposta risonante dalla sua frequenza spontanea in maniere assai diverse. In altre parole, il differenziale di regolarità tra gli andamenti vibratori dei due oggetti risonanti dà origine in uno di essi a un andamento che non si verificherebbe se questo modello di eccitazione fosse diverso o casuale. Per di più, se i due diversi oggetti risonanti sono collegati rigidamente, l'effetto può essere bidirezionale: il sistema complessivo assumerà uno stato vibrazionale che co~ stituisce una complessa sovrapposizione dei due modelli risonanti, ove ciascuna struttura diviene una fonte di lavoro morfodinamico per l'altra. Cerchiamo di essere più specifici. Separatamente, ciascuna delle strutture risonanti tende a convergere vérso un diverso stato vibrazionale globale quando si introduce energia meccanica cui poi si consente di dissiparsi. La risonanza è un attrattore morfodinamico: la forma stabile risultante di una tendenza ortograda. Si produce in seguito alla geometria della camera risonante, alle caratteristiche di propagazione delle vibrazioni del materiale, e al livello e alla stabilità dell'energia in entrata. Queste sono le condizioni al contorno responsabili della tendenza morfodinamica verso l'attrattore. Per corpi risonanti diversi, le condizioni al contorno sono diverse, e determineranno tendenze ortograde diverse. Il lavoro termodinamico che induce le vibrazioni può produrre un numero illimitato di modelli di vibrazione. Quale sia quello che viene effettivamente prodotto dipende dalle specifiche condizioni al contorno imposte dal flauto. Anche se nessuna vibrazione può prodursi senza l'introduzione di uno stabile flusso d'aria che fornisca l'energia vibrazionale (lavoro termodinamico costante), le proprietà del flauto vincolano il dominio dei possibili andamenti vibrazionali spontanei (ortogradi). E ciò risulta robusto rispetto a modesti cambiamenti del flusso d'aria, di modo che tutta una gamma di energia in entrata converge a un'unica frequenza di risonanza. Questa mappatura del lavoro termodinamico sul lavoro morfodinamico è una caratteristica tipica di questa relazione di dipenden-
Lavoro
za. Ma non si tratta semplicemente di una relazione molti a uno, bensì della mappatura di un continuum su stati discreti. Torneremo su questa caratteristica, perché si tratta di un aspetto decisivo che contribuisce alla discontinuità degli effetti emergenti quando si sale nella gerarchia dai processi termodinamici a quelli morfodinamici fino a quelli teleodinamici. Questa trasformazione, per così dire, da analogico a digitale è anche la fonte della specificità e molteplicità di attrattori comune nei sistemi morfodinamici. Il lavoro morfodinamico prodotto dal collegamento degli oscillatori risulta dal fatto che un inseme di condizioni al contorno ne influenza un altro. Specificamente, le loro differenze di geometria, massa e modalità di conduzione dell'energia vibrazionale contribuiscono tutte al lavoro totale di questo trasferimento di forma. La componente di lavoro termodinamico è grosso modo la stessa a prescindere da se gli oscillatori accoppiati rinforzino le rispettive vibrazioni o smorzino rapidamente ogni vibrazione regolare, trasferendo la maggior parte dell'energia nelle microscopiche vibrazioni irregolari del calore. Nella misura in cui le loro caratteristiche di risonanza interagiscono a produrre uno spostamento delle regolarità globali in confronto a condizioni di disaccoppiamento, è coinvolto anche del lavoro morfodinamico, che può essere considerato più o meno efficiente sulla base di questo trasferimento di regolarità dinamica globale. Mentre però un accoppiamento termodinamico dà un sistema combinato che perde le sue differenze verso uno stato di equilibrio globale - determinato delle condizioni al contorno medie del totale - un accoppiamento morfodinamico si comporta diversamente. Non c'è nulla di realmente analogo a un valore «medio», dato il carattere relativamente discreto degli attrattori morfodinamici coinvolti. L'accoppiamento delle condizioni al contorno deve essere tale che ciascuna rafforzi per qualche aspetto 1' altra nel produrre una terza tendenza ortograda discreta: che poi è amplificata da ognuna delle altre due e insieme le amplifica. Per due oscillatori, può trattarsi di un semplice multiplo comune delle due frequenze risonanti, ma con ulteriori accoppiamenti la probabilità che la dinamica sia semplice e discreta diminuisce rapidamente, e ne risulta un caos dinamico. E al di là del dominio degli oscillatori semplici questo caso è di gran lunga più probabile.
Natura incompleta
Ciò significa che la capacità di compiere lavoro morfodinamico può essere scompaginata facilmente. Nei risonatori fisici accoppiati, per esempio, se una struttura è di forma più regolare, ed è quindi più efficace nell'amplificazione delle forme, tenderà a orientare l'attività vibratoria del sistema accoppiato, anche se con le resistenze e i vincoli posti dalle regolarità o irregolarità vibrazionali della seconda struttura cui è collegata. In questo caso possiamo dire che il lavoro morfodinamico sta continuamente portando il sistema meno risonante a uno stato vibrazionale semiregcilare non spontaneo. Nel caso in cui entrambi hanno tendenze risonanti diverse ma pressoché ugualmente efficienti, lo stato vibrazionale risultante del sistema accoppiato convergerà probabilmente a un andamento che combina i due, con l'amplificazione delle armoniche comuni e la produzione di forme d'onda complesse, o non riuscirà a risolvere lo stato caotico in seguito all'incompatibilità delle rispettive tendenze ortograde. In simili casi di competizione tra frequenze di risonanza possiamo discernere un altro parallelo con il lavoro termodinamico: alcuni sistemi sono più difficili da perturbare di altri. Proprio come gli oggetti dotati di maggiore quantità di moto o inerzia e i sistemi termodinamici con maggiore energia specifica totale richiedono più lavoro meccanico per produrre uguali cambiamenti nei.loro moti in confronto a sistemi meno massicci o estesi, i sistemi morfodinamici possono differire nella forza relativa delle loro dinamiche d' attrattore. Due fattori contribuiscono a questa «inerzia» morfodinamica. In primo luogo un sistema può essere semplicemente più suscet~ tibile al lavoro termodinamico perché è fisicamente più piccolo, o meno massiccio, o conduce meglio l'energia. Ciò deriva dal fatto che il lavoro morfodinamico dipende interamente dal lavoro termodinamico. Ma in secondo luogo un sistema può essere più regolare, come il corpo di uno strumento musicale, o più facile da regolarizzare, come il flusso minimamente vincolato di un fluido in una cella di convezione di Bénard o in un vortice .. Questa combinazione di fattori determina sia la capacità potenziale di compiere lavoro morfodinamico sia la tendenza a resistere al cambiamento morfodinamico. Il potenziale di compiere lavoro, sia termodinamico che morfodinamico, è proporzionale alla divergenza da un massimo d'attrat~
Lavoro
tare. Ma questo può essere un problema per la capacità di svolgere lavoro morfodinamico perché i sistemi dotati di attrattori complessi tendono a non esibire cambiamento spontaneo coerentemente esteso in alcuna singola direzione. Ciò significa che solo i sistemi che presentano dinamiche d'attrattore altamente prevedibili e relativamente semplici sono in grado di dare quantità significative di lavoro morfodinamico. Ciò rende difficile trovare esempi di lavoro morfodinamico spontaneo, e rende assai raro che si verifichino trasformazioni morfodinamiche complesse senza forme assai raffinate di intervento umano. Anche se dunque gli esempi semplici rappresentano in natura un'eccezione e non la regola, la semplicità è un vantaggio quando si tratta di far uso del lavoro morfodinamico. L'ostacolo non è insuperabile, però, viste le elaborate ragnatele di lavoro morfodinamico che si riscontrano nelle reti metaboliche degli organismi viventi. Che dire allora di processi morfodinamici più complessi che producono regolarità con ulteriori dimensioni di regolarità? Si consideri un ipotetico uso - un po' alla maniera delle macchine inutili disegnate da Rube Goldberg - della forrriazione di cellule di Bénard. La tassellatura esagonale reg~lare della superficie dell'acqua potrebbe, per esempio, essere usata per suddividere piccoli oggetti galleggianti in insiemi separati di circa lo stesso numero di oggetti, ciascuno dei quali sarebbe compreso nella minuscola concavità esagonale di una cella di Bénard. O magari si potrebbe usare la forma concava di queste regolari depressioni superficiali per focalizzare la luce incidente in un gran numero di puntini subito sopra la superficie. In casi del genere c'è poco lavoro termodinamico a collegare i due substrati interagenti, ma si verifica lavoro morfodinamico, visto che la spontanea regolarizzazione dei movimenti convettivi del fluido regolarizza qualcos'altro che altrimenti non assumerebbe mai quella certa configurazione. Attraverso il lavoro morfodinamico, dunque, è possibile accoppiare due sistemi termodinamici indipendenti che compiono lavoro termodinamico. Fra gli esempi di tipo più pratico vi è l'uso di recipienti di forma particolare o contenitori vibranti per suddividere materiale particolato secondo forme, peso o dimensioni, come pillole o grani. A seconda della forma del recipiente, del modo in cui è scosso o fat-
Natura incompleta
to ruotare per indurre gli oggetti contenuti a muoversi l'uno rispetto all'altro, e delle differenze tra le caratteristiche degli oggetti, è possibile separare automaticamente gli oggetti, trasformando una collezione uniformemente distribuita in una distribuzione altamente asimmetrica in cui gli oggetti di tipo diverso occupano posizioni distinte gli uni rispetto agli altri. Esempi di questo processo di suddivisione del particolato si hanno con i ciottoli delle spiagge oceaniche e le pietre che affiorano alla superficie del suolo in seguito a congelamento e disgelo periodico, ma fra gli altri usi vi sono separazione di pillole e minerali, oltre che il classico metodo di separazione delle pepite d'oro da sabbia e altri sassi mediante agitazione in apposite «padelle». Il lavoro morfodinamico ha un attributo significativo in comune con il lavoro termodinamico: la legge dei ritorni decrescenti. In seguito alla prima e alla seconda legge della termodinamica, e ai vincoli sulla possibilità di compiere lavoro, ogni macchina del moto perpetuo è impossibile. Vi è sempre qualche grado di libertà dovuto all'aumento di entropia che non può essere pienamente vincolato e quindi la capacità di compiere lavoro in una direzione per poi invertirne l'organizzazione e usare il gradiente per compiere lavoro nella direzione opposta decresce a ogni passo, rendendo l'inversione completa impossibile da ottenere. La potenzialità di compiere lavoro morfodinamico iterato diminuisce inoltre rapidamente con l'aumento dei gradi di libertà e dunque a ciascuna iterazione. Vi è qualcosa di analogo al divieto della natura contro le macchine del moto perpetuo anche quando si tratta di lavoro morfodinamico. Il problema dell'efficienza, anzi, è assai peggiore, a causa del passaggio a un andamento discreto. Nella maggior parte dei casi di processi morfodinamici accoppiati l'interazione tra le relative distinte regolarità sfocia in complesse dinamiche che appaiono altamente caotiche. Gli esempi classici del caos deterministico riflettono la complessità che può risultare già dall'accoppiare tre processi morfodinamici di per sé assai semplici in un sistema più ampio, come avviene quando pendoli di lunghezza diversa sono accoppiati l'uno con l'altro. Mentre le dinamiche ricorsive dei semplici sistemi auto-organizzati amplificano le caratteristiche dinamiche regolari, i processi auto-organizzati fortemente accoppiati possono amplificare ricor-
Lavoro
sivamente sia le condizioni al contorno concordanti sia quelle non concordanti, producendo effetti complessi e spesso estremi di divergenza e attenuazione. Ciò. vale specialmente se si ha una continua introduzione di energia termodinamica, come nei sistemi dissipativi. Questo genere di accoppiamento di processi dinamici organizzati è probabilmente uno dei fattori che contribuiscono al carattere imprevedibile e quasi turbolento dei sistemi sociali ed economici umani, anche se, come vedremo, questa tendenza alla complessità si amplifica a livelli di gran lunga superiori quando si considera la sovrapposizione di processi teleodinamici. Date queste limitazioni, e visto che le regolarità morfodinamiche anche in presenza di attrattori semplici robusti si formano solo in condizioni al contorno assai delimitate, le interazioni tra sistemi morfodinamici che presentano differenti condizioni al contorno finiscono per produrre sistemi più vasti dalle condizioni al contorno complicate e· irregolari. Per molte ragioni dunque i casi di lavoro morfodinamico di significative complessità e dimensioni tenderanno a essere assai rari in condizioni naturali.
Lavoro teleodinamico Vi è però una classe di fenomeni che presenta lampanti eccezioni: i processi della vita. Anzi, i processi auto-organizzati negli organismi viventi e negli ecosistemi sfidano l'apparente problema del caos che dovrebbe tendere a risultare quando si accoppiano l'un l'altro dei processi auto-organizzati, visto che anche i più semplici batteri sono fatti di centinaia di processi chimici rientranti fortemente accoppiati. La vita sembra aver monopolizzato il mercato del lavoro morfodinamico, e di averlo fatto addomesticando il quasi inevitabile caos che accompagna le interazioni morfodinamiche. Non solo gli organismi viventi sono ragnatele estremamente complesse di processi auto-organizzati fatti di altri processi auto-organizzati, ma tendono anche a evolvere in modo complementare alle complesse regolarità dinamiche di ordine superiore costituite dal gran numero di altri organismi compresi nell'ecosistema in cui vivono, complessivamente inserito in un andamento semiregolare di cambiamento del clima e delle risorse. È dunque ai processi viven-
410
Natura incompleta
ti che dobbiamo rivolgerci per trovare il massimo numero e la massima diversità di esempi di lavoro morfodinamico. Accanto a ,energia e materiali grezzi per mantenere la propria termodinamica lontana dall'equilibrio, gli organismi richiedono anche incessanti processi di produzione di forma; produzione di specifiche forme molecolari, specifici schemi di reazioni chimiche e specifici elementi strutturali. Dunque il lavoro morfodinamico deve essere affidabile e costante perché la vita sia possibile. Ciò richiede cicli di lavoro sia termodinamico che morfodinamico; motori di produzione di forma, che sono analoghi ai motori di progettazione umana fatti per realizzare cicli di lavoro termodinamico. Il processo dell'evoluzione biologica non si è limitato a «scoprire» e «tramandare» come costituire un'ampia serie di processi di lavoro morfodinamico, ma ha scoperto complesse sinergie e reciprocità fra esse che consentono la ripetibilità dei cicli. Ne abbiamo incontrato un esempio semplice nel caso dei sistemi autogeni, ma per capire il modo in cui il processo evolutivo è in grado di attingere al dominio motfodinamico per ottenerne questa complementarità ci serve prima capire una forma di lavoro di ordine ancora più alto: il lavoro teleodinamico. Il lavoro teleodinamico si può definire analogamente ai precedenti livelli di lavoro già descritti. È la produzione di processi teleodinamici controgradi. Dato che deve essere compreso in termini di processi teleodinamici ortogradi, il primo passo per descriverlo è quello di definire e identificare esempi di teleodinamica ortograda. In termini generali un processo teleodinamico ortogrado è un processo finalizzato che, più specificamente, tende ad accadere spontaneamente. Anche se i processi teleodinamici sono incredibilmente complessi e la spiegazione della struttura del lavoro teleodinamico è di gran lunga la più elaborata, è ariche la più familiare. Può così essere utile considerare prima il lato umano del lavoro teleodinamico, per poi approfondire la sottostante struttura dinamica del processo. Lavoro teleodinamico è quello in cui dobbiamo impegnarci quando cerchiamo di capire una spiegazione poco chiara, o cercare di produrre una spiegazione priva di ambiguità. È quello che bisogna produrre per risolvere un rompicapo, per convincere un udi-
Lavoro
4II
torio recalcitrante e per condurre indagini scientifiche. È, anche, il tipo di lavoro che si compie nelle riunioni dei comitati e nelle discussioni domestiche, e quello che porta a progetti di macchine e governi. E caratterizza quel che c'è di difficile nei processi del pensiero creativo. Malgrado questi esempi possano essere considerati prevalentemente forme di lavoro mentale, hanno però una naturale parentela con il semplice pro~esso del comunicare, e con i processi biologici di adattamento. Tutti hanno in comune il lavoro di generare nuova informazione e nuove relazioni funzionali, o di cambiare schemi di pensiero o abitudini di comunicazione e azioni intenzionali umane. Il lettore che sia arrivato fino a questo punto avrà probabilmente trovato alcune parti del testo assai difficili da seguire. Avrà forse anche lottato senza successo per capire il senso di qualche affermazione o di qualche descrizione poco chiara. Ma a meno che non sia particolarmente facile ad inquietarsi probabilmente non si sarà trovato ad ansimare senza fiato o a sudare per l'energia consumata nel farlo. Mentre scrivevo questo capitolo ho fatto una pausa per spaccare un po' di legna da ardere. Ho sudato, e ho alcuni muscoli un po' stanchi. Anche se a questo processo ho dedicato solo una piccola frazione del tempo che ho passato a scrivere, non c'è dubbio che ho speso più energia nello spaccare la legna che in tutto il lavoro di scrittura. Ma in quale delle due cose ho svolto più lavoro? Ovviamente, considerare la spesa energetica non è il modo più utile di valutarlo. Ciò malgrado, impegnarsi nello sforzo di scrivere, o di leggere, richiede senz'altro dell'energia generata dal metabolismo, e più il compito· di creazione o interpretazione risulta difficile stimolante o frustrante, e maggiore è il lavoro termodinamico che tende a esservi coinvolto. Non abbiamo difficoltà nel riconoscere la capacità di compiere questo genere di lavoro. In una persona potremmo chiamarla intelligenza. In un organismo più semplice adattabilità. Stiamo parlando della «forza» che riconosciamo alle grandi intuizioni, alle ideologie che influenzano la gente o agli strumenti analitici altamente sviluppati. È il potere di far cambiare idea, e di organizzare gruppi di esseri umani. Lo si può in ultima analisi tradurre nella «forza di smuovere le montagne», secondo l'antico adagio, anche se la capacità di
412
Natura incompleta
farlo passa necessariamente per vie del tutto indirette. Si parla, comunemente, della «forza delle idee». Compiere lavoro teleodinamico è quindi una delle esperienze mentali più familiari dell'essere umani. È ciò che caratterizza quelle che denominiamo azioni volontarie intenzionali. È naturalmente inteso come lavoro a causa delle resistenze che può superare, e perché è necessario per poter modificare processi mentali o comunicativi di per sé spontanei, come una credenza altrimenti indiscus.., sa o un modo di ragionare abituale. Ma per familiare che sia nella vita quotidiana, la relazione fra questa esperienza e il lavoro fisico è spesso assai ambigua, anche se intuitivamente data per scontata. Nessuno potrebbe confondere ciò che va fatto per sollevare un peso con ciò che va fatto per sollevare un problema, ma in tutti e due i casi ci vuole uno sforzo. E mentre fisici e ingegneri possono essere incredibilmente precisi nel confrontare il lavoro fatto nell'accelerare un'auto o una palla da baseball a 90 chilometri all'ora, come paragonare il lavoro di risolvere un'equazione matematica con quello di risolvere una definizione di uno schema di parole crociate sembra quasi una questione di opinioni. È dunque perdonabile chi pensa che il confronto tra questi due casi di lavoro mentale .e il lavoro fisico sia puramente metaforico. La produzione di lavoro teleodinamico dipende interamente dalle altre forme di lavoro che siamo venuti considerando. Il lavoro teleodinamico dipende dal lavoro morfodinamico, che dipende dal lavoro termodinamico. Il lavoro mentale per esempio richiede che i processi fisiologici compiano lavoro termodinamico per mantenere la costante attività dei neuroni che producono e trasducono segnali, e anche la produzione di schemi auto-organizzati spontanei e no di attività neurale, ricorsivamente amplificati e attenuati nel passare attraverso reti neurali soggette a complessi cambiamenti. In più, però, è coinvolta la generazione di nuove relazioni semiotiche e nuove tendenze finalizzate di contro a tendenze interpretative spontanee e a processi finalizzati contrastanti. Nel realizzare difficili processi interpretativi, per esempio, sperimentiamo le esigenze sia energetiche sia morfologiche delle forme di lavoro di sostegno di livello inferiore che sono anch'esse coinvolte nel processo. C'è, per esempio, la stanchezza dovuta dallo sforzo di mantenere l'attenzio-
Lavoro
413
ne sul problema interpretativo fino a risolverlo, e la sfida di trovare un'appropriata traduzione in parole diverse o di evocare un 'appropriata immagine mentale, rispettivamente, tra le tante alternative che sorgono spontaneamente ma sono inadeguate. Malgrado però questo dominio di lavoro comporti necessariamente gli altri, intuitivamente non è riducibile solamente a questi processi più semplici. Così le libere associazioni di una fantasticheria, o 1' esecuzione quasi inconsapevole di un compito altamente familiare, non sono da noi vissute come sforzi mentali, pur richiedendo anch'esse supporto metabolico e generazione di distinti e appropriati schemi di attività neurale. Quindi noi riconosciamo intuitivamente lo specifico carattere di sforzo del lavoro teleodinamico. Anche se gli sforzi mentali ne sono 1' esempio più familiare, il lavoro teleodinamico si presenta in molte forme non cognitive, e anzi neanche associate al cervello. Prima di sperare di capire i processi responsabili del lavoro teleodinamico che avviene nei cervelli umani e tra essi, sarà necessario analizzare i dettagli della sua organizzazione e la sua dipendenza da altre forme di lavoro in sistemi assai più semplici. Per farlo, possiamo tornare indietro in complessità e familiarità e al tempo stesso dipanare poco alla volta i contributi di altre forme di lavoro. Una delle forme fondamentali di lavoro teleodinamico è quella che avviene nel processo dell'evoluzione biologica. L'esempio tipico sono i nuovi adattamenti e le loro rappresentazioni funzionali costantemente create ove prima non esistevano. In altre parole, nuovi sistemi e relazioni teleodinamiche sono generati dalle interazioni di sistemi teleodinamici preesistenti rispetto a un contesto ambientale condiviso. Prendendo come esempio la selezione naturale, analizziamo in che senso si fratta di lavoro teleodinamico seguendo la logica generica sopra delineata per il lavoro termodinamico e morfo dinamico. Per iniziare l'analisi bisogna identificare quali siano i processi ortogradi e controgradi in questo dominio teleodinamico. Nel caso dell'evoluzione biologica vi sono due classi generali di processi teleodinamici ortogradi. In primo luogò vi sono le azioni degli organismi la cui funzione è di mantenerli contro le influenze che li degradano, come rottura termodinamica di macromolecole e degra-
414
Natura incompleta
dazione di reti metaboliche. 1 In secondo luogo vi sono processi di crescita, differenziamento e riproduzione che sono coinvolti nel produrre «copie di riserva» dell'organismo, in forma di cellule figlie o di prole. Si tratta di processi teleodinamici, perché sono finalizzati a dar luogo a stati bersaglio specifici. Sono ortogradi perché sono ciò che la dinamica degli organismi produce naturalmente e spontaneamente. Gli organismi sono costellazioni sinergiche di processi teleodinamici che contribuiscono collettivamente con la propria frazione alla teleodinamica globale dell'organismo; ma ai fini di questo primo livello di analisi possiamo raggruppare tutto ciò insieme, come se la strategia seguita nella sua intera vita dall'organismo fosse un unico processo teleodinamico ortogrado. In relazione a esso possiamo identificare come processi teleodinamici controgradi quelli che sono organizzati in modo tale da ostacolare o coiltrastare questi processi ortogradi . In altre parole, i processi biologici teleodinamici controgradi sono quelli che in qualche modo sono cattivi per l'organismo, nel senso che vanno a detrimento della sua sopravvivenza e riproduzione. La fonte principale di processi teleodinamici controgradi, per un dato organismo, è data da altri organismi. Rispetto all'evoluzione, ove il fine essenziale è il successo riproduttivo sufficiente a garantire la continuazione della propria linea di discendenza, la competizione riproduttiva da parte di altri membri della specie è la fonte più direttamente rilevante di precise influenze contrograde. In questo senso, ciascun organismo compie lavoro .teleodinamico contro i suoi concorrenti riproduttivi. Il lavoro richiesto per competere con i propri conspecifici a vari livelli, per molti tipi di risorse, e per realizzare diversi fini, è per molti versi il segno distintivo dell' esperienza di essere un organismo vivente. Ma come altre forme di lavoro, il lavoro teleodinamico può anche essere usato per trasformare una forma di processo teleodinamico in un'altra, e per generare tendenze teleodinamiche di ordine più alto. È ciò che avviene nel processo della s,elezione naturale. Descriviamo dunque la selezione naturale in termini di lavoro teleodinamico. Nel modello standard della selezione naturale, varianti dello stesso processo teleodinamico (tratti adattativi) che sono rappresentate nei diversi membri di una specie in una generazione sono
Lavoro
415
fra loro in competizione per risorse essenziali alla riproduzione. In questa competizione di tutti contro tutti, il lavoro compiuto per acquisire risorse, compagni con cui accoppiarsi e così via è lavoro che al tempo stesso degrada 1' efficacia teleodinamica dei concorrenti nei confronti degli stessi requisiti. Questo lavoro è fonte di effetti controgradi su altri organismi. Dato che la teleodinamica degli organismi è sostenuta da un esteso lavoro morfodinamico e termodinamico, avviene poi che la competizione teleodinamica si ramifichi anche a tutti questi processi di livello inferiore. E dato che il tutto da ultimo dipende dal lavoro termodinamico, è questo che decide del successo teleodinamico. Analogamente al modo in cui accoppiamento e giustapposizione di processi ortogradi termodinamici e morfodinamici non concordanti possono essere utilizzati per generare specifici andamenti controgradi di diminuzione di entropia e prodl1zione di . forma, rispettivamente, la complessa giustapposizione di processi teleodinamici non concordanti può essere organizzata in modo da generare sistemi teleodinamici che altrimenti non verrebbero in essere. Dato che la diffusa integrazione delle interazioni teleodinamiche diversamente contrograde in una generazione è mediata attraverso un ambiente che è anche la fonte delle risorse che sostengono i sottostanti processi di lavoro morfodinamico e termodinamico, vincoli e regolarità intrinseci a quell'ambiente divengono analoghi ai vincoli di un motore nell'incanalare il lavoro teleodinamico in forme coerenti con l'ambiente stesso. Nell'evoluzione biologica, ciò risulta da ultimo in una crescente asimmetria nella presenza di questi tratti teleodinamici nelle generazioni successive. La riproduzione differenziale e 1' eliminazione in ogni generazione delle varianti meno adattate dalla popolazione ha così un'influenza ricorsiva su tutti i livelli di lavoro coinvolti, mantenendoli concordi con tali vincoli. Più significativo poi è che, in seguito all'inevitabile degradazione spontanea della capacità di compiere lavoro a tutti questi livelli, sorgono continuamente nuovi complessi teleodinamici varianti, che sono immessi in questo ciclo di lavoro ev9luzionistico. Il familiare risultato è la produzione di sistemi teleodinamici sempre più integrati, sempre più complessi e sempre meglio adattati. Ne possiamo concludere che l'evoluzione è una sorta di moto~ re teleodinamico che si alimenta sfruttando processi termodinami-
416
Natura incompleta
ci, morfodinamici e teleodinamici spontanei e che continuamente genera nuovi processi e relazioni teleodinamiche. Inoltre, dato che i. processi teleodinamici sono sostenuti dall'organizzazione sinergica di cicli di lavoro morfodinamico e termodinamico, anche questi evolvono, insieme alle sinergie che li legano insieme nei siti causali individuali che noi conosciamo come organismi.
Poteri causali emergenti Ora possiamo valutare un po' più in dettaglio perché vi sia una differenza nella quantità di lavoro richiesta per risolvere un puzzle difficile rispetto a uno facile. Tornando al confronto tra due puzzle - uno con meno pezzi, di forme ben distinte e un'immagine organizzata in modo eterogeneo una volta ricostruita, rispett3 a uno con più pezzi, differènze di forma più sottili e un'immagine superficiale assai omogenea - possiamo riconoscere che ci vorrà molto più lavoro, a tutti e tre i livelli per ricostruire il secondo. Un maggior numero di pezzi richiede più movimenti, minori differenze di forma tra i pezzi significheranno più errori di concordanza e anche questo si tradurrà in un maggior numero di movimenti, e lo stesso vale per un'immagine con minori differenze interne. Dunque ci vuole più lavoro termodinamico. Ma consideriamo ora le difficoltà cognitive. Il solutore deve generare immagini mentali di ogni confronto, e quasi sempre ne genererà in numero maggiore rispetto ai tentativi di far combaciare i pezzi che eseguirà in pratica. Ciascun confronto mentale richiede la generazione di almeno due distinte forme di attività neurale per rappresentare i pezzi messi a confronto. Dato che vi sono inevitabilmente altre tendenze cognitive e mnemoniche che altrimenti si esprimerebbero e potrebbero costituire una distrazione, si tratta di un processo non spontaneo di generazione di forme. Questa è la fonte della sensazione di resistenza che si prova nel concentrarsi su un problema per generare queste immagini mentali altamente vincolate e non altre. Si tratta dunque di una forma di lavoro morfodinamico: generazione contrograda di forme su uno sfondo di tendenze ortograde di generazione di forme in competizione. Ovviamente però ciò richiede energia metabolica (lavoro termodinamico), e presumibilmente di più di quanta ne richieda
Lavoro
lasciar vagabondare i propri pensieri in un flusso ortogrado di andamenti coscienti. Ciò è chiarito senza ambiguità dagli studi di visualizzazione in vivo dei cambiamenti regionali del metabolismo cerebrale, in cui si confrontano le interazioni attive con gli stimoli e quelle passive. Ma queste non sono mere forme, bensì rappresentazioni mentali di oggetti che si incontrano nel contesto dell'analisi e dell'assemblaggio fisico del puzzle. In quanto rappresentazioni le forme non sono dunque soltanto il risultato di un lavoro morfodinamico, ma devono essere generate in relazione a questo contesto e verificate su di esso. Man mano che si generano queste immagini mentali, inclinazioni dovute a ricordi del passato e ad aspettative competeranno anch'esse con la generazione di rappresentazioni coerenti con il compito da svolgere, e dunque vi saranno innumerevoli modi in cui la generazione di rappresentazioni adeguate e corrispondenti può funzionare male. Quasi certamente, nella generazione di queste immagini mentali vi saranno molteplici abbozzi parziali prodotti e paragonati con le informazioni fomite dai sensi. Nel processo tutte le immagini tranne una saranno respinte in quanto non sufficientemente vincolate per rapportarle ai modelli in .· entrata. E generazione e controllo mentale dei. confronti immaginati saranno iterati prima ancora di prendere in mano un pezzo e verificare se sia adatto, alla ricerca di un ritorno fisico che sia giudice finale dell'esattezza della rappresentazione. Questo processo, anzi, deve anche svolgersi in parallelo a molti altri livelli, come la generazione della disposizione teleodinamica a continuare a lavorare su tale problema malgrado la concorrenza delle tante altre cose che reclamano il nostro tempo. Questo processo è un'espressione di lavoro teleodinamico. E dato che richiede generazione, confronto ed eliminazione in base al contesto di un numero enorme di abbozzi parzialmente sviluppati delle relative rappresentazioni, ciascuna delle quali è il prodotto di un lavoro morfodinamico, e così via, il livello d.el lavoro da svolgere, a tutti i livelli, cresce con la difficoltà , del puzzle. Insomma, ci vuole più lavoro a tutti i livelli. Ma si no. ti che il processo è di gran lunga più efficiente del semplice pren; dere dei pezzi a caso e verificare se combaciano fisicamente. Que. sto spostamento del lavoro a livello superiore, per così dire, fa calai. re significativamente il quantitativo totale di lavoro termodinamico
418
Natura incompleta
con cui si raggiunge lo scopo. E il lavoro termodinanùco è proprio la base su cui si regge l'intera gerarchia. Come illustra questo semplice esempio, il donùnio aperto dal lavoro teleodinanùco è enorme. La diversità delle forme del lavoro teleodinanùco è vasta quanto i campi della biologia, della psicologia, del comportamento sociale umano e di tutte le arti messe insieme. Non solo va molto al di là della portata di questo libro fare più che scegliere qualche esempio illustrativo di questi processi, ma un'analisi completa del lavoro teleodinanùco in questi casi sarebbe probabilmente ridondante e superficiale in confronto a quelle condotte in questi numerosi campi specialistici. Si potrebbe anzi sostenere che in tutto il capitolo non abbiamo fatto che ridescrivere alcuni fenomeni tratti dai donùni della meccanica, dell'acustica, della teoria del1' evoluzione e adesso delle scienze cognitive e comportamentali nei ternùni del concetto di lavoro. Ma se si trattasse di un puro e semplice ridescrivere e rinonùnare fenomeni già ben compresi, ci sarebbe poco di guadagnato rispetto alle conoscenze già acquisite in questi territori già ampiamente esplorati. Ciò che spero riesca a compiere questa analisi è introdurre non nuovi strumenti concettuali che sostituiscano quelli già impiegati nelle varie scienze di cui abbiamo trattato, ma una mappa con cui seguire il filo comune che lega questi reanù fin qui scollegati e indipendenti, così da darci una comprensione piena di come siano interconnessi tutti i livelli. Io sono convinto che qualcosa di analogo a questa espansione e generalizzazione del concetto di lavoro ne sia il primo decisivo passo. Un importante contributo che offre questa prospettiva è che permette di districare la nozione di potere causale dall'idea indifferenziata di causalità. Mentre le concezioni di causa di senso comune tendono a essere applicate a ogni tipo di cambiamento fisico, lattribuzione di potere causale è invocata in un senso più ristretto. Credo che questa distinzione sia parallela a quella esplorata in questo capitolo tra i cambiamenti dovuti al lavoro e i cambiamenti in genere. L'aggiunta del ternùne «potere» è l'indizio che segnala che la questione ha a che fare con il lavoro e non solo con la causalità in generale; in altre parole, evoca il senso del superamento di resi~ stenze, di costringere le cose a cambiare per andare in modo diverso da quel che farebbero altrimenti. E questo è ciò che conta per noi. È la capacità emergente di riorganizzare i processi naturali in
Lavoro
modi che mai si verificherebbero spontaneamente, cioè non ortogradi, ~he è ciò che stiamo sforzandoci di capire rispetto alla vita e rispetto alla mente. Il termine «potere causale» è venuto a essere associato in modo · particolare con le discussioni sull'emergenza e l'agenzia mentale. Così, per esempio, l'aspro dibattito sullo status dell'agenzia umana e l'efficacia delle rappresentazioni mentali non si occupa solo dei cambiamenti di stato fisico che possono o meno avvenire in condizioni associate a tali fenomeni, ma riguarda anche la questione del loro status come fonte di lavoro. Così, mentre non c'è alcun serio dibattito sull'associazione degli eventi mentali con eventi fisici del genere del rilascio di molecole di neurotrasmettitori o della propagazione di un potenziale d'azione lungo gli assoni dei neuroni, ci si chiede se gli effetti delle esperienze mentali siano qualcosa di più, e se l'esperienza dello sforzo mentale abbia davvero un ruolo nel dare origine a cambiamenti fisici che non sarebbero altrimenti attribuibili alle spontanee conseguenze della chimica fisiologica e della fisica della locomozione. Ponendo queste questioni nel contesto di una teoria allargata del lavoro, possiamo renderci conto che malgrado tutti i cambiamenti fisici comportino effettivamente interazioni molecolari, la vera sfida sta nel determinare in che modo i processi molecolari, generatori di forma e finalizzati spontanei di una persona si siano combinati a produrre cambiamenti termodinamici, organizzativi e semiotici non spontanei. La questione non è sapere se i cambiamenti introdotti nel mondo dalle azioni espressamente volute di una persona siano o meno causati, ma se ci sia qualcosa di fisicamente non spontaneo in quel che è accaduto e nel come è stato causato. Le discussioni sullo status dell'agenzia umana consapevole vertono su quale sia la sede propria di questo potere causale. Potere causale è anche una parola in codice che indica ciò che si presume venga aggiunto all'architettura causale dell'universo come ..risultato di una transizione emergente. Ma quando si confonde que. sta idea entro la più generica nozione di causalità si produce una pre. occupante implicazione: che fenomeni come la vita e la cognizione :>possano cambiare o aggiungere qualcosa alle leggi e costanti fonda: mentali della fisica, o siano quanto meno capaci di modificarle. :'-::. Anche se le costanti e le leggi fondamentali della fisica restano le ~;·~tesse, e non può esserci alcun guadagno o perdita di materia-ener-
420
Natura incompleta
gia durante i processi di trasformazione fisica, possono esservi alterazioni significative nella natura dell'organizzazione dei processi causali. In particolare, il lavoro può ristrutturare i vincoli che fanno da condizioni al contorno in qualche altro sistema collegato nel determinare quali modelli di cambiamento saranno ortogradi. Questa è generazione di nuove condizioni causali formali, e poiché a dee terminare le forme di lavoro che possono risultarne è la risultante dinamica ortograda, è questa che prepara il terreno all'emergere di organizzazioni prima inesistenti di causalità efficiente, e così via, con la generazione ancora di ulteriori nuovi vincoli, e nuove forme di lavoro. Ciò può anche avvenire a livelli di dinamica ascendenti, con il relativo incremento delle possibilità di complessità di organizzazione. Per riaffermare, dunque, in maniera un po' più accurata, le leggi di chiusùra o di conservazione: l'universo è chiuso a guadagni o perdite di materia-'energia e il livello più basilare di causalità formale è immutabile, ma aperto a vincoli organizzativi sulla causa formale e all'introduzione di nuove forme di causa efficiente. Quindi abbiamo apertura causale anche in un universo che è equivalente a un sistema completamente isolato. Nuove forme di lavoro possono emergere ed emergono costantemente. Il concetto di potere causale è inoltre di particolare interesse per le scienze sociali, dato che è divenuto una questione decisiva per la discussione sulla capacità dei processi semiotici di controllare il comportamento e informare la visione del mondo di intere cultqre; anzi, si sostiene spesso che la natura stessa dei processi di interpretazione è soggetta ai capricci del potere dell'influenza semiotica egemonica. Il problema era che malgrado questo genere di potere sia un aspetto intuitivamente riconosciuto e ovvio dell'esperienza umana, è almeno altrettanto difficile da definire quanto i concetti, come quello di interpretazione, che si vuole siano fondati su di esso. Almeno in parte, però questa difficoltà può essere mitigata riformulan- · do questa nozione di potere in termini di lavoro teleodinamico. Specificamente, il lavoro teleodinamico è definito come contrae stante i processi teleodinamici ortogradi. In termini cognitivi, pro~ cessi teleodinamici ortogradi possono essere espressi come compor" tamenti adattativi finalizzati innati, tendenze emotive spontanee; modelli di comportamento inconsapevoli appresi, associazioni ver~ ,
Lavoro
421
bali dei flussi di coscienza, e così via. In termini sociali, i processi teleodinamici ortogradi possono essere espressi come narrazioni culturali condivise per la spiegazione di eventi, abitudini comunicative sviluppate tra differenti gruppi o classi di individui, modelli di scambio governati da convenzioni e via dicendo. Di conseguenza, possiamo facilmente riconoscere come queste predisposizioni ortograde al cambiamento possano venire in conflitto, perché possono incontrare resistenze e come possono arrivare a essere collegate in modi specifici a consentire trasformazioni di lavoro da un dominio a un altro o come possano essere impegnati in una.forma di dinamica evolutiva semiotica e sociale. . Cosa più importante, queste predisposizioni e il lavoro che in esse può essere generato sono Ja base per la generazione di nuove forme di relazioni teleodinamiche: cioè di nuova informazione e nuove rappresentazioni. Nei fatti, il concetto stesso di interpretazione può essere liquidato in termini di lavoro teleodinamico. Questo sarà l'argomento del capitolo successivo. . . In conclusione, essere in grado di seguire il filo di causalità che · collega questi domini ci mette in condizione di discernere quando metodi e concetti sviluppati in contesti scientifici diversi siano trasferibili più che in forma analogica. E rende anche possibile intraprendere il compito di formalizzare le relazioni che collegano processi energetici, processi di generazione di forma e processi cogni. tivo-sociali. Ancora più importante è il fatto che ci mostra che ciò che emerge nei nuovi livelli di dinamica non è una qualche nuova •··legge della fisica o una singolarità nella connessione causale dei fenomeni fisici, ma piuttosto la possibilità di nuove forme di lavoro e · · quindi di nuovi modi di realizzare quel che prima non avrebbe po.•. tuta prodursi spontaneamente. In altre parole, con l'emergere di '.•nuove forme di lavoro l'organizzazione causale del mondo cambia .· in maniera radicale, malgrado le leggi della natura restino le stesse. ;. Connessioni causali che prima erano cosmicamente improbabili di' .ventano altamente prevedibili. Questa generatività causale è conse:;guenza del fatto che le forme di lavoro di ordine superiore posso:·na organizzare la generazione di àndamenti non spontanei di cam(biamento fisico in ampie costellazioni di forme collegate di lavoro, [;:connettendo un gran numero di sistemi fisici altrimenti irrelati, e
422
Natura incompleta
comprendendo molti livelli di dinamiche interdipendenti. Malgrado abbia descritto solo tre grandi classi di lavoro, corrispondenti a termodinamica, morfodinamica e teleodinamica, dovrebbe essere ovvio che non vi è alcun limite alle forme dei processi teleodinamici di ordine superiore. Così, la possibilità di generare forme sempre più diversificate di dinamica non spontanea può produrre relazioni causali che divergono radicalmente dalle semplici aspettative fisiche e chimiche, ma che hanno ancora per base questi processi. Questa è l'essenza dell'emergenza, e dell'esplosione creativa che scatena.
Capitolo
I2
Informazione
La grande tragedia della teoria formale dell'informazione è che la sua stessa capacità espressiva si ottiene a spese di un 'astrazione dalla cosa stessa che si vuole che descriva. John Collier 1
La differenza ignorata La nostra epoca è spesso detta «l'età dell'informazione», ma anche se usiamo quasi quotidianamente il concetto di informazione senza confusioni, e costruiamo macchine e reti per scambiarla, analizzarla e immagazzinarla, credo che ancora non sappiamo realmente che cosa sia. Nella nostra vita quotidiana l'informazione è una necessità e una merce. Si è diffusa ovunque, in larga misura a causa dell'invenzione del perfezionamento e della diffusione dei computer e dei dispositivi che registrano, analizzano, replicano, trasmettono e correlano dati immessi da esseri umani o raccolti da sensori meccanici. Queste informazioni sono usate per produrre corrispondenza, fatture, suoni, immagini e anche precisi scherni di comportamento di robot. Misuriamo comunemente l'esatta capacità di dispositivi di immagazzinamento di dati fatti di silicio, dischi magnetici o plastica sensibile al laser. Di recente gli scienziati hanno mappato l'informazione molecolare corrispondente a proteine contenuta nel genoma umano, e chi usa in casa dispositivi· elettronici di comunicazione è sensibile alla larghezza della banda su cui trasmetto-
424
Natura incompleta
no .informazioni le reti cablate e senza fili da cui dipendono per il collegamento con il mondo esterno. . A dispetto di questa apparente padronanza intendo sostenere che gli assunti con cui trattiamo l'informazione sono sufficienti soltanto a tener traccia dei suoi minimi attributi fisici e logici, ma non bastano a comprenderne né il carattere di rappresentazione, che pure è quello che la definisce, né il valore funzionale. Si tratta di limiti gravi, che ostacolano il progresso di molti sforzi, dalla traduzione automatica al progetto dei motori di ricerca per Internet. Quello di informazione è un concetto unificante centrale nelle scienze. Svolge moli essenziali in fisica, nella teoria del calcolo e del controllo, in biologia, nelle neuroscienze cognitive e nelle scienze psicologiche e sociali. In ognuna di esse, però, è definita in modo alquanto diverso, al punto che gli aspetti del concetto di volta in volta più rilevanti possono esser quasi del tutto privi di sovrapposizioni fra loro. La definizione tecnica più precisa di informazione proviene dal lavoro di Claude Shannon, che negli anni quaranta rese possibile una precisa analisi quantitativa della capacità di informazione e della sua trasmissione. Come vedremo, tuttavia, questo progresso ha comportato l'ignorare del tutto l'aspetto di rappresentazione del concetto, che invece ne costituisce la base. Questa definizione ridotta ai minimi termini dell'informazione è quasi priva di ogni traccia del suo significato originario e colloquiale. Spogliando il concetto da ogni legame con riferimt!nti, significati e significatività, lo si è reso applicabile all'analisi di una vasta gamma di fenomeni fisici, di problemi ingegneristici e persino di effetti quantistici. Ma questa riduzione del concetto oscura le distinzioni decisive per identificare gli aspetti fondamentali che distinguono i processi viventi e mentali da altri processi fisici. Per cominciare a comprendere queste transizioni che hanno cambiato il mondo, abbiamo bisogno di un concetto di informazione che da un lato sia preciso, ma dall'altro comprenda anche gli aspetti referenziali e funzionali che ne sono gli attributi più distintivi. Per molti aspetti, siamo in posizione analoga a quella dei fisici del primo XIX secolo, nel pieno della rivoluzione industriale, la cui comprensione dell'energia soffriva ancora dell'inadeguata concezione delle sostanze eteree, come il calorico, che si presumeva fossero
Informazione
trasferita da una parte all'altra ad animare macchine e organismi. Anche se l'energia è stata uno dei concetti caratterizzanti del primo XIX secolo, lo sviluppo di una concezione relazionale, e non sostantiva, dell'energia ha richiesto parecchi decenni di indagine scientifica. La contemporanea nozione di informazione è anch'essa colloquialmente concepita in termini che ne fanno quasi una sostanza, come quando parliamo di acquisto e immagazzinamento dell'informazione o diciamo che va perduta o sprecata in un certo processo. Il concetto di energia è stato da ultimo domato quando si è riconosciuto che è una sorta di differenza fisica che può concretizzarsi in numerosi possibili substrati e che può dare origine a cambiamenti non spontanei se in grado di interagire con un altro substrato fisico. Gli scienziati alla fine sono giunti a riconoscere che la presunta sostanza eterea che trasmetteva calore e forza motrice da un contesto all'altro era un'astrazione da un processo - quello di compiere lavoro - e non qualcosa di materiale. È importante che questo abbandono di una spiegazione di tipo sostanziale non ha fatto sì che il concetto di energia diventasse epifenomenico o misterioso. Le fallaci concezioni di una speciale sostanza ineffabile furono semplicemente abbandonate per una descrizione dinamica che rendeva possibili valutazioni e calcoli precisi. Una descrizione che renda conto in modo completo della natura dell'informazione, capace di distinguerla dalle relazioni meramente materiali ed energetiche, richiede anch'essa uno spostamento dell'attenzione, ma in questo caso la necessaria.inversione tra figura e sfondo è ancora più fondamentale e controintuitiva che per l'energia. Perché .quel che importa non è la descrizione delle sue proprietà fisiche, e neppure di quelle formali. Ciò che conta nel caso dell'informazione, e che ne produce le specifiche conseguenze fisiche, è il rapporto con qualcosa che non c'è. Quello di informazione è l'archetipo· stesso dei concetti assenziali. Si consideri qualche esempio tipico. L'informazione che un temporale è imminente potrebbe far sì che uno chiuda finestre e imposte, informazioni su un crollo di borsa potrebbero far sì che milioni di persone prelevino insieme il proprio denaro dai conti bancari, informazioni su potenziali pericoli per la nazione potreb-
Natura incompleta
bero spingere uomini e donne idealisti ad affrontare la certezza del-
la morte in battaglia e (se avremo fortuna) le informazioni che dimostrano quale sarà l'impatto dell'ulteriore uso dei combustibili fossili sulla vita delle generazioni future potrebbero influenzare i nostri modelli di uso dell'energia. Questi rapporti possono così avere un ruolo centrale nel determinare l'inizio e la forma del lavoro fisico. La domanda è: come hanno fatto qùesti rapporti non intrinseci a intrecciarsi con le particolari caratteristiche fisiche del mezzo che fa da segnale fino a far sì che la presenza del segnale possa dare inizio a tali cambiamenti fisici non spontanei? Per rispondere, si pone un duplice problema. Non solo bisogna rinunciare a pensare l'informazione come un qualche artefatto o merce, ma bisogna anche andare al di là di un approccio tecnico, per altri versi di grande successo, che ignora esplicitamente gli aspetti dell'informazione che non sono presenti (cioè contenuto referenziale e significato). La concezione tecnica dell'informazione attualmente dominante è stata importante per lo sviluppo delle tecnologie delle comunicazioni e del calcolo, come risposta al bisogno .di quantificare l'informazione ai fini della sua trasmissione e immagazzinamento. Purtroppo però ha anche contribuito alla tendenza a concentrarsi sugli attributi tangibili dei processi relativi all'informazione, anche quando questi non sono gli unici rilevanti. Il risultato è che l'uso tecnico del termine informazione è grosso modo sinonimo di differenza, ordine, schema - il contrario dell'entropia fisica - e dunque nei fatti l'informazione è ridotta a semplice parametro fisico, separata dal suo significato originario. Qualcosa del genere era già implicito nella spiegazione data da Boltzmann del concetto di entropia, perché al massimo di entropia abbiamo il minimo di informazioni su ogni microstato del sistema. Questa ridefinizione del concetto di informazione come misura dell'ordine ha saldato la frattura cartesiana alle fondamenta formali della fisica. Più perniciosamente, l'assunto che informazione sia sinonimo di ordine è stato usato per sostenere implicitamente le affermazioni sia dell' eliminativismo sia del panpsichismo. Così, se si assume di poter sostituire il termine informazione con ordine, pensiero diventa sinonimo di computazione e ogni differenza fisica può essere trattata come avente proprietà mentalistiche.
Informazione
Per uscire da questo vicolo cieco e capire la funzione di rappresentazione che distingue l'informazione da altri rapporti meramente fisici, abbiamo bisogno di trovare un modo preciso di caratterizzare l'aspetto non intrinseco che la definisce - la sua capacità referenziale - e di mostrare come il contenuto così comunicato può avere efficacia causale malgrado la sua assenza fisica. Ma questa analisi deve anche dimostrare di essere compatibile con la precisa concezione tecnica dell'informazione, che malgrado sia separata da questo essenziale attributo è stato alla base di progressi tecnici senza confronti in campi diversissimi, dalla meccanica quantistica al1' economia. Ulteriori ostacoli a questo sforzo sono posti da tacite posizioni metafisiche. Questo più vasto concetto di informazione è stato vittima di un impasse filosofico che ha una storia lunga e controversa perché si trova intrecciato al problema di definire lo statuto ,ontologico del contenuto del pensiero. Abbiamo pian piano intaccato questa barriera nei precedenti capitoli, e quindi possiamo affrontarlo con strumenti concettuali nuovi. L'enigmatico status di questo rapporto è stato eloquentemente evidenziato da Franz Brentano, che nel 1874 usava il termine «inesistenza» nel descrivere i fenomeni mentali. Ogni fenomeno psichico è caratterizzato da quella che gli Scolastici del Medioevo chiamavano inesistenza intenzionale (o psichica) di un oggetto, da e quello che potremmo chiamare, anche se in modo non del tutto privo di ambiguità, riferimento a un contenuto, orientamento verso un oggetto (che qui non va inteso come cosa), o obiettività immanente. Questa intenzionale «inesistenza» è caratteristica di tutti i fenomeni psichici, nessuno escluso; mentre nessun. fenomeno fisico presenta un'analoga qualità. Possiamo dunque definire i fenomeni psichici col dire: sono quei fenomeni che intenzionalmente racchiudono in sé un oggetto 2 • Come sosterrò di seguito, né la definizione tecnica dell'ingegnere dell'informazione come differenza fisica né l'idea che l'informa-
Natura incompleta
zione sia irriducibile ai rapporti fisici riescono ad affrontare le questioni problematiche sollevate dal suo carattere non proprio esisten, te ma efficace. La prima concezione dà la possibilità del riferimento per scontata, ma poi procede a metterla tra parentesi per occuparsi soltanto degli aspetti fisici misurabili del mezzo portatore dell'informazione. La seconda ne trascura interamente la natura fisica e rende così misteriosa l'efficacia dell'informazione. Nessuna delle due caratterizzazioni dà esplicitamente conto del rapporto che il contenuto «inesistente» intrattiene con gli esistenti fenomeni fisici.
Omissioni, aspettative e assenze L'importanza della regolarità fisica nell'analisi dell'informazione sta nel fatto che è ciò che in ultima analisi consente all'assenza di contare. Quando qualcosa tende ad accadere regolarmente, il suo mancato verificarsi, o un'altra divergenza da questa regolarità, può farsi notare. Un comportamento prevedibile è presupposto di molte. delle circostanze in cui qualcosa di assente fa una differenza. La fonte della regolarità non deve necessariamente essere un'azione umana. Un esempio potrebbe essere quello del funzionamento di una macchina, come quando una pressione sul pedale del freno manca di far rallentare un veicolo, dando così informazioni su un guasto. Può trattarsi di qualche regolarità naturale, come l'alternanza delle stagioni secche e umide,· che in una cattiva annata può essere interpretata come l'informazione che gli dèi sono adirati. Anche sistemi che sembrano prevalentemente .caotici e solo in parte vincolati nel loro comportamento possono offrire un certo grado di prevedibilità rispetto al quale poter discernere delle deviazioni. Così, malgrado i mercati finanziari siano altamente volatili e in larga misura sfuggano a ogni previsione sul loro andamento quotidiano, vi sono tendenze generali rispetto alle quali certe deviazioni sono viste come indicative di importanti cambiamenti economici che non si possono discernere altrimenti. Nel regno delle interazioni sociali, abbiamo familiarità con casi in cui un'omissione può avere serie conseguenze. Per esempio, se dopo il 15 aprile un cittadino degli Stati Uniti non ha compilato e presentato dichiarazione fiscale o richiesta di proroga può subire
Informazione
429
gravi conseguenze. In un contesto legale che- richiede la presentazione di una dichiarazione fiscale, la sua inesistenza mette in moto eventi in cui i dipendenti dell'apposita agenzia federale costringeranno il contribuente ad assolvere ai suoi obblighi; potranno scrivere e inviare lettere di minaccia e magari prendere contatti con banche e agenzie di credito per interferire con l'accesso del contribuente ai suoi beni. Analogamente, certi «peccati di omissione» possono avere conseguenze significative anche nella vita mondana. Si pensi a quel che può voler dire un biglietto di ringraziamento non scritto o la mancata risposta di accettazione di un invito. In contesti mondani le omissioni spesso spingono a chiedersi se la mancanza sia dovuta a malizia o semplice mancanza di buona educazione. Anche il non dare inizio a un intervento può dare informazioni sull'attore. Là mancata emissione di un importante avviso, o il non avergli prestato la dovuta attenzione può essere causa indiretta di un disastro, e motivo di sanzioni, se era previsto un intervento. Anche l'ignoranza, o la mancata previsione per mancanza di appropriate informazioni o di sufficiente impegno analitico può essere biasimata per aver consentito «incidenti» che altrimenti avrebbero potuto essere evitati. Intuitivamente, dunque, non abbiamo difficoltà ad attribuire . conseguenze concrete al· non pensare, non notare, non fare e così via. In questi contesti umani, spesso trattiamo presenza e assenza come se potessero avere uguale potenziale efficacia. Ma le omissioni sono significative ed efficaci soltanto in un contesto di aspettative o processi specifici che si produrranno se non si verificano certe condizioni, o nel contesto di tendenze indesiderate che avverranno in assenza di opposizione. Ove esiste un'abitudine di aspettativa, una tendenza intrinseca, un processo che bisogna attivamente contrastare o evitare, o una convenzione che governa o richiede certe azioni, il mancato verificarsi di qualcosa può avere conseguenze fisiche ben definite. Questi familiari esempi, ovviamente, sono casi particolari che invertono quel che di solito è una rappresentazione, ma esemplificano un punto decisivo: il fatto di riguardare qualcos'altro non si basa necessariamente su qualche proprietà intrinseca del mezzo che trasmette il segnale. Questo fatto, anzi, suggerisce che i dettagli
430
Natura incompleta
specifici di come è fatto il segnale possano essere in larga misura irrilevanti. Si potrebbe obiettare che malgrado questo nostro modo colloquiale di descrivere le relazioni non crediamo che l'assenza sia davvero una causa, e che tendiamo a considerare come causalmente rilevante soltanto l'abitudine. Tuttavia, è perché l'abitudine in questione è organizzata intorno a un probabile futuro cambiamento di stato - cioè qualcosa di non attualmente presente che in qualche maniera è probabile che avvenga in futuro - che noi sviluppiamo corrispondentemente un'abitudine di aspettative. Ciò indica che la deviazione dalla regolarità, da sola, non basta. Da ultimo, questo qualcosa che manca rispetto a una certa tendenza deve anche in qualche modo spiccare rispetto a un'altra tendenza che la interpreta, e perché questa relazione sia informativa deve essere in un qualche punto coinvolta una regolarità teleodinamica, su cui deve essere basata tale aspettativa; una proiezione nel futuro. Come abbiamo più volte sostenuto, la regolarità è l'espressione della presenza di vincoli, ed è rispetto a vincoli sulla varietà che può spiccare qualcosa di assente o deviante. È questa assenza o devianza, in ultima analisi, a essere trasmessa. Non è sorprendente quindi che, oltre. a essere requisito formale· perché le trasformazioni energetiche diano lavoro, l'essere vincolata sia uno degli attributi che definiscono l'informazione. L'informazione, sotto questo aspetto, è una caratteristica di certe forme di lavoro: del lavoro teleodinarnico. Come vedremo, anche una concezione dell'informazione ridotta ai minimi termini, come quella della teoria matematica dell'informazione, è funzione di vincoli e della relativa possibilità di lavoro.
Due entropie Nella misura in cui regolarità e vincoli costituiscono lo sfondo necessario perché possano spiccare deviazioni e assenze, a fare in ultima analisi da sfondo per l'informazione deve essere la regolarità convergente della natura, la tendenza spontanea all'aumento del1' entropia nei sistemi fisici. Come già notato, anche se il termine entropia è stato coniato da Rudolf Clausius nel 1865, fu Ludwig Boltzmann nel 1866 a riconoscere che poteva essere descritta in ter-
Infonnazione
43I
mini di aumento del disordine. Ci riferiremo dunque a questa concezione dell'entropia termodinamica come entropia di Boltzmann. Questa abitudine attendibilmente asimmetrica della natura ci dà lo sfondo ultimo rispetto al quale un attributo di una cosa può esemplificare un attributo di un'altra. Il motivo è semplice: dato che· non correlazione e disordine sono così altamente probabili, ogni grado di ordine nelle cose significa tipicamente che un intervento esterno le ha perturbate allontanandole da questo stato di massima probabilità. In altre parole questa spontanea incessante tendenza alla confusione offre la lavagna ultima su cui registrare le interferenze esterne. Se le cose non si trovano nel loro stato più probabile allora qualcosa di esterno deve aver compiuto un lavoro per allontanarle da quello stato 3. Un secondo modo di usare il termine entropia ha trovato vasta applicazione quando si parla di informazione, e per motivi collegati. Alla fine degli anni quaranta Claude Shannon dimostrò che la più rilevante misura della quantità di informazione che può essere trasmessa in un dato mezzo di comunicazione è analoga ali' entropia statisticaA. Secondo l'analisi di Shannon la quantità di informazione trasmessa a ogni punto è l'improbabilità di ricevere il segnale trasmesso dato, determinata rispetto alle probabilità di tutti i possibili segnali che avrebbero potuto inviati. Dato che questa misura delle possibilità di segnale è matematicamente equivalente alla misura delle possibilità fisiche nell'entropia termodinamica, Shannon chiamò anche questa misura entropia del segnale emesso. Mi riferirò a essa come «entropia di Shannon» per distinguerla dall'entropia termodinamica. Si consideri, come esempio, una comunicazione in codice inviata come stringa finita di caratteri alfanumerici. Se ogni possibile carattere può presentarsi con la stessa probabilità in ogni punto della trasmissione, vi è il massimo di incertezza su che cosa ci si può aspettare 5. Ciò significa che ogni carattere ricevuto riduce l'incertezza della probabilità, e il messaggio intero riduce l'incertezza rispetto alla probabilità che potesse essere stata inviata ogni possibile combinazione di caratteri. La quantità di cui la ricezione di un segnale riduce l'incertezza è la misura di Shannon del quantitativo massimo di informazione che può essere trasmessa da tale segnale.
432
Natura incompleta
In altre parole, la misura dell'informazione trasmessa comporta il confronto di un segnale ricevuto con tutti i possibili segnali che avrebbero potuto essere inviati. Se aumenta il numero di caratteri contenuti nella stringa vi sarà maggiore incertezza su quali di essi siano presenti e in quali punti, e ciascuno di essi trasporterà quindi una maggiore quantità di informazione. Analogamente, se è minore il numero di caratteri o di tipi di caratteri possibili in un dato messaggio, o se le probabilità che compaiano i vari caratteri non sono tutte uguali, allora ognuno di essi sarà in grado di trasportare proporzionalmente rµeno informazione. La nozione di entropia di Shannon può essere resa assai precisa per l'analisi della trasmissione elettronica dei segnali, ma può anche essere generalizzata a coprire nozioni quotidiane. L'entropia di Shannon è così una misura della quantità di informazione che questi mezzi sono potenzialmente in grado di trasmettere. Dato che si tratta di una misura logica e non fisica, è ampiamente applicabile. Vaie ugualmente per una pagina di testo e per la distribuzione degli oggetti in una stanza, o le posizioni che può occupare il mercurio in un termometro. Dato che ciascun oggetto può assumere una qualunque posizione tra un certo numero di alternative, ogni possibile configurazione della collezione di oggetti costituisce potenzialmente un segno. L'analisi di Shannon della capacità di informazione offre un altro esempio di ruolo decisivo di un'assenza. Secondo il suo modo di misurarla, l'informazione non è intrinseca alla comunicazione ricevuta in sé, ma è funzione del suo rapporto con qualcosa di assente: il vasto insieme delle altre possibili comunicazioni che avrebbero potuto essere ma non sono state inviate. Senza fare riferimento a questo sfondo assente di possibili alternative, il quantitativo di potenziale informazione di un messaggio non può essere misurato. In altre parole, lo sfondo di segnali non scelti è un determinante critico di ciò che rende i segnali ricevuti capaci di trasmettere informazioni. Nessuna alternativa = nessuna incertezza = nessuna informazione. Così Shannon misura l'informazione ricevuta nei termini dell'incertezza che essa ha rimosso rispetto a ciò che avrebbe potuto essere inviato. L'analogia con l'entropia termodinamica viene però a cadere perché il concetto di Shannon è una proprietà logica, non una pro-
Informazione
433
prietà dinamica. Per esempio l'entropia di Shannon non cresce spontaneamente nella maggior parte dei sistemi di comunicazione; dunque non c'è alcun equivalente della seconda legge della termodinamica per l'entropia dell'informazione. La disposizione delle unità di un messaggio non «tende» spontaneamente a cambiare verso l'equiprobabilità. E tuttavia qualcosa di analogo diventa rilevante nel caso dei messaggi iscritti in un mezzo fisico e trasmessi da meccanismi concreti. Nel mondo reale della trasmissione dei segnali, nessun mezzo è esente dagli effetti di irregolarità fisiche e degradazione funzionale, mancanza di attendibilità che deriva dagli effetti fisici della seconda legge. ' Entrambe le nozioni di entropia, così, sono rilevanti per il concetto di informazione, anche se in ·modi diversi. L'entropia di Shannon di un segnale è la probabilità di ricevere quel certo segnale fra tutti quelli possibili, e quella di Boltzmann è la probabilità che un segnale si sia degradato. Una trasmissione affetta da perturbazioni termodinamiche che la rendono men che perfettamente affidabile introduce un ulteriore livello di incertezza da considerare, che però fa diminuire la capacità di informazione. Un aumento dell'entropia di Boltzmann del mezzo fisico che costituisce il trasportatore del segnale corrisponde a. una diminuzione della correlazione tra segnale inviato e segnale ricevuto. Anche se non riduce l'entropia del segnale, ciò riduce la quantità di incertezza che può essere eliminata da un dato segnale, e quindi la capacità di informazione. Si identificano così due contributi all'entropia di un segnale, l'uno associato alla probabilità che sia stato inviato un dato segnale e l'altro associato alla possibilità che il segnale sia corrotto. Questa ·relazione complementare suggerisce che l'uso del concetto di entropia sia in fisica che nel campo dell'informazione sia più che una semplice analogia. Esplorando il rapporto tra l'entropia di Shannon e quella di Boltzmann possiamo far luce sul motivo per cui i cambiamenti nell'entropia di Shannon sono decisivi per l'informazione. Il collegamento però è sottile, e il suo rapporto con il modo in cui un segnale trasmette il suò «contenuto» di informazione è più sottile ancora.
434
Natura incompleta
Informazione e riferimento Warren Weaver, autore di un articolo che accompagnava l'edizione in volume del lavoro originale di Shannon, commentava che l'uso del termine informazione per descrivere la misura della riduzione dell'impredicibilità di un segnale costituisce un uso atipico del termine, perché la nozione di informazione di Shannon è indifferente rispetto a ciò che il segnale riguarda o può riguardare. Questa indifferenza ha condotto a considerevole confusione al di fuori della letteratura tecnica, perché è quasi agli antipodi del normale. uso colloquiale del termine. A Shannon interessava misurare l'informazione a fini ingegneristici. Si concentrò quindi esclusivamente sulle proprietà dei processi di trasmissione e dei mezzi di comunicazione, ignorando ciò che normalmente noi intendiamo per informazione, cioè ciò che qualcosa ci dice a proposito di qualcos'altro che non è presente nel mezzo che fa da segnale stesso Non era però una semplificazione arbitraria. Era necessario, perché allo stesso segno o segnale può essere dato un numero indefinito· di interpretazioni diverse. Una scarpa sporca di polvere può dare informazioni su una serie di cose che vanno dall'igiene personale al terreno recentemente visitato da chi la indossa. Le proprietà di un mezzo che gli conferiscono la potenzialità di trasmettere informazioni non determinano di che cosa queste informazioni trattino, ma si limitano a rendere possibile il riferimento. Per poter dunque dare un valore finito al potenziale informativo di un dato segnale o canale, Shannon doveva dunque ignorare ogni processo particolare di interpretazione, e arrestare la sua analisi prima di ogni considerazione di cosa un segno o segnale potesse riguardare. Ciò che è trasmesso non è solo funzione di questa riduzione dell'entropia di Shannon. È qui che la relazione tra l'entropia di Shannon e quella di Boltzmann si rivela più di una semplice analogia. Una più ampia concezione dell'informazione richiede che queste proprietà siano considerate rispetto a due diversi livelli di analisi dello stesso fenomeno: le caratteristiche formali del segnale, e le sue caratteristiche materiali ed energetiche. Si consideri quel che sappiamo dell'entropia di Boltzmann. Se entro i confini di un sistema fisico come una ca-
Informazione
435
mera riempita di gas si osserva una riduzione di entropia, si può star certi che a provocarla è qualcosa che non si trova nella camera. Trovarsi in uno stato improbabile oppure osservare un cambiamento non spontaneo verso un tale stato è prova di una perturbazione estrinseca, cioè di lavoro imposto dall'esterno del sistema. Malgrado il loro carattere astratto, trasmissione e interpretazione dell'informazione sono processi fisici che coinvolgono substrati materiali o energetici che costituiscono canale di trasmissione, mezzi di immagazzinamento, veicoli di segni e così via. Ma i processi fisici sono soggetti alle leggi della termodinamica. Così nel caso dell'entropia di Shannon non si dà alcuna informazione se non si ha riduzione dell'incertezza di un segnale. Ma la riduzione dell'entropia di Shannon di un mezzo fisico è necessariamente anche una riduzione della sua entropia di Boltzmann. Può avvenire solo in virtù dell'imposizione di vincoli esterni sul mezzo che reca i segni/segnali perché la riduzione dell'entropia di Boltzmann non tende ad avvenire spontaneamente. Quando si verifica, costituisce evidenza di un'influenza esterna. L'apertura alle modifiche esterne è ovvia nel caso di una persona che scelga il segnale da trasmettere, ma c'è anche in condizioni più sottili. Si consideri, per esempio, il fruscio dei segnali radio ricevuti da un'antenna puntata verso il cielo. Un segnale radio distribuito normalmente ha un'alta entropia informazionale, la.tendenza attesa in un contesto privo di vincoli, che potrebbe essere il risultato di un rumore circuitale casuale. Se questa tendenza dovesse essere alterata, ciò indicherebbe che qualche fattore estrinseco non casuale sta agendo sul segnale. Il cambiamento potrebbe così esser dovuto a un oggetto astronomico che emette un segnale specifico. Ma se invece di uno specifico segnale identificabile c'è semplicemente del rumore dove non dovrebbe essercene? Fu proprio una cosa .del genere quella che avvenne nel 1965, quando due scienziati del Bell Laboratories, Amo Penzias e Robert Wilson, puntarono una sensibile antenna per microonde verso il cielo, lontano da ogni sorgente radio locale, e scoprirono che continuavano a registrare un «fischio» da rumore a microonde, in qualsiasi direzione puntassero l'antenna. Stavano ricevendo un segnale più o meno casuale proveniente da tutte le direzioni. L'ovvia ipotesi ini-
436
Natura incompleta
ziale fu che probabilmente c'era un problema nel circuito di rilevazione del segnale, e non un segnale specifico. Arrivarono addirittura a sospettare che potesse essere dovuto a piccioni che andavano arrosto nell'antenna. Dato che esibiva un'alta entropia di Shannon, e la sede da cui originava aveva anch'essa un'alta entropia di Shannon, l'ipotesi fu che il segnale non potesse avere origine in un oggetto spaziale. Solo dopo avere eliminato tutte le potenziali fonti locali di rumore i due scienziati presero in considerazione una possibilità più esotica: che non avesse origine dal sistema ricevitore ma dall' esterno, da tutte le parti del cosmo allo stesso tempo. Se il segnale fosse stato costituito solo da una stretta banda di frequenze, se avesse esibito uno specifico andamento oscillatorio, o se fosse stato ricevuto solo da certe direzioni, avrebbe fornito informazione secondo Shannon, perché allora in confronto con ciò che avrebbe potuto esser registrato questi segnali avrebbero spiccato in modo evidente. I ricercatori lo considerarono come informazione su qualcosa di esterno, non puro e semplice rumore, solo dopo averlo paragonato a un numero assai maggiore di concepibili possibilità, accrescendo così 1' entropia delle potenziali sorgenti che potevano essere eliminate. Man mano che eliminavano i fattori locali come possibili fonti di rumore eliminavano anche una corrispondente misura di incertezza. Alla fine,' quella che era considerata la spiegazione meno ragionevole risultò quella esatta, il fischio emanava dallo spazio vuoto. Alla fine il segnale fu interpretato come la radiazione residua del big bang. In parole povere, il purb e semplice fatto di queste deviazioni dalle attese; sia inizialmente sia poi rispetto alle possibili fonti locali di rumore, e sia assai più tardi rispetto alle teorie cosmologiche alternative, è ciò che ha fatto sì che quel fischio fosse informazione a proposito di qualcosa. In più, la forma di questa deviazione dalle aspettative è stata la base dell'interpretazione. Il calore è movimento casuale. La forma della deviazione da ciò che gli scienziati si attendevano - che il segnale fosse distribuito in modo irregolare e correlato con oggetti specifici - ha fornito da ultimo l'indizio. Ciò, in altre parole, è divenuto rilevante per un secondo tipo di riduzione dell'entropia: la riduzione analitica della varietà delle possibili sorgenti. Confrontando la forma del segnale ricevuto con quelle che avrebbero potuto essere le sue forme, i ricercatori hanno poto~
Informazione
437
to eliminare molte possibili cause fisiche, sia intrinseche che estrinseche, finché una sola è sembrata plausibile. Ciò dimostra che qualcos'altro, rispetto alla semplice riduzione dell'entropia di Shannon, è rilevante per capire in che modo il segnale trasmetta il segno di un altro fenomeno assente. Si rende disponibile informazione quando lo stato di un sistema fisico è diverso da quello che ci si attenderebbe. E quel che può riguardare questa informazione dipende dalle attese. Senza deviazione dalle attese non c'è informazione. Questo sarebbe il caso, di un completo isolamento fisico del mezzo di segnalazione dalle influenze esterne, ma anche dalla semplice ridondanza. La differenza è che una sorgente di segnali isolata non può riguardare nulla, e che ciò che ta, le informazione può riguardare dipende dalla forma di questa riduzione. Il modo in cui un .mezzo può essere modificato dall'interazione con fattori estrinseci, o in cui può essere manipolato, è la cosa più rilevante per determinare quali informazioni possono essere trasmessi da esso. Non solo l'entropia di Shannon di un processo portatore di informazione è importante per la sua capacità, ma la sua dinamica fisica rispetto al contesto fisico in cui è immersa è importante per determinare ciò che può riguardare. In confronto però all'entropia di Shannon del segnale, i vincoli fisici sulle forme che può assumere un cambiamento dell'entropia del segnale aggiungono un ulteriore potenziale di riduzione qi entropia: la riduzione dell'entropia dei possibili referenti. In alte parole, una volta che si cominci a prendere in considerazione la potenziale entropia della classe di cose o eventi che un dato mezzo può trasmettere, anche le caratteristiche fisiche del mezzo, e non solo la sua gamma di potenziali stati, divengono importanti. Ciò riduce l'entropia di Shannon della gamma di possibili fenomeni che un dato cambiamento del mezzo può riguardare. In altre parole, quella che ora potremmo chiamare «informazione· referenziale» è una forma di informazione del secondo ordine, al di là e al di sopra dell'informazione secondo Shannon. Un primo indizio sul rapporto tra informazione come forma e come segno di qualcos'altro ci è dato dal ruolo che nell'analisi svolgono gli schemi. Nella terminologia di Shannon, schema equivale a ridondanza. Dal punto di vista del mittente, ogni ridondanza (de-
438
Natura incompleta
finita come prevedibilità) del segnale ha l'effetto di ridurre la quantità di informazione che può essere inviata. In altre parole, la ridondanza introduce un vincolo sulla capacità del canale. Si consideri quanta meno informazione potrei far stare in questa pagina se potessi usare solo due caratteri (come gli o e I di un computer). Il disporre di 26 lettere, maiuscole e minuscole, segni di interpunzione e stringhe di caratteri (parole) di differente lunghezza separate da spazi, riduce le ripetizioni 'e aumenta le possibili sequenze di caratteri, facendo diminuire la ridondanza. Vi è tuttavia sufficiente ridondanza nelle combinazioni di lettere consentite da rendere facilmente possibile l'individuazione degli errori di battitura. Meno informazione può essere trasmessa se parte della trasmissione è prevedibile in base a ciò che è venuto prima o se semplicemente vi sono meno alternative fra cui scegliere. Ma la storia si fa un po' più complicata se si aggiunge la questione del riferimento. Dal punto di vista del ricevente, deve esserci qualche ridondanza con ciò che è già noto perché l'informazione trasmessa da un segnale possa anche solo esser valutata. In altre parole, il contesto della comunicazione deve essere già strutturato in modo ridondante. Mittente e ricevente devono condividere l'insieme di opzioni che costituisce informazione. Shannon si rese conto che l'introduzione di ridondanze è inoltre necessaria per compensare l'eventuale inaffidabilità di un dato mezzo di comunicazione. Se l'affidabilità di un certo segno o segnale è dubbia si introduce un'ulteriore fonte di imprevedibilità che non contribuisce all'informazione voluta: il rumore. Ma proprio come riduce l'imprevedibilità dei segnali, la ridondanza può anche ridurre l'inaffidabilità del mezzo che trasmette l'informazione. Introdurre una ridondanza attesa in un messaggio trasmesso dà la possibilità di distinguere tra queste due fonti di entropia di Shannon (la varietà dei possibili segnali che potrebbero esser stati generati e i possibili errori che possono essersi verificati nel processo). Nel caso più semplice, ciò si ottiene inviando il segnale più volte. Dato che il rumore non è, per definizione, vincolato dagli stessi fattori della scelta del segnale, ogni inserimento di un errore di segnale dovuto a rumore sarà privo di correlazioni con tutti gli altri; nella trasmissione indipendente di molteplici segnali identici invece questi sa-
Informazione
439
ranno per definizione correlati. Così i componenti dovuti al rumore di un segnale o di un messaggio ricevuto possono essere individuati e sostituiti. Una ridondanza che riduca gli errori può essere introdotta anche con mezzi diversi dalla ritrasmissione del segnale. Come sopra notato, le lingue naturali usano solo una frazione delle possibili combinazioni di lettere, e con probabilità e opzioni combinatorie assai asimmetriche. Grammatica e sintassi limitano ulteriormente l'appropriatezza delle stringhe verbali. Da ultimo, la distinzione tra senso e nonsenso limita le parole e le frasi che è probabile compaiano nello stesso contesto. Questa ridondanza interna di una lingua scritta rende gli errori di battitura relativamente facili da identificare e correggere. La ridondanza come mezzo di rettifica delle informazioni è rilevante anche quando si tratta di valutare l'affidabilità dell'informazione del secondo ordine. Per esempio, se si ricevono molteplici resoconti indipendenti da vari osservatori dello stesso evento, la ridondanza· del loro contenuto può servire a una funzione analoga. Anche se vi saranno dei dettagli non correlati fra un resoconto e l'altro, le ridondanze tra resoconti indipendenti rendono tali aspetti a maggior ridondanza più affidabili. Così, mentre la ridondanza riduce la capacità informativa, è anche ciò che rende possibile distinguere l'iriformazione dal rumore, sia in termini di segnale sia in termini di ciò che esso trasmette.
Ci vuole lavoro Quel che può indicare un mezzo di segnalazione dipende dalla possibilità di relazioni fisiche con qualche aspetto rilevante del suo contesto fisico e della possibilità che questo possa dare origine a un cambiamento della sua entropia di Shannon. Dato che la riduzione dell'entropia di Shannon di un mezzo fisico è spesso anche unariduzione della sua entropia fisica, un simile cambiamento indica che è stato compiuto lavoro per modificare il mezzo di segnalazione. Si ricordi che qualche forma di lavoro è sempre richiesta per allontanare qualcosa dal suo stato o tendenza spontanei verso uno stato non spontaneo. Per ogni mezzo fisico dunque un cambiamento
440
Natura incompleta
controgrado di stato indica che è stato compiuto del lavoro. Un cambiamento controgrado può inoltre essere prodotto solo da una perturbazione · estrinseca; il mezzo deve cioè essere per qualche aspetto un sistema aperto. Il riferimento trasmesso da una riduzione della sua entropia di Shannon è dunque funzione dei modi in cui tale mezzo è suscettibile a interferenze esterne. Così, anche se quanto è indicato non è una caratteristica intrinseca del mezzo il vincolo sulla sua entropia che è stato influenzato da tale influenza esterna lo è. L'informazione referenziale è in questo senso inferita a partire da una caratteristica formale copcretizzata nel rapporto tra i caratteri del segnale che sono presenti e quelli che non lo sono mà avrebbero potuto esserlo: cioè in certi vincoli presentati da tale mezzo. Così l'informazione di Shannon, che è valutata in termini di tali vincoli, costituisce una traccia del lavoro da cui è stata prodotta. Ma l'apertura del mezzo alla possibilità di un'influenza estrinseca comporta specifiche suscettibilità fisiche, che rappresentano anche un vincolo sul tipo di lavoro in grado di modificarlo. Dato questo esplicito vincolo fisico, anche l'assenza di cambiamenti nell'entropia del. segnale può dare informazioni referenziali. L'assenza di cambiamenti di entropia è uno degli stati possibili. Ciò significa che anche le stesse fluttuazioni non vincolate possono essere in grado di trasmettere informazione referenziale. Si tratta dell'informazione sul fatto che nessuna di tutte le possibili influenze sui vincoli del segnàle era presente. È la mera possibilità di esibire vincoli per influenza estrinseca a essere la base della capacità informativa di un determinato mezzo. Questa possibilità dimostra che il riferimento è qualcosa di più delle conseguenze del lavoro fisico compiuto per modificare un mezzo di segnalazione. Malgrado questo rapporto con il lavoro sia fondamentale, informazioni referenziali possono essere trasmesse sia dall'effetto del lavoro sia dall'evidenza che non è stato compiuto alcun lavoro. È per questo che l'assenza di notizie può essere interpretata come la notizia che una cosa attesa non è ancora accaduta, come nei casi di messaggi trasmessi da assenze sopra discussi. La capacità ·informativa dell'assenza è una delle indicazioni più chiare della mancata equivalenza tra informazione secondo Shannon e in-
Informazione
441
formazione referenziale. Di nuovo, c10 accade perché il vincolo non è qualcosa che si trova nel mezzo di segnalazione, ma è invece un rapporto tra quello che è e quello che avrebbe potuto essere il suo stato a ogni dato momento. Un vincolo non è una proprietà intrinseca ma una proprietà relazionale, anche se solo in rapporto a quanto è possibile. Solo quando un sistema fisico presenta una riduzione di entropia iri confronto a un qualche stato precedente o a un qualche stato più probabile si ha l'indicazione di un'influenza estrinseca. Questa tendenza può, all'inverso, costituire. lo sfondo su cui un aspetto inalterato o non vincolato può dare informazione su ciò che non è accaduto. Se il mezzo non esibisce . vincoli o non si è allontanato da uno stato stabile, si può dedurre che non vi è stata alcuna influenza mentre avrebbe potuto esservene una. Il rapporto tra forme presenti e assenti di un mezzo concretizza il carattere aperto di tale mezzo all'intervento estrinseco, che sia o meno avvenuta qualche interazione. Importante è che ciò significa anche che la caratteristica da cui dipende il riferimento è la possibilità di cambiamento in seguito a lavoro, non il suo effetto concreto. È questo che consente all'assenza stessa, ali'assenza di cambiamento, o al trovarsi in uno stato altamente probabile, di essere informativo. Si consideri, per esempio, un errore in ·un dattiloscritto. Lo si può considerare una riduzione dell'informazione referenziale perché riflette una caduta nel vincolo imposto dalla lingua che è necessario a trasmettere il messaggio voluto. Ma al tempo stesso è un'informazione sull'abilità del dattilografo, che potrebbe essere utile a un possibile datore di lavoro. O si consideri un tecnico che diagnostica un problema hardware di uno schermo osservando in che modo l'immagine risulta distorta. Cosa sia segnale e cosa sia rumore non è intrinseco al mezzo, perché è una determinazione da effettuare in base a un riferimento. In entrambi, la deviazione da uno stato previsto o atteso è considerata come un riferimento a una causa per il resto inosservata. Similmente, un segno che non esibisce effetti da influenza estrinseca - come quando si imposta un allarme antifurto con sensore di movimento - può altrettanto bene dare informazioni sul fatto che un possibile evento (l'intrusione di un ladro) non si è verificato.
442
Natura incompleta
In tutti questi casi la capacità referenziale del veicolo informativo dipende dal lavoro fisico che ha, o potrebbe avere, alterato lo stato di un mezzo aperto a modifiche estrinseche. Questo ci dice che il legame tra l'entropia di Shannon e quella di Boltzmann non è semplice analogia o parallelismo formale. E dimostra un preciso collegamento con il concetto di lavoro. La definizione di Gregory Bateson dell'informazione come «una differenza che fa la differenza» è in realtà una descrizione assai elegante del lavoro. Ora vediamo il perché: la capacità di rifl.ettere gli efiètti del lavoro è la base del riferimento.
Il diavoletto addomesticato Questa non dovrebbe essere una sorpresa. L'esistenza di un'intima relazione tra informazione e lavoro è stata riconosciuta fin quasi dagli inizi della scienza termodinamica. Nel 1867 James Clerk Maxwell cominciò a esplorare questo rapporto cori un esperimento mentale. Immaginò infatti un microscopico osservatore - un diavoletto - che fosse in grado di valutare la velocità delle singole molecole di gas da entrambe le parti di un contenitore diviso in due e di controllare uno sportello tra le due zone in modo da consentire soltanto alle molecole più veloci (o più lente) delle media di passare da una parte all'alta (o viceversa). Valendosi di queste informazioni il diavoletto sarebbe in grado di diminuire l'entropia di un sistema, in contraddizione con la seconda legge della termodinamica. Di norma sarebbe possibile solo compiendo lavoro termodinamico per allontanare l'intero sistema dall'equilibrio, e una volta giunto a questo stato di non equilibrio il gradiente termodinamico potrebbe essere messo a frutto per compiere ulteriore lavoro. Sembra dunque a prima vista che le informazioni raccolte dal diavoletto stille velocità molecolari consentano al sistema di invertire progressivamente la seco.nda legge, grazie a quel po' di lavoro che determina lo stato dello sportello. Ciò pare concordare con la nostra intuizione per cui informazione ed entropia hanno segno opposto, nel senso che una diminuzione dell'entropia del sistema aumenta la predicibilità delle velocità molecolari dall'una e dall'altra parte della partizione. Per questo motivo l'informazione è a volte denominata negentropia 6, ed è stata considerata equivalente al grado di ordine di un sistema.
Informazione
443
Il diavoletto di Maxwell non deve per forza essere un homunculus. Lo stesso processo potrebbe essere realizzato in un congegno meccanico capace di collegare le differenze di velocità molecolare rilevate con l'operazione di apertura della porta. Nel secolo trascorso da quando Maxwell ha presentato il suo esperimento mentale molte raffinate analisi hanno sondato se l'informazione raccolta da un simile apparato sarebbe effettivamente in grado di aggirare la seconda legge della termodinamica. Come molte analisi avrebbero poi provato, un meccanismo che possa raccogliere tali informazioni e usarle per aprire lo sportello richiederebbe inevitabilmente più lavoro di quello potenziale ottenuto dall'aumento del gradiente termico, e provocherebbe quindi un aumento netto dell'entropia del sistema. L'aumento di entropia supererebbe inevitabilmente la riduzione prodotta dagli sforzi del diavoletto. Pur essendo puramente teoriche, queste analisi hanno confermato gli assunti della termodinamica, e in più hanno permesso di misurare il quantitativo di informazione di Shannon necessario a pro'durre una data diminuzione dell'entropia di Boltzmann. Se dunque l'attività del diavoletto nel trasformare differenze di velocità molecolari in differenze di entropia locale non viola, in ultima analisi, la Seconda legge, essa offre però un sistema modello per esplorare il rapporto tra informazione di Shannon e lavoro. Se però si sostituisce il diavoletto con un apparato meccanico equivalente ha ancora senso dire che sta usando l'informazione a proposito della velocità per effettuare questo cambiamento d'entropia o si tratta di un puro legame meccanico. tra un qualche cambiamento fisico che registra la velocità e il processo fisico, quale che sia, che apre lo sportello? Anche se noi, in quanto osservatori esterni, possiamo interpretare un segnale i cui cambiamenti sono correlati alla velocità molecolare come rappresentati delle informazioni a proposito di tale proprietà, non c'è nulla nel meccanismo che collega questo stato del segnale allo stato della porta che ne faccia qualcosa di più di una semplice conseguenza fisica dell'interazione con il segnale. Ciò che consente ali' osservatore di interpretare il segnale come relativo alla velocità è la disponibilità indipendente di un mezzo per correlare le differenze di velocità molecolari alle corrispondenze differenze. di stato del segnale. L'attivazione differenziale del mec-
444
Natura incompleta
canismo dello sportello è semplicemente funzione del collegamento fisico tra rilevazione del segnale e funzionamento del meccanismo dello sportello. Per il resto la velocità molecolare è irrilevante, e non c'è alcun bisogno di una correlazione tra il valore del segnale e la velocità delle molecole per la struttura o il funzionamento del meccanismo di apertura dello sportello. Una correlazione con la velocità delle molecole, tuttavia, è essenziale per arrivare a progettare un meccanismo del genere pensando· di ottenere un risultato del tipo di quello descritto da Maxwell. Ed è cripticamente implicita nell'idea di un diavoletto che osserva. Contrariamente al suo sostituto meccanico, il diavoletto deve rispondere a causa di questa correla~ zione per interpretare il segnale come relativo alla velocità molecolare. Il progettista deve assicurare che questa correlazione esista, mentre il diavoletto ne deve assumere l'esistenza, o quanto meno deve agire rispetto a tale correlazione e non solo rispetto al segnale. Il diavoletto quindi, come un osservatore esterno, deve possedere già l'informazione su questa abitudine di correlazione per interpretare il segnale come indicante tale correlato mancante. In altre parole, una fonte indipendente di informazioni su questa correlazione è una precondizione perché il segnale riguardi la velocità, ma il meccanismo di apertura dello sportello legato al segnale non ha accesso indipendente a questa ulteriore informazione. Cosa più importante, la correlazione non è una singola interazione fisica ma piuttosto una regolarità di interazioni fisiche. Un meccanismo che apra lo sportello in risposta a un dato valore del segnale non risponde a tale regolarità ma solo a una singola influenza fisica. Sotto questo aspetto c'è un ulteriore cdterio che costituisce il valore referenziale di un mezzo che dà informazione: tale modificabilità deve avere carattere generale. L'analisi ha fin qui messo in luce una caratteristica comune tra la logica della teoria dell'informazione (Shannon) e quella della teoria termodinamica (Boltzmann). Ciò non solo aiuta a spiegare l'uso analogico del concetto di entropia nei due casi, ma spiega anche perché sia necessario collegare questi approcci in una teoria comune per cominciare a definire la funzione referenziale dell'informazione. Sia queste comunanze formali sia la base per un::. loro unificazione in una teoria del riferimento dipendono dall'apertura fisica.
Informazione
445
Nel caso della teoria classica dell'informazione, l'improbabilità della ricezione di un dato segnale rispetto allo sfondo delle aspettative in confronto alle altre opzioni definisce la misura dell'informazione potenziale. Nel caso della termodinamica classica, l'improbabilità del trovarsi lontano dall'equilibrio è una misura del suo potenziale di compiere lavoro, e anche del lavoro che è stato necessariamente compiuto per portarlo a tale stato. Inversamente, trovarsi nello statq di massima probabilità non dà alcuna informazione su influenze estrinseche, e anzi suggerisce che nella misura in cui il mezzo è sensibile a esse, non era presente alcuna perturbazione esterna che potesse lasciare qualche traccia. Il collegamento tra queste due teorie è imperniato sulla materialità della comunicazione. Paradossalmente dunque, il contenuto assente che è il contrassegno dell'informazione è funzione della necessaria fisicità dei processi informativi.
Capitolo IJ
Significatività
Arriviamo cosi alla prima sorpresa: ci vogliono dei vincoli sul rilascio di energia perché si compia del lavoro, ma ci vuole lavoro perché i vincoli stessi vengano in essere. Da ciò arriveremo a una nuova formulazione: i vincoli sono informazione e le informazioni sono vincoli. Stuart Kau:ffinan e altri 1
L'importanza di essere a proposito Come abbiamo visto, quasi ogni interazione fisica dell'universo può essere descritta in termini di informazione secondo Shannon, e ogni rapporto che comporti malleabilità fisica, realizzata o meno, può essere interpretato come informazione a proposito di qualcos'altro. Ciò ha condotto alcuni autori a suggerire che l'universo sia fatto di informazione e non di materia. Ma questo ci dice poco, se non che l'universo è una molteplicità di differenze fisiche e che la maggior parte di esse è risultato di lavoro precedente. Ovviamente, non tutte le differenze fisiche sono interpretate, o possono mai essere interpretate, anche se tutte, potrebbero in qualche punto contribuire a cambiamenti fisici futuri. L'interpretazione in ultima analisi è un processo fisico, che ha però un tipo di organizzazione causale distinto. Così, anche se quasi ogni differenza fisica della storia dell'universo è interpretabile a dare informazione su un gran nume-
,Natura incompleta
ro di altre occorrenze fisiche collegate, una maggioranza di esse resta non interpretata, e quindi non può essere detta informazione a proposito di nulla. Senza interpretazi'one una differenza fisica è solo una differenza fisica, e come vedremo di seguito chiamare queste ubiquitarie differenze «informazione» corre inoltre il rischio di annullare la distinzione tra informazione, materia ed energia, e da ultimo di eliminare da ciò che si considera l'intera realtà dei fenomeni entenzionali. Anche se ogni differenza può divenire significativa e dare informazioni su qualcos'altro, l'interpretazione richiede che siano prodotte forme assai limitate di processi fisici. L'organizzazione di questi processi distingue l'interpretazione dai meri rapporti di causa ed effetto fisici. Prendiamo di nuovo l'aforisma di Gregory Bateson: «una differenza che fa la differenza». Il suo significato ruota intorno all'ambiguità tra i due sensi dell'espressione «fare (la) differenza». Il senso più letterale è quello di far sì che qualcosa cambi rispetto a quel che sarebbe accaduto altrimenti. E questa è nei fatti un'affermazione sul compiere lavoro. In modo più idiomatico, però, può anche significare che qualcosa ha un valore per qualcuno, o che serve a un fine. Per come lo interpreto io, il punto importante per Bateson è che tutti e due i significati sono rilevanti. Presi insiem~, quindi, questi due significati descrivono il lavoro iniziato per operare Un cambiamento che serve a un qualche scopo. Dal lavoro compiuto in risposta alla proprietà del mezzo di segnalazione che si considera informazione deve essere promossa qualche conseguenza desiderata o impedita qualche conseguenza non voluta. È per questo che un processo interpretativo è più che un semplice processo causale. Esso organizza infatti lavoro in risposta allo stato di un mezzo segnico e rispetto a una qualche conseguenza normativa: un tipo generale di conseguenza che in qualche modo è preferita ad altre. Questa caratterizzazione del creare/far differenza in tutti e due i sensi dell'espressione suggerisce che il tipo di lavoro che Bateson aveva in mente non è puro e semplice lavoro termodinamico. «Fare la differenza» nel senso normativo dell'espressione significa sostenere un processo teleodinamico. Deve offrire il potenziale di iniziare, supportare, o inibire lavoro teleodinamico, perché solo i processi teleodinamici pòssono avere conseguenze normative. Spiegare le basi di un processo di interpretazione equivale
Significatività
449
dunque a rintracciare il modo in cui il lavoro teleodinamico trasforma il mero lavoro fisico in relazioni semiotiche; e viceversa. Come ha mostrato la nostra analisi dinamica, il lavoro teleodinamico emerge e dipende sia dal lavoro morfodinamico che da quello termodinamico. Di conseguenza, queste forme inferiori di lavoro devono anch'esse esser coinvolte in ogni processo di interpretazione. Se le cose stanno così, allora un processo di interpretazione deve dipendere da risorse energetiche e materiali estrinseche e deve coinvolgere processi auto-organizzati lontani dall'equilibrio. In questo modo alquanto indiretto, come i processi dinamici che caratterizzano gli organismi, l'interpretazione di qualcosa come informazione comporta una forma di organizzazione ricorsiva in cui l'interpretazione di qualcosa come informazione rinforza indirettamente la capacità di tornare a fare la stessa cosa.
Oltre la cibernetica La prima indicazione che il mistero dell'interpretazione poteva essere suscettibile di spiegazione fisica invece di restare per sempre una questione metafisica può essere attribuita allo sviluppo di una teoria formale della regolazione e del controllo, che può a buon diritto essere considerata l'inizio dell'età dell'informazione. Questo passo avanti nella definizione del rapporto tra l'informazione e le sue conseguenze fisiche è costituito dallo sviluppo della teoria cibernetica negli anni cinquanta e sessanta. Il termine cibemeti.ca è stato coniato da Norbert Wiener, e viene dalla stessa radice greca della parola governo, che vale controllare, o governare, con il timone un'imbarcazione. All'interno della teoria cibernetica, per la prima volta, è diventato possibile specificare in che modo l'informazione (nel senso di Shannon) possa avere conseguenze fisiche e contribuire alle dinamiche d'attrattore che costituiscono i comportamenti teleonomici. Nel Capitolo 4 abbiamo incontrato il concetto di comportamento teleonomico, e un semplice esempio meccanico di retroazione negativa: un circuito di controllo termostatico. Questo sistema modello non solo dimostra i principi fondamentali di questo paradigma e il modo in cui esso concepisce il collegamento fra l'informazione come differenza fisica e una potenziale conseguenza fisica, ma offre anche un indizio chiave dalla propria inadeguatezza.
450
Natura incompleta
Un termostato regola la temperatura di una stanza in virtù del modo in cui un interruttore che controlla un dispositivo riscaldante è acceso o spento dagli effetti di tale temperatura. In termini cibernetici, un cambiamento della temperatura che la faccia scendere o salire oltre certi valori di soglia è trattato come «informazione» per il circuito che la «interpreta», in virtù del modo sistematico in cui agisce su un interruttore che in seguito influenzerà la temperatura. Il modo in cui questi cambiamenti sono correlati allo stato del dispositivo di riscaldamento crea uno· schema di comportamento che riduce al minimo le deviazioni. È un processo con cui una differenza mette in moto una catena di processi che producono differenze che da ultimo «fanno la differenza» di mantenere le condizioni all'interno di una gamma per qualche motivo desiderata. Così una differenza nella temperatura circostante provoca una differenza nello stato dell'interruttore, che produce una differenza nel funzionamento del riscaldatore che produce una differenza nella temperatura della stanza, che provoca una differenza nello stato dell'interruttore e così via. A ogni stadio è compiuto lavoro sul successivo componente del circuito rispetto a un cambiamento di un qualche aspetto del componente precedente, il che risulta in un circolo di influenze causali. Così si sostiene spesso che ogni successivo passo lungo la catena di eventi di questo ciclo «interpreti» l'informazione del passo precedente, e che l'informazione sia trasmessa lungo il ciclo causale. Ma in che senso valgono tali termini? Sono puramente metaforici? Possiamo smontare il problema smontando il circuito stesso. Il classico schema di termostato elettromeccanico comporta un interruttore a mercurio connesso a una coppia bimetallica avvolta a spirale che si espande quando si riscalda, facendo così inclinare l'interruttore in una direzione, e si contrae quando si raffredda, facendolo inclinare nell'altra. L'angolo di inclinazione dell'interruttore determina se il circuito è chiuso o aperto. Ma consideriamo uno di questi passi isolatamente. L'avvolgimento e svolgimento della coppia bimetallica è un'informazione sulla temperatura? Certo può essere usata come tale da un osservatore che capisca questa relazione e si valga di questa conoscenza nel considerarla. Ma se i cambiamenti di stato restano inosservati? Fisicamente non c'è alcuna differenza. Il cambiamento di stato della coppia e della temperatura della stanza avverrà a prescindere da se l'uno o l'altro dei due venga os-
Significatività
451
servato. Come l'impronta di un sigillo sulla ceralacca, è un mero fenomeno fisico che potrebbe essere interpretato come informazione su qualcosa in particolare. Ovviamente potrebbe anche essere interpretato come informazione su un gran numero di altre cose. Per esempio, il suo comportamento potrebbe essere interpretato come informazione sulla differente reazione dei due metalli. O si potrebbe erroneamente interpretare come magia o come una tendenza intrinseca ad allungarsi e accorciarsi a caso. Il suo essere incorporato in un circuito termostatico è sufficiente a giustificare la descrizione del comportamento della coppia come informazione sulla temperatura passata al circuito? O questa è ancora solo una delle molte possibili cose su cui potrebbe dare informazioni? Cosa ne fa un'informaiione a proposito di qualcosa e non una semplice influenza fisica? Chiaramente, è il processo di interpretazione che conta, non solamente questa tendenza fisica, e questo è un processo causale interamente separato. Si consideri, di contro, un organismo unicellulare che risponde a un cambiamento di temperatura cambiando il suo metabolismo chimico. Si assuma ancora che ci sia un meccanismo molecolare, l'equivalente di un dispositivo termostatico, che realizza questo cambiamento. Per molti aspetti ciò è più vicino a un termostato installato da un utente umano per tener costante la temperatura di una stanza che a un meccanismo di retroazione di quelli che possono presentarsi spontaneamente nella natura inorganica. Ciò perché sia il regolatore molecolare della cellula sia il termostato realizzato da un ingegnere incorporano vincoli che sono utili a un qualche sistema sovra- . ordinato rispetto al quale sono componenti allo stesso tempo di supporto e supportati. In un termostato è la desiderata dinamica d' attrat- · tore (desiderata dai suoi utenti umani), e non una specifica configurazione materiale o energetica a determinarne lo schema. Negli organismi questo genere di comportamenti convergenti è stato probabilmente favorito in passato dalla selezione naturale, oppure appreso per tentativi ed errori nello sforzo di smorzare ogni cambiamento indesiderabile della temperatura interna. Nei fatti, sia nei regolatori viventi che in quelli ingegneristici possono esservi numerosi modi di ottenere una data dinamica d'attrattore. In più, meccanismi viventi dal funzionamento simile spesso si producono per evoluzione parallela o convergente da precursori nettamente differenti.
452
Natura incompleta
Ciò sottolinea il fatto che è questo modello di comportamento a detenninare lesistenza dei sistemi di regolazione di origine evolutiva e ingegneristica, non la condivisione di una costituzione materiale simile o una accidentale origine comune. L'Old Faithful, di contro, si è formato per un singolare accidente geologico, e la re.golarità del suo comportamento idrotermale non ha nulla a che vedere con la sua formazione iniziale. Né la sua logica a retroazione svolge un ruolo significativo sulla durata di questo comportamento. Se .cambiano le condizioni geologiche o se la sorgente d'acqua si esaurisce, il processo semplicemente cesserà. Siamo così giustificati nell'usare il termine «informazione» pér descrivere i cambiamenti fisici che risultano propagati da un componente all'altro di un circuito di retroazione solo perché la risultante dinamica.d'attrattore stessa ha svolto un ruolo determinante nel generarel'architettura di tale meccanismo. In casi del genere, noi riconosciamo anche che la composizione fisica e il funzionamento dinamico dei componenti sono sostituibili, purché quel comportamento 4' attrattore continui a essere ottenuto in modo affidabile. E questo è anche il motivo per cui, nel caso di ogni processo di retroazione accidentale non vivente, pare strano avvalersi della terminologia dell'informazione per descriverne la dinamica, se non in senso metaforico o puramente in quello di Shannon. Malgrado essi pure possano presentare una tendenza a convergere verso uno specifico stato d'attrattore, o a resistere alle deviazioni che li allontano da esso, le storie causali e la futura persistenza di questi processi mancano di questo cruciale attributo. In effetti, un meccanismo progettato o evoluto di retroazione e uno analogo di origine accidentale potrebbero persino essere identici dal punto di vista meccanico, ma avremmo ancora bisogno di fare questa distinzione. ·
Lavorare al problema Come mostrato dall'analisi di Shannon, l'informazione si incarna in vincoli e, come poi abbiamo dimostrato qui, ciò che questi vincoli possono riguardare è funzione del lavoro che in ultima ana~ lisi è stato responsabile della loro produzione, direttamente o indirettamente. Ma, come nota Kau:ffinan, non solo ci vuole lavoro per
Significatività
453
produrre vincoli, ma ci vogliono vincoli per produrre lavoro. Una possibilità, dunque, perché il contenuto referenziale dell'informa.:. zione influenzi indirettamente il mondo fisico si ha quando i vincoli incorporati nel mezzo che reca le informazioni possono diventare la base per specificare altro lavoro. E le differenze nei vincoli possono determinare differenze negli effetti. Questa capacità di una forma di lavoro di produrre vincoli che organizzano un'altra forma indipendente di lavoro è la fonte della capacità di amplificazione dell'informazione. Essa offre un mezzo per accoppiare processi controgradi altrimenti irrelati in catene indirette altamente complesse. E dati i ruoli complementari dei vincoli e della riduzione dei gradienti energetici, dà anche i mezzi per sfruttare il consumo di un modesto gradiente energetico per creare vincoli capaci di organizzare il consumo di un gradiente energetico assai maggiore. Così l'informazione può fare da ponte fra le proprietà di sistemi materiali ed energetici per il resto del tutto separati e irrelati. Ne risulta che possono venire a collegarsi intere catene di processi controgradi per altri versi non interagenti. Il lavoro fatto a spese di un certo gradiente energetico può generare vincoli in un mezzo di segnalazione, che possono a loro volta essere usati per incanalare il lavoro che utilizza un altro e del tutto diverso gradiente di energia a creare vincoli in qualche altro mezzo ancora, e così via. Grazie alla ripetizione di questo genere di trasferimenti da un mezzo all'altro e da un processo all'altro, possono essere posti in essere legami causali tra fenomeni il cui verificarsi spontaneo sarebbe altrimenti astronomicamente improbabile. È per questo che l'informazione, che abbia preso la forma di processi biologici, di dispositivi ingegneristici o di speculazioni teoriche, ha alterato in modo così radicale il tessuto causale del mondo in cui viviamo. Essa espande le dimensioni di quello che Stuart Kau:ffinan ha chiamato il «possibile adiacente» in misura quasi illimitata, rendendo possibile quasi ogni legame causale concepibile. Sotto questo aspetto, possiamo dire che l'interpretazione è l'incorporazione di vincoli estrinsecamente disponibili per contribuire a organizzare il lavoro al fine di produrre altri vincoli che a loro volta contribuiscono a organizzare ulteriore lavoro che promuove il mantenimento di questo reciproco collegamento tra lavoro e vinco-
454
Natura incompleta
li. Contrariamente a un termostato, ove il sito dell'attività interpretativa è esterno al ciclo delle interazioni fisiche, un processo interpretativo è caratterizzato da un intreccio tra la dinamica della sua capacità di risposta a un vincolo estrinseco e quella che mantiene i vincoli estrinseci che rendono possibile tale capacità di risposta. Indirettamente, così, l'informazione riguarda tanto le condizioni della sua interpretazione quanto qualcos'altro di rilevante per tali condizioni. L'interpretazione di un vincolo come riguardante qualche altra cosa è così una proiezione relativa a delle possibilità in senso duplice: costituisce una predizione dell'esistenza della sorgente del vincolo e anche della sua rilevanza causale per\ la conservazione di tale capacità proiettiva. Ma per un processo interpretativo un dato vincolo è informazione a prescindere da se poi queste relazioni proiettate siano effettivamente realizzate. Quel che determina l'essere informazione di un dato vincolo è che il processo di interpretazione è organizzato in modo tale che il vincolo sia correlato con la generazione di lavoro che preservi la possibile ricorrenza di questo processo sotto alcune delle condizioni che potrebbero aver prodotto il vincolo. Per 'questo motivo l'interpretazione è sempre in qualche senso anche normativa, e la relazione di riguardare qualcos'altro che essa proietta è intrinsecamente fallibile. Il processo dinamico dell'interpretazione richiede lavoro, e in questo senso il sistema in cui si trova concretizzata è a rischio di autodegradazione se questo processo manca di generare un esito che ripristini questa capacità, rispetto sia ai vincoli che ai gradienti energetici richiesti. Ma il vincolo che segnala' questa caratteristica è una proprietà generale del mezzo in: cui è incorporato e dunque non può garantire 1' esistenza di alcuno specifico referente fisico. Malgrado dunque la persistenza della capacità interpretativa sia in parte condizionata a questa specificità, tale correlazione può non essere sempre valida. La capacità interpretativa è così la capacità di generare una specifica forma di lavoro in risposta a particolari forme di vincolo estrinseche al sistema in modo tale che ciò generi vincoli intrinseci che probabilmente manterranno o miglioreranno tale capacità. Ma, come abbiamo visto, solo i processi morfodinamici generano spontaneamente vincoli intrinseci, e ciò richiede il mantenimento di condizioni lontane dall'equilibrio. E solo i sistemi teleodinamici
Significatività
455
(composti .di processi morfo dinamici reciproci) sono in grado di conservare e riprodurre i vincoli che rendono possibile tale preservazione. Dunque un sistema capace di interpretare certi vincoli estrinseci come informazione rilevante per questa. capacità dipende necessariamente dall'essere affidabilmente correlato nello spazio e nel tempo a condizioni ambientali di non equilibrio in grado di sostenerlo. A mantenere in modo affidabile l'accesso a tali condizioni, che per loro natura sono probabilmente variabili e transienti, contribuirà così una capacità di risposta differenziale ai vincoli che tendono a essere correlati a tale variabilità. I meccanismi cibernetici non viventi presentano forme di organizzazione dinamica ricorsiva che generano comportamenti mediati da attrattori, ma la loro organizzazione non dipende riflessivamente e non è generata da tali dinamiche. Ciò vuol dire che non vi è alcuna proprietà generale trasmessa da ciascuna transizione dinamica componente da uno stato del meccanismo al successivo. Solo una specifica conseguenza dinamica. Ma in un sistema che è auto-generato. Così, come ha sostenuto Gregory Bateson, la confusione tra processi informazionali e processi energetici è stata una delle tendenze più problematiche della scienza del XX secolo. Informazione ed energia sono cose distinte e per molti aspetti vanno trattate come occupanti domini causali indipendenti. Ciò nondimeno, sono in realtà trama e ordito di un unico tessuto causale. Ma a meno che non si riesca sia a distinguerle chiaramente sia a dimostrarne l'interdipendenza i reami da esse esemplificati resteranno isolati.
Interpretazione A fini ingegneristici, l'analisi di Shannon non poteva andare al di là della valutazione della capacità di trasportare informazione di un mezzo di segnalazione e della riduzione dell'incertezza dovuta alla ricezione di un dato segnale. Includervi considerazioni referenziali avrebbe introdotto nella quantificazione un termine infinito, un fattore indecidibile. La cosa indecidibile è dove fermarsi. Vi sono innumerevoli punti nella precedente storia causalé culminata nella modifica del segno o segnale in questione, e ognuno di essi
Natura incompleta
può essere preso come il riferimento rilevante. Il processo che noi chiamiamo interpretazione è quello che determina quale di questi punti è effettivamente rilevante. Esso deve «scegliere» uno dei fattori del percorso di cause e effetti che ha condotto al vincolo che si riflette nel mezzo di segnalazione. Come è chiaro dall'esperienza quotidiana, cosa sia significativo e cosa no dipende dal contesto interpretativo. In contesti diversi e per diversi interpreti, lo stesso segno. o segnale può dunque essere visto come riguardante cose assai diverse. La capacità di risalire la traccia delle influenze culminate in questa particolare modifica del segnale al fine di identificarne una che sia rilevante dipende in tal modo interamente dalla complessità del sistema che esegue l'interpretazione, dalla sua intrinseca capacità di trasmettere/produrre informazione, e dal suo coinvolgimento in questa stessa catena causale. Anche se la concretizzazione fisica di un mezzo di comunicazione offre la base materiale del riferimento, la sua immersione nella realtà fisica apre anche la porta a una serie aperta di influenze potenzialmente collegate. Per farci un'idea della natura aperta delle possibilità interpretative, consideriamo il problema che deve affrontare un investigatore davanti alla scena di un crimine. Vi sono molte tracce fisiche lasciate dalle interazioni coinvolte nell'evento critico: possono essere state aperte delle porte, spostati dei mobili, fatti cadere dei vasi; possono esservi impronte di fango lasciate su un tappeto, impronte digitali su una maniglia, filamenti provenienti da abiti, peli e cellule cutanee lasciate da una lotta e così via. Un evento. complesso è riflesso in questi segni. Ma per ciascuna delle tracce · può esservi o meno un legame causale con questo specifico evento di interesse. Ognuna di esse ha inoltre una storia causale che comprende molte altre influenze. La storia causale riflessa nella traccia fisica presa come segno non è necessariamente rilevante rispetto a ogni singolo evento, e quali degli eventi di questa storia possano essere individuati come pragmaticamente rilevanti è cosa che può essere diversa a fini interpretativi diversi, e diversamente accessibile agli strumenti interpretativi che sono disponibili. Questo ci dà un'altra limitazione dei processi di interpretazione dell'informazione. La storia causale che ha contribuito ai vincoli imposti a un dato mezzo limita, ma non specifica, ciò che la relati-
Significatività
457
va informazione può riguardare. Il punto di questa catena causale che ne costituisce il referente deve essere determinato da, e rispetto a, un altro processo informativo. Tutto ciò che può essere garantito da una potenziale riduzione dell'entropia di Shanilon di un segnale è un possibile collegamento definito a qualcos'altro. Ma questo qualcos'altro è un insieme aperto di possibilità, limitato solo dai processi che spontaneamente obliterano certe tracce fisiche o bloccano certe influenza fisiche. L'informazione di Shannon è una funzione della potenziale varietà di stati del segnale, ma l'entropia referenziale è inoltre funzione della potenziale varietà di fattori che potrebbero aver contribuito a tale stato. Che cosa deve dunque includere un processo interpretativo per poter ridurre questa vasta potenziale entropia di possibili referenti? Sul finire del XIX secolo in cui operava un investigatore da romanzo come Sherlock Holmes, i mezzi con cui interpretare le tracce lasciate sulla scena di un crimine erano assai meno numerosi di oggi. Anche così, nella misura in cui Holmes comprendeva nei dettagli i processi fisici coinvolti nella produzione di ciascuna traccia poteva usare queste informazioni per estrapolare a ritroso molti dei passi che legavano gli effetti alle cause. Questa capacità è stata di molto accresciuta dalla moderna strumentazione scientifica, in grado, per esempio, di determinare l'esatta composizione chimica di una traccia di fango, il fabbricante delle fibre di vari tessuti, l'informazione della sequenza del DNA in un ciuffo di capelli e via dicendo. Con l'espansione dei mezzi di analisi vi è stato un aumento della quantità di informazione che può essere estratta dalle medesime tracce che avrebbe potuto trovare l'immaginario Holmes. Nort è che in tali tracce ci siano più differenze fisiche che alla fine del XIX secolo, ma solo che un maggior numero di esse è divenuto interpretabile, e con maggiore profondità causale. Questo miglioramento della capacità interpretativa si deve a un effettivo incremento del1' entropia di Shannon interpretabile. Ma come fa questa espansione degli strumenti analitici a espandere effettivamente l'entropia di Shannon di una data traccia fisica? Anche se dal punto di vista di un ingegnere ogni possibile stato fisico indipendente di un sistema deve essere preso in considerazio.ne per valutarne la potenziale entropia di Shannon, questa è un'idea-
458
Natura incompleta
lizzazione. Ciò che conta sono gli stati distinguibili. Gli stati distinguibili sono determinati rispetto a un processo interpretativo che va esso stesso inteso, di nuovo,· come un processo di produzione di segnali con la sua propria entropia potenziale di Shannon. In altre parole, una sorgente di informazione può essere interpretata soltanto rispetto a un altro processo di produzione di informazione. Il massimo di informazione che può essere trasmesso è dunque la minore delle entropie di Shannon dei due processi. Se il sistema ricevente/interpretante è fisicamente più semplice e meno in grado di assumere stati alternativi del mezzo che reca i segnali in questione, o se le probabilità relative dei suoi stati sono meno uniformi (cioè più vincolate), o se l'accoppiamento tra i due sistemi non è sensibile a determinate interazioni causali, allora l'entropia interpretabile sarà minore dell'entropia potenziale della sorgente. Questo, per esempio, si verifica nella traduzione dell'informazione di sequenza del DNA nell'informazione sulla struttura delle proteine. Dato che vi sono 64 possibili triplette nucleotidiche (codoni) per specificare soltanto 20 amminoacidi, solo una frazione dalla possibile entropia dei codoni è interpretabile come informazione relativa agli amminoacidi 2 • Una conseguenza di questo fatto è che gli scienziati che utilizzano i dispositivi di sequenziam~nto del DNA hanno più informazioni con cui lavorare della cellula da cui lo hanno ricavato. Questa limitazione suggerisce due interessanti analogie con i vincoli termodinamici sul lavoro che erano implicite nell'analisi di Shannon. In primo luogo l' entr:opia combinata interpretabile di Shannon di una catena di sistemi (per esempio di mezzi diversi) attraverso cui è trasferita l'informazione non può essere superiore a quella del canale/sistema di produzione di segnali che ha il valore di entropia più basso. Ogni accoppiamento di un sistema con un altro tende a introdurre una riduzione dell'entropia interpretabile del segnale, riducendo così la differenza tra l'entropia potenziale del segnale iniziale e quella alla fine ricevuta. In secondo luogo, la capacità informativa tende ad andare perduta nel passaggio da un mezzo al1'altro, e con essa la specificità della storia causale che l'informazione è in grado di riguardare. Dato che il suo possibile riferimento si concretizza in negativo sotto forma di vincoli, ciò che un segno o un segnale può riguardare tende a degradarsi spontaneamente in speci-
Significatività
459
ficità con la trasmissione o l'interpretazione. Quest'ultima tendenza richiama una familiare tendenza termodinamica che garantisce che vi sia inevitabilmente una perdita della capacità di compiere ulteriore lavoro in ogni processo meccanico. Si tratta effettivamente dell'analogo nel campo dell'informazione dell'impossibilità delle macchine del moto perpetuo: le possibilità interpretative possono solo diminuire a ogni trasferimento di vincoli da un mezzo a un altro. Ciò vuol dire inoltre che, a prescindere dalla quantità di informazione che può essere incorporata in un particolare substrato, ciò che essa può o non può riguardare dipende anche dai dettagli specifici della modificabilità del mezzo e dalla sua capacità di modificare altri sistemi. Noi costruiamo strumenti i cui stati subiscono gli effetti dello stato fisico di qualche processo che desideriamo seguire e usiamo i risultanti cambiamenti dello strumento per estrarre informazioni su quel fenomeno, grazie alla sua particolare sensibilità al contesto fisico. L'informazione che esso fornisce è così limitata dalle proprietà materiali dello strumento, ed è per questo che la creazione di nuovi tipi di strumenti scientifici può dare nuove informazioni sugli stessi oggetti. L'espansione del riferimento offerta da ciò è implicita nella logica di Shannon e Boltzmann. Dunque, i limiti materiali dei nostri mezzi, pur essendo una costante sorgente di perdite nei processi umani di trasmissione dell'informazione, non sono necessariamente un grave limite nell'interpretazione delle sorgenti di informazioni della natura, come nell'indagine scientifica. In natura c'è sempre più entropia di Boltzmann inscritta in un oggetto o un evento trattato come segno di quanta mai possano catturarne gli attuali mezzi di interpretazione.
Rumore ed errore Una delle indicazioni più chiare del fatto che l'informazione non è soltanto ordine è data dal fatto che può essere erronea. Un segnale può essere corrotto, il suo riferimento frainteso, e le notizie da esso trasmesse possono essere irrilevanti. Queste tre valutazioni normative dipendono inoltre gerarchicamente l'una dall'altra. Le considerazioni normative richiedono confronti. Ciò non è sorprendente visto che anch'esse comportano un processo di inter-
Natura incompleta
lizzazione. Ciò che conta sono gli stàti distinguibili. Gli stati distinguibili sono detenninati rispetto a un processo interpretativo che va esso stesso inteso, di nuovo,· come un processo di produzione di segnali con la sua propria entropia potenziale di Shannon. In altre parole, una sorgente di informazione può essere interpretata soltanto rispetto a un altro processo di produzione di informazione. Il massimo di informazione che può essere trasmesso è dunque la minore delle entropie di Shannon dei due processi. Se il sistema ricevente/interpretante è :fisicamente più semplice e meno in grado di assumere stati alternativi del mezzo che reca i segnali in questione, o se le probabilità relative dei suoi stati sono meno unifonni (cioè più vincolate), o se l'accoppiamento tra i due sistemi non è sensibile a detenninate interazioni causali, allora l'entropia interpretabile sarà minore del1' entropia potenziale della sorgente. Questo, per esempio, si verifica nella traduzione dell'informazione di sequenza del DNA nell'informazione sulla struttura delle proteine. Dato che vi sono 64 possibili triplette nucleotidiche (codoni) per specificare soltanto 20 amminoacidi, solo una frazione dalla possibile entropia dei codoni è interpretabile come informazione relativa agli amminoacidi 2 • Una conseguenza di questo fatto è che gli scienziati che utilizzano i dispositivi di sequenziame.nto del DNA hanno più informazioni con cui lavorare della cellula da cui lo hanno ricavato. Questa limitazione suggerisce due interessanti analogie con i vincoli termodinamici sul lavoro che erano implicite nell'analisi di Shannon. In primo luogo l'entropia combinata interpretabile di Shannon di una catena di sistemi (per esempio di mezzi diversi) attraverso cui è trasferita l'informazione non può essere superiore a quella del canale/sistema di produzione di segnali che ha il valore di entropia più basso. Ogni accoppiamento di un sistema con un altro tende a introdurre una riduzione dell'entropia interpretabile del segnale, riducendo così la differenza tra l'entropia potenziale del segnale iniziale e quella alla fine ricevuta. In secondo luogo, la capacità informativa tende ad andare perduta nel passaggio da un mezzo al1'altro, e con essa la specificità della storia causale che l'informazione è in grado di riguardare. Dato che il suo possibile riferimento si concretizza in negativo sotto forma di vincoli, ciò che un segno o un segnale può riguardare tende a degradarsi spontaneamente in speci-
Significatività
459
ficità con la trasmissione o l'interpretazione. Quest'ultima tendenza richiama una familiare tendenza termodinamica che garantisce che vi sia inevitabilmente una perdita della capacità di compiere ulteriore lavoro in ogni processo meccanico. Si tratta effettivamente dell'analogo nel campo dell'informazione dell'impossibilità delle macchine del moto perpetuo: le possibilità interpretative possono solo diminuire a ogni trasferimento di vincoli da un mezzo a un altro. Ciò vuol dire inoltre che, a prescindere dalla quantità di informazione che può essere incorporata in un particolare substrato, ciò che essa può o non può riguardare dipende anche dai dettagli specifici della modificabilità del mezzo e dalla sua capacità di modificare altri sistemi. Noi costruiamo strumenti i cui stati subiscono gli effetti dello stato fisico di qualche processo che desideriamo seguire e usiamo i risultanti cambiamenti dello strumento per estrarre informazioni su quel fenomeno, grazie alla sua particolare sensibilità al , contesto fisico. L'informazione che esso fornisce è così limitata dalle proprietà materiali dello strumento, ed è per questo che la creazione di nuovi tipi di strumenti scientifici può dare nuove informazioni sugli stessi oggetti. L'espansione del riferimento offerta da ciò è implicita nella logica di Shannon e Boltzmann. Dunque, i limiti materiali dei nostri mezzi, pur essendo una costante sorgente di perdite nei processi umani di trasmissione dell'informazione, non sono necessariamente un grave limite nell'interpretazione delle sorgenti di informazioni della natura, come nell'indagine scientifica. In natura c'è sempre più entropia di Boltzmann inscritta in un oggetto o un evento trattato come segno di quanta mai possano catturarne gli attuali mezzi di interpretazione.
Rumore ed errore Una delle indicazioni più chiare del fatto che l'informazione non è soltanto ordine è data dal fatto che può essere erronea. Un segnale può essere corrotto, il suo riferimento frainteso, e le notizie da esso trasmesse possono essere irrilevanti. Queste tre valutazioni normative dipendono inoltre gerarchicamente l'una dall'-altra. Le considerazioni normative richiedono confronti. Ciò non è sorprendente visto che anch'esse comportano un processo di inter-
Natura incompleta
pretazione, e ogni informazione che ne risulti è funzione dell'eliminazione di altre possibilità. Shannon ha dimostrato che l'inaffidabilità di un processo comunicativo può essere superata introducendo nel segnale uno specificato livello di ridondanza, che consente a un interprete di utilizzare la correlazione tra componenti simili per distinguere il segnale dal rumore. Per ogni livello dato di rumore inferiore al roo per cento, vi è un livello di ridondanza in trasmissione e controllo di ridondanza che consente di distinguere il segnale dal rumore. Perché l'unico mezzo per valutare l'accuratezza della· trasmissione a prescindere dal contenuto è la sua coerenza interna. Se un mezzo di comunicazione comporta un certo grado di ridondanza intrinseca, come il poter contenere solo :frasi in lingua inglese, allora gli errori sono spesso facili da individuare e correggere a prescindere dal contenuto. Dato che il processo è indipendente dal contenuto è persino possibile individuare errori in messaggi in codice prima che siano decodificati. Gli errori di trasmissione o di codifica che provengono da sorgenti come errori di battitura, di trasmissione o di ricezione non saranno :fra loro correlati nelle varie separate trasmissioni, mentre le specifiche caratteristiche che trasmettono il messaggio saranno altamente correlate :fra una ripetizione e l'altra. Questa logica non è limitata alla comunicazione umana. Anzi, è usata anche dalle cellule per ripulire l'informazione genetica potenzialmente inquinata da rumore a prescindere dalla sua funzione. Ciò è possibile perché il codice genetico è ridondante, di modo che i nucleotidi dei due filamenti della doppia elica devono essere complementari :fra loro o non potranno riunirsi completamente dopo essere stati separati durante la decodifica. Dunque è stata possibile l'evoluzione di un meccanismo capace di identificare, a prescindere dalle eventuali conseguenze funzionali, i punti di accoppiamento non complementare delle basi e di operarne la riparazione funzionale, almeno per danni non è troppo estesi. Nel verificare l'accuratezza delle rappresentazioni è coinvolta una logica di ordine superiore correlata alla precedente. A parte l'ovvia utilità dell'essere in grado di dc;:terminare l'accuratezza delle informazioni relative a qualcosa, la questione ha anche un importante valore filosofico. La valutazione degli errori di riferimento è un problema non banale per le teorie del riferimento basate su cor-
Significatività
rispondenza e mappatura almeno a partire dagli scritti del 17391740 del filosofo David Hume. Ciò perché una corrispondenza è tale che sia o meno coinvolta in un rapporto di rappresentazione, o che sia o meno significativa -per un processo interpretativo. In maggiore o minor misura è possibile trovare qualche rapporto di corrispondenza fra un fatto e quasi ogni altro. Ciò che importa è la determinazione di una specifica corrispondenza, e questo richiede un mezzo con cui distinguere le relazioni di corrispondenza accurate e ignorare quelle spurie. La soluzione di questo problema ha una logica analoga a quella della correzione per il rumore da cui è affetto il segnale nella teoria di Shannon. Nell'esperienza quotidiana usiamo spesso la ridondanza delle conseguenze interpretative come mezzo per individuare gli errori di rappresentazione ogni volta che tale ridondanza sia disponibile. In termini pratici si tratta del metodo, largamente adottato, della verifica dei fatti. Confrontare diversi resoconti indipendenti dello stesso evento può servire a ridurre gli errori di interpretazione. Per esempio, i diversi testimoni di un crimine che forse hanno osservato solo alcuni degli eventi rilevanti, e che potrebbero ricordare male dei dettagli, oppure omettere qualcosa o dichiarare il falso, possono dare dei resoconti che è possibile confrontare e verificare l'uno con l'altro per ricostruire il corso più probabile degli eventi. Si ritiene che i resoconti che presentano riferimenti concordanti offrano le rappresentazioni più probabili e accurate di quanto è accaduto. Questa è anche lessenza del metodo impiegato nelle scienze empiriche. Quando un ricercatore indipendente riproduce i risulta,ti degli esperimenti di un altro ricercatore rafforza la fiducia nelle precedenti affermazioni di quest'ultimo. Per farlo, il secondo ricercatore assume provvisoriamente la correttezza di tali affermazioni, e làvora di conseguenza. Vi è un'interessante asimmetria in questo processo. La mancata riproduzione dei risultati precedenti può condurre a serie revisioni teoriche, mentre scoprire che i vari risultati sono coerenti non garantisce che in minima misura la correttezza di una teoria. L'uso di numerosi metodi indipendenti, analogamente al raccogliere i resoconti di numerosi testimoni indipendenti, quando si trova una coerenza tra tutti i relativi risultati, è ancora più convincente. È per questo che lo sviluppo di nuovi strumenti per stu-
Natura incompleta
diare lo stesso fenomeno empirico in modi diversi conduce a un, notevole incremento della fiducia nella rappresentazione generata. La logica della verifica dei fatti differisce per un aspetto importante dall'introduzione di ridondanze nel segnale per distinguerlo dal rumore nel senso di Shannon. Ciò perché nei fatti comporta un mezzo per accrescere l'entropia potenziale del segnale, e non per ridurla, come accade quando si aumenta la ridondanza del segnale. Per individuare gli errori di rappresentazione in questo modo, bisogna confrontare fonti di informazione diverse e in qualche misura indipendenti, e trarre vantaggio invece dalla loro diversità per altri versi non correlata per superare gli errori. Ciascuna fonte di informazione apporterà le proprie idiosincrasie, analoghe al rumore, ma tutte avranno in comune il fatto di essere state generate rispetto agli stessi eventi estrinseci e sotto l'influenza di essi. Correggere gli errori di rappresentazione comporta dunque sia l'aumento dell'entropia del segnale - per esempio, moltiplicando i processi interpretativi - sia il trarre vantaggio dalle ridondanze nei vincoli imposti dal comune oggetto di interesse che è il fattore estrinseco in comune fra tutti~ Si tratta di una variazione di ordine superiore del medesimo tema, perché nei fatti tratta ciascun processo di interpretazione come se fosse una replica del segnale da confrontare con l'originale, e si basa sulla probabilità che fonti di variazione indipendenti mettano in evidenza le ridondanze di riferimento. Interpretazioni alternative che presentino importanti caratteristiche comuni malgrado siano state generate in modo indipendente saranno probabilmente state influenzate della stessa causa estrinseca. Purtroppo, assumere che vi sia una fonte comune di vincoli ridondanti in interpretazioni indipendenti non è mai un riferimento infallibile, perché comporta una valutazione di similarità edifferenza, che è di per sé un processo di interpretazione. Possono esservi molte ragioni per non trovare una differenza, particolarmente quando l'entropia di Shannon - riflessa nel numero, complessità e diversità delle fonti di interpretazione non è grande. Per esaminare questo punto più attentamente, riprendiamo l'esempio dell'investigatore che confronta numerose fonti di informazione e usa le loro correlazioni per dedurre un evento comune, che ciascuna di tali fonti può o meno indicare. Nel tempo, man
Significatività
mano che si sono rese disponibili a tal fine nuove tecniche interpretative - come il sequenziamento del DNA, l'ànalisi dei materiali e la rilevazione di elementi in traccia - sia l'entropia effettiva dei segnali sia le fonti di ridondanza interpretativa disponibili per i tutori della legge sono aumentate, con relativo incremento dell'affidabilità interpretativa. 'Il problema dell'investigatore, o quello di una giuria messa di fronte a una massa di prove potenzialmente non degne di fiducia, è ridurre l'incertezza dell'interpretazione, cioè arrivare alla «verità». Essi devono generare una risposta interpretativa all'intero complesso delle fonti di prova a favore e contro che· corrisponda al meglio a ciò che in effetti è accaduto ove non è arrivata l' osservazione diretta. La èoerenza (ridondanza) o l'incoerenza (non ridondanza) delle prove non è in sé garanzia dell'esattezza di una data interpretazione. Di fronte al problema di paragonare delle interpretazioni alternative degli stessi eventi, si è spesso costretti ad analizzare altri aspetti della fonte di informazioni per determinare se vi sono distorsioni sistematiche che possano aver introdotto livelli di ridondanza.spuri o intenzionalmente distorti. Creare una falsa apparenza di indipendenza delle fonti di informazioni è per esempio uno ·dei più importanti strumenti della propaganda e delle truffe. Il controllo degli errori è alla sua massima efficacia quando la sfida dell'interpretazione coinvolge oggetti o stati delle cose che restano disponibili per successive esplorazioni. In tali casi l'analisi di ridondanza può essere attiva e in larga misura diretta. Come già notato, mettere alla prova una particolare ipotesi scientifica comporta il comportarsi come se una data interpretazione di prova fosse esatta e osservare conseguenze del continuare ad agire in accordo con quella interpretazione per vedere se le conseguenze restano coerenti con essa. Agendo in accordo con una data interpretazione, è possibile generare conseguenze causali di tale processo che facciano da nuove interpretazioni virtuali, ciascuna delle quali può essere oggetto di confronto. Questo approccio può essere valido anche nelle indagini di polizia. Per esempio, in base al sospetto che una data azienda sia corrotta, un'agenzia di tutela della legge potrebbe cercare di coinvolgerla in una truffa montata ad arte che si svolga come se il sospetto fosse provato, e osservare le conseguenze. Se le ipotesi sono vere le azioni dei corrotti saranno conformi alle previsioni.
Natura incompleta
L'idea di compiere azioni per verificare l'esistenza di errori di interpretazione è accennata anche nell'aforisma di Bateson sull'informazione, e di nuovo comporta lavoro: agire per cambiare le circostanze a dare risultati prevedibili. Tutti questi approcci al problema del controllo degli errori nella rappresentazione rafforzano l'affermazione che l'interpretazione è un processo dinamico che comporta inevitabilmente la generazione di nuova informazione sotto forma di nuovi segnali e nuove interazioni che compiono lavoro rispetto a quelle generate in precedenza. Malgrado ciò sposti l'analisi verso un livello di ordine superiore dei processi di generazione di informazione, continua a valere la stessa logica di fondo che abbiamo visto al lavoro nella classica analisi di Shannon: l'informazione trasmessa è determinata rispetto alle alternative eliminate, che si tratti dell'affidabilità del segnale, di quella del riferimento o di quella dell'interpretazione.
Informazione darwiniana Per molti aspetti questo processo di individuazione degli errori è analogo alla logica della selezione naturale, in cui le ipotesi stanno al posto dei fenotipi varianti e 1' esclusione selettiva alcune di esse in base alla loro non concordanza con le altre è analoga alla selezione. In effetti, molti teorici hanno paragonato la ricerca scientifica e altre imprese di ricerca della verità a processi darwiniani 3 e un certo numero di filosofi contemporanei ha sviluppàto teorie della funzione e del contenuto della mente approssimativamente basate sulla logica della selezione naturale 4. Sono però stati messi in luce diversi problemi in questi approcci, che riguardano principalmente il fatto che l'informazione è definita solo rispetto alle condizioni passate e non a quelle attuali. Si discute anche di se questi processi possano rendere conto degli errori e individuarli 5. Per dirimere questi problemi legati alla generazione interpretativa dell'informazione, dunque, sarà forse utile considerare i problemi analoghi posti dalla teoria dell'evoluzione. Nella versione darwiniana standard della teoria dell'evoluzione per selezione naturale, molti organismi individuali di forme varianti costituiscono una gamma di opzioni, solo un sottoinsieme delle
Significatività
quali è in grado di riprodursi con successo e trasmettere le sue caratteristiche alla generazione successiva. Questo sottoinsieme riesce a farlo per un adattamento comparativamente migliore alle prevalenti condizioni ambientali, e in seguito all'eredità genetica la nuova gamma di individui varianti prodotta eredita dalla generazione precedente le caratteristiche che meglio hanno funzionato in quel• l'ambiente. Ponendo un'analogia con il modello di trasmissione dell'informazione di Shannon, l'iniziale varietà di forme genotipiche e fenotipiche della generazione precedente dà una misura della potenziale entropia delle linee di discendenza e la misura della riduzione delle forme «trasmesse» dovuta alla riproduzione differenziale e all' eli:. rninazione dà una misura dell'informazione generata nel processo . ..· In teoria, dunque, si dovrebbe poter quantificare questa riduzione di entropia per una data popolazione di organismi e per un dato nu.· . mero di generazioni, e stimare la quantità di informazione secondo ; Shannon prodotta nell'unità di tempo nell'evoluzione di tale linea '· di discendenza. È questo parallelismo che giustifica il parlare di evo~· luzione in termini di ·informazione, e da da ultimo per dire che ~l'evoluzione è un processo che produce nuova informazione. Ma su ;- che cosa informa questa informazione? ' Nel caso generale, la riduzione dell'entropia del segnale è la prokva che è stato compiuto lavoro imposto al mezzo di segnalazione da . t una fonte estrinseca, e insieme la base di ciò che tale segnale può ri!i: guardare. Possiamo dunque concludere che l'entropia «genetica » [e/o fenotipica riguarda l'ambiente di una data linea di discendenza? ~I Nell'evoluzione biologica, però, la fonte esterna di influenze può es~ sere l'ambiente in cui si svolge il processo. Esso può essere un con!\testo passivo, una condizione al contorno come la disponibilità di luVce solare, la temperatura ambiente, l'umidità così via 6 . Così, il laFvoro compiuto per «fare la differenza» nella generazione di questa in~:;,formazione darwiniana non può essere dato per estrinseco all'orga~{'nismo. Esso è invece prevalentemente intrinseco alla sorgente del '~;.«segnale». "· Per mantenere le condizioni di lontananza dall'equilibrio (~:che caratterizzano la vita si richiede un costante lavoro. Ciò rende organismi costantemente dipendenti dall'estrazione di risorse dal lforo ambiente. Ma questa dipendenza li rende anche selettivamente ~
e
rgli
Natura incompleta
sensibili alla disponibilità di tali risorse estrinseche. Così, l'informazione che gli organismi trasmettono alle generazioni future rifletterà il relativo adattamento tra le specifiche forme di lavoro in cui essi tendono a impegnarsi, i vincoli ereditati che rendono possibile il tutto, e gli aspetti dell.'ambiente che risultano critici per questo processo. In tal modo i vincoli impliciti in questo rapporto tra organismo e ambiente possono tornare a presentarsi nella preservazione selettiva di alcune forme di dinamica vivente e non di altre. Questa inversione di posizione tra lavoro e sorgente di vincoli nelle relazioni di informazione di Shannon e Boltzmann è una caratteristica comune anche a parecchi strumenti scientifici di rilevamento. Mediante l'incessante generazione di un processo lontano dall'equilibrio, i vari tipi di instabilità intrinseca di un dispositivo compiono lavoro che può essere usato a dare degli esemplari della loro alta reattività a certi fattori contestuali. Un processo che deve costantemente compiere lavoro per mantenere uno stato instabile richiede che nel suo ambiente vi siano delle specifiche condizioni, e quindi il suo stato può essere utilizzato come indicazione della presenza, dell'assenza o del cambiamento di tali condizioni. Un mutamento delle condizioni può così provocare una forte differenza nei vincoli sul segnale perché lo stato lontano dall'equilibrio del dispositivo consente una significativa potenzialità di compiere lavoro. Si può così amplificare anche una minima differenza in un qual" che parametro critico a dare· una forte differenza nella dinamica del mezzo di segnalazione. Un'alta sensibilità specifica, pur riducendo la sensibilità di ciò che può ivi essere trasmesso attraverso un cambiamento in tale segnale dinamico, può invece offrire un'alta precisione nel riferimento. Il canarino che porta con sé il minatore può dirgli che malgrado lui non si senta ancora soffocare la possibilità si avvicina. Analogamente un rilevatore di metalli è altamente sensibile alla presenza o all'assenza di un oggetto che possa essere attirato da un magnete, ma a ben poco d'altro, perché solo i metalli conduttori sono in grado di disturbare il campo magnetico costantemente generato dal rilevatore. A dispetto della bassa entropia del segnale, questa specificità è ciò che serve al cacciatore di tesori o a un artificiere in cerca di mine. Questo fatto, che intuitivamente è ovvio, è spesso però
Significatività
ignorato nelle discussioni tecniche che mancano di distinguere tra questi due livelli di informazione ed entropia ai due diversi livelli d'analisi. Dato che un organismo è la sede del lavoro responsabile della generazione dei vincoli che costituiscono informazione sul suo mondo, ciò che tale informazione può riguardare è altamente limitato, specifico e auto-centrato. Come il cercatore di tesori con il rilevatore di metalli, un organismo può ricavare solo le informazioni sul suo ambiente cui i suoi processi dinamici generati internamente sono sensibili - l' Umwelt di von Uexkiill, la costellazione degli aspetti del mondo rilevanti per la specie autocentrata. Per la maggior parte si tratta di aspetti statistici e tendenze generali, come la densità media delle risorse alimentari, la probabilità di predazione o la ciclicità delle stagioni, e non le caratteristiche molecolari o micro-dinamiche del contesto fisico immediato. Sono tipicamente condizioni al contorno direttamente o indirettamente rilevanti come supporto ai processi lontani dall'equilibrio che costituiscono i vari componenti del metabolismo dell'organismo, i cui effetti sono variegati e indiretti in misura correlata alla complessità dell'organismo stesso. Così, anche se l'informazione contenuta negli adattamenti dell'organismo può esser considerata riguardare il suo ambiente, tale riguardare è valido sempre e solo rispetto ai vincoli della dinamica dell'organismo, e non rispetto a ogni e qualsiasi arbitraria proprietà delle cose.
Da rumore a segnale Prima di poterci dedicare alle implicazioni di questa analisi di informazione e lavoro per capire l'evoluzione della vita e della mente, dobbiamo considerare un ulteriore elemento che si rinviene nei processi evolutivi: la capacità di dar luogo a nuove forme di infor.mazione. Ciò si deve a una fondamentale differenza tra la logica astratta della teoria della comunicazione e il processo evolutivo: ·l'instabilità della distinzione tra segnale e rumore nell'evoluzione. Se paragoniamo la trasmissione dei tratti di generazione in generazione attraverso la riproduzione alla trasmissione di segnali lungo un canale di comunicazione, allora la mutazione in biologia è analoga
Natura incompleta
al rumore introdotto in un canale di comunicazione. Nella maggiore parte dei processi di comunicazione il rumore è un fastidio, che degrada l'informazione introducendo nel segnale nuova entropia non correlata, e accresce l'incertezza su che cosa sia segnale e che cosa no, potenzialmente quindi corrompendo il messaggio. Mentre però l'introduzione di rumore riduce la potenziale capacità di informazione di Shannon di un canale, paradossalmente accresce la sua capacità di riferimento, perché ne accresce l'entropia di Shannon totale. È come se fosse disponibile un ulteriore canale informativo, perché il rumore è anche una conseguenza del carattere aperto del sistema fisico che si sta usando come mezzo portatore dei segni, e quindi anch'esso riflette qualche fonte di modifiche del segnale al di là di ciò che è stato inviato dal mittente. Ovviamente, il rumore è solo rumore se ciò che interessa è solo quel che è stato inviato inizialmente e la causa della degradazione del segnale non importa affatto. Questa decisione normativa, però, dipende dal processo di interpretazione. Per chi deve fare una riparazione, il rumore può essere un segnale. Nell'ottica dell'informazione di Shannon, il rumore è fonte di equivoci o ambiguità nel segnale. Un segnale rumoroso, come un testo che contenga errori di battitura, contiene segnali sostituiti da alternative non correlate. L'analisi di Shannon ha mostrato come sia possibile compensare gli equivoci tra segnale e non segnale se i processi di trasmissione e interpretazione possono avvalersi di vincoli o ridondanza nel segnale. Nell'evoluzione dei fenotipi adattativi, però, non vi sono simili aspettative da sfruttare. Capire come ciò si realizza in mancanza di ogni contesto di ridondanza introdotta su cui basarsi è l'elemento chiave per spiegare in che modo l' evoluzio~ ne fini.sce per trasformare il rumore in segnale. Che succede dunque se nel segnale non sono disponibili informazioni che possano aiutare a discernere le parti trasmesse da quelle sostituite a caso? Consideriamo il caso di un insieme di istruzioni in cui vi sono degli errori di sostituzione di parola, senza però svarioni di significato, ortografia o grammatica a indicarne l'imprecisione. Sono cose che succedono in dispositivi di fabbricazione estera con istruzioni mal tradotte da una lingua straniera. In circostanze del genere spesso si parte dall'idea che le istruzioni siano esat"
Significatività
te e si cerca di eseguire quanto descritto. Se nel processo si trova qualcosa che non va come descritto si può arrivare a sospettare che ci sia un errore nelle istruzioni, e facendo attenzione al compito de-· scritto può spesso trovare qualche indizio su dòve sia. Questo approccio per tentativi ed errori è anch'esso un modo di mettere alla prova le ipotesi, come sopra descritto. La ridondanza di cui si fa uso è quella tra l'informazione referenziale nella comunicazione e i vincoli del contesto di applicazione. Se l'informazione rappresenta in modo esatto le caratteristiche di un sistema fisico (per esempio le istruzioni per far funzionare un congegno meccanico) la sua interpretazione in termini di azioni eseguite sul sistema saranno correlate con i vincoli fisici necessari a dare un certo risultato. Il riferimento di un segno o segnale è così suscettibile anche di correzione degli errori mediante ridondanza a un livello più alto dell' organizzazione del segnale. Il riferimento di un segnale formula implicitamente una predizione relativa a possibilità causali estrinseche. Le interazioni fisiche o logiche con queste condizioni estrinseche ·saranno vincolate a conformarsi o meno a questa predizione, e se non lo faranno lo stato rappresentato ne risulterà smentito. La logica della selezione naturale è così analoga per molti versi a un processo per tentativi ed errori, salvo che nella selezione naturale non ci sono sorgenti estrinseche di rappresentazione con cui eseguire confronti. Successo riproduttivo o mancata riproduzione sono tutto ciò che distingue l'accuratezza della rappresentazione data dall'informazione incorporata nel genotipo e nel fenotipo. Ma la riproduzione consente di mettere ulteriormente alla prova, in modo iterativo, queste conseguenze interpretative. Così le successive generazioni fanno le veci della fonte esterna di confronti necessaria per la verifica degli errori. Se la sua eredità genetica contribuisce a : dare a un individuo un corpo dotato dei giusti adattamenti è per; ché i vincoli in essa concretizzati sono in qualche misura corrispon:i denti ai vincoli dell'ambiente. Purtroppo i morti non parlano, per ;r usare una cinica frase fatta. Sembrerebbe dunque che non vi sia al); cuna memoria delle tante mancate corrispondenze; nessuna rappre~; sentazione indipendente di quali erano errori e quali no. · ~) Quel che può valere come informazione utile nell'evoluzione (\?biologica è determinato a posteriori rispetto alla sua capacità di su-
470
Natura incompleta
perare il meccanismo funzionale di correzione degli errori della selezione naturale. L' «esattezza» del segnale ereditario è sia «verificata» che migliorata dal modo in cui la dinamica lontana dall' equilibrio che costituisce lo sviluppo, la preservazione e la riproduzione di un organismo si conforma ai vincoli e alle opportunità dell'ambiente. L'evoluzione è così un generatore di informazione per l'organismo e un processo che rettifica questa informazione con il suo riferimento. In tal modo, malgrado non sia di per sé normativo, il processo evolutivo produce organismi capaci di eseguire valutazioni normative dell'informazione che ricevono. In questo senso, l'evoluzione genera e rettifica informazione referenziale. I processi interpretativi compiono lavoro e di conseguenza comportano processi non in equilibrio che sono necessariamente sensibili al contesto. L'entropia di un insieme di processi interpretativi sorti da fonti non correlate e quindi privi di precedenti riferiihenti («rumore», dal punto di vista dell'emittente) può acquisire un riferimento perché capita che i vincoli che in essa si incarnano, per felice coincidenza, vengano anche a essere ridondanti rispetto a certe condizioni al contorno che sostengono tale dinamica. Il processo evolutivo può progressivamente accrescere la corrispondenza funzionale tra le dinamiche degli organismi e le precondizioni contestuali. Nella misura in cui i .vincoli di tali dinamiche sono conformi ai vincoli ambientali che risultano coerenti con la loro prosecuzione, detti vincoli intrinseci incarnano questa corri-' spondenza nella dinamica in corso. Malgrado questa non sia informazione, questo processo è la base della rettificazione referenziale. Di solito gli studiosi dell'evoluzione non danno gran peso al fatto che l'assenza delle linee di discendenza che si estinguono è ciò che determina la funzionalità dei tratti che persistono. Si potrebbero vedere le linee sopravvissute e i loro adattamenti nell'ottica della progettazione ingegneristica in termini di funzioni ben identificate progettate per realizzare uno scopo precedentemente specificato, ma malgrado l'analogia sia superficialmente attraente a minarla è il fatto che di poche strutture biologiche, ammesso che ve ne siano, si può dire che abbiano una e una sola funzione distintiva. La loro appropriatezza, sia interna che esterna, è irriducibilmente sistemica, perché gli adattamenti sono i resti di una più ampia coorte di va~
Significatività
471
rianti selezionate l'una rispetto all'altra e al loro contesto ambientale. Non vi sono mappature semplici dell'informazione genotipica e fenotipica sulle funzioni adattative. Quel che costituisce dunque il riferimento dell'informazione ereditata è in ultima analisi definito solo in negativo. La funzione biologica non è dunque costruita positivamente, ma è piuttosto il residuo evolutivo che occupa lo spazio vincolato delle correlazioni funzionali che non sono state eliminate. Questa è la base per l'emersione di nuove funzioni nell'evoluzione, nonché della possibilità dal preadattamento, o exattamento, evolutivo (exaptation, il passaggio di un carattere da una funzione adattativa ad un'altra). Sotto questo aspetto, l'informazione genetica non è meramente retrospettiva - relativa cioè solo all'adattamento che ha avuto ~uccesso in passato - ma non per questo anticipa nuovi adattamenti futuri. Non è un aspetto di un rapporto statico, ma emerge in un processo, man mano che le sue conseguenze interpretative compiono lavoro che finirà per confermare o meno la continuazione di questo processo.
Informazione emergente Anche se fin qui il discorso è stato formulato nei termini dell'informazione coinvolta nell'evoluzione biologica, il modello è generalizzabile ad altri domini. Le dipendenze annidate dei tre livelli di · riduzione dell'entropia - qui caratterizzati dalle variazioni sul tema di Shannon, Boltzmann e Darwin - definiscono un'architettura ricorsiva che dimostra tre nozioni gerarchicamente annidate di informazione. Vi è un parallelo, assai approssimativo, con le classiche distinzioni gerarchiche tra sintassi (Shannon), semantica (più Boltzmann) e pragmatica (più Darwin). L'altro approssimativo parallelo è quello con il rapporto tra dati, contenuto e significato, anche ·se per comprendere le reciproche relazioni tra questi tre livelli semiotici bisogna uscire con l'analisi dal campo della biologia per entrare in quello della comunicazione. Il richiamo alla selezione darwiniana come meccanismo ultimo per la generazione di nuove relazioni informative potrebbe far pensare che si debba adottare una visione eziologica dell'informazione. Si potrebbe, in altre parole, essere tentati di sostenere che l'infor-
472
Natura incompleta
mazione è discernibile solo post hoc, dopo la selezione, e dopo la riduzione dell'entropia. Ma ciò sarebbe fuorviante, sia per la biologia che per le relazioni di informazione in genere. Come per le funzioni biologiche, la specifica storia selettiva di una data capacità di rappresentazione può essere necessaria a spiegarne l'uso presente, ma le corrispondenze del passato non sono ciò che essa attualmente riguarda. Le corrispondenze passate hanno migliorato la possibilità di un'affidabile e precisa corrispondenza predittiva, ma quel che conta è un rapporto con le condizioni attuali. Ne è un esempio il fatto stesso che informazione e rumore non siano intrinsecamente distinte, e che il rumore mutazionale possa diventare informazione biologica nel corso dell'evoluzione. Questo è 'il problema delle semplici spiegazioni eziologiche delle funzioni adattative e delle rappresentazioni, che trattano informa~ zione e funzione come retrospettivamente determinate dalla loro storia di selezione. Dato che i processi generatori di informazione emergono in sistemi costituitisi in una storia pragmatica di selezione, il terreno ,di corrispondenza tra informazione e contesto è determinato per così dire negativamente, in virtù delle possibili corrispondenze che sono state eliminate, ma lascia aperta la questione delle corrispondenze che non si sono ancora mai presentate. Non c'è alcuna specifica corrispondenza iscritta con precisione totale, e la presente corrispondenza non è garantita. Data la sotto-determinazione delle corrispondenze funzionali, nuove funzioni possono sorgere ex novo in contesti mai apparsi prima e certe proprietà incidentali del segno. o del segnale possono, per fortunata coincidenza, servire a funzioni emergenti. In breve, mentre la possibilità del-' la generazione e dell'interpretazione dell'informazione dipende da una specifica storia fisica di selezione, l'influenza nel presente di tale informazione sulla persistenza del sistema che la rende possibile può anche, a seguito di una qualche fortunata coincidenza, non essere correlata a tale storia. Questa è la base dell'evoluzione di nuove funzioni, ma è anche il motivo per cui l'informazione è sempre potenzialmente fallibile. Quello dell'evoluzione non è, tuttavia, un processo normativo. Le condizioni possono essere buone o cattive per un organismo, o per la vita in genere; le risposte di un organismo al mondo posso-
Significatività
473
no essere più o meno valide per raggiungere i suoi scopi intrinseci, e la sua dinamica di adattamento può collegare più o meno accuratamente i cambiamenti dell'attività dell'organismo a quelli delle condizioni estrinseche che contribuiscono alla persistenza di questa organizzazione dinamica; ma 1' evoluzione succede e basta. Malgrado dunque l'evoluzione possa far progredire la convergenza pragmatica tra contenuto interpretato e riferimento estrinseco, l'informazione non è in alcun senso disponibile per 1' evoluzione ma solo per gli organismi che ne sono i prodotti. L'evoluzione genera la capacità di interpretare qualcosa come informazione. Questa capacità è intrinseca a un sistema autoperpetuato lontano dall'equilibrio che dipende dal suo ambiente e compie lavoro per modificarlo in modo da rinforzare la propria persistenza. L'informazione è una proprietà relazionale definita rispetto a questa regolarità dinamica persistentemente instabile, o, come avrebbe potuto dire il filosofo Charles Sander Peirce, rispetto a una «abitudine» intesa nel senso più generico possibile; specificamente, un'abitudine autoperpetuata e autorettificata. Così l'informazione genetica riguarda possibilità di reazioni chimiche cellulari, i relativi ruoli nel costituire 1' organismo, e il modo in cui questa relazione tra i geni e i loro effetti è correlata anche con le condizioni estrinseche che hanno sostenuto in passato il mantenimento di queste possibilità. È informazione che riguarda struttura e funzioni dell'organismo perché introduce vincoli critici nei processi di non equilibrio che possono da ultimo contribuire alla perpetuazione di tale relazione. È interpretata dalla persistenza del processo autoperpetuato cui contribuisce. Non è informazione sul mondo presente; questo è un ruolo che può esser svolto soltanto da segni estrinseci. Ugualmente, però, la capacità di avvalersi delle caratteristiche dell'ambiente come informazione dipende, per poter trarre informazioni da fonti estrinseche, da questa interpretazione chiusa dell'informazione genetica. Questa abilità di usare eventi e oggetti generati estrinsecamente come informazione deriva dalla speciale dinamica dei 'processi viventi. Dato che gli organismi sono costituiti da processi persistenti specialmente organizzati lontani all'equilibrio, sono intrinsecamente incompleti. In questo senso sono processi organizzati intorno a
474
Natura incompleta
un'assenza. Non solo gli adattamenti biologici evolvono e si definiscono rispetto a caratteri del mondo estrinseci ali' organismo, ma per molti aspetti si tratta di caratteri soltanto potenziali, e assenti dal1'ambiente attuale. Così, gli adattamenti di un organismo che hanno a che fare con condizioni insolite, come le grandi altitudini o caldo e freddo estremi, possono non essere espresse per tutta la vita. Per questo motivo il mantenimento di condizioni lontane dal1' equilibrio comporta meccanismi che anticipìno efficacemente le possibili variazioni delle condizioni ambientali. Che però lo fanno rispetto a un processo vivente che allo stesso tempo è costantemente asimmetricamente diretto in senso contrario agli stati altamente probabili per molteplici versi: compie infatti lavoro (a) per mantenere il proprio stato lontano dall'equilibrio, (b) per generare forme organiche specifiche e (c) per realizzare l'esito specifico di mantenersi abbastanza a lungo da riprodurre l'organizzazione globale che sostiene i processi (a), (b) e (c). Rispetto dunque a queste tre dinamiche improbabilmente asimmetriche vi sono numerosi fattori critici estrinseci che risultano rilevanti. Questa combinazione di assenza e necessaria rilevanza per un processo asimmetrico che incessantemente interagisce con il mondo e lo modifica è ciò che proietta la proprietà dell'informazione in stati ed eventi altrimenti puramente fisici. Si consideri un esempio estraneo all'ambito mentale: un albero deciduo che altera il proprio metabolismo in risposta alla diminuzione della lunghezza delle giornate e al calo delle temperature nei primi mesi dell'autunno, e alla fine dà luogo alla cessazione del supporto metabolico per le foglie, di modo che queste si seccano e ca7 dono. Questo adattamento alle difficoltà dell'inverno comporta un meccanismo che tratta i cambiamenti aillbientali come informazioni su probabili eventi futuri che potrebbero avere un impatto sulla sopravvivenza e sull'efficacia della riproduzione. Nella misura in cui questa risposta, nelle precedenti generazioni, ha avuto come risultato il mantenimento di quella linea di discendenza rispetto ad altre linee che ne erano prive, questo meccanismo ha acquisito una sua affidabilità interpretativa. La regolarità dei cambiamenti stagionali di quei fattori fornisce la variazione vincolata sulla quale hanno finito per sintonizzarsi i vincoli del meccanismo metabolico dell'albero.
Significatività
475
Ma non sono solo queste correlazioni a costituire proprietà informative di questi cambiamenti stagionali per l'albero. Lunghezza del giorno e temperature medie sono anch'esse correlate, ma l'una non è intrinsecamente informazione rispetto all'altra. È solo in relazione alla dinamica :finalizzata improbabile dei processi metabolici dell'albero che l'una o l'altra è informativa; e specificamente informativa a proposito di condizioni al contorno che potenzialmente influirebbero su tale dinamica. Mi sono trovato a lavorare in un ufficio vicillo a un certo numero di alberi della stessa specie, piantati nell'ambito di una sistemazione paesaggistica del campus universitario. Alcuni di questi alberi, posti vicino a un lampione automatico e in prossimità dello scarico del sistema di ventilazione dell'edificio, erano sempre gli ul. timi a cambiare il colore delle foglie e a perderle. Da un lato si potrebbe sostenere che quei pochi alberi stavano interpretando erroneamente i segni artificiali, che non rappresentano accuratamente i cambiamenti stagionali. Dall'altro lato, sarebbe giustificato sostenere che l'interpretazione era corretta, perché promuoveva l'esito di·. namico in virtù del quale il meccanismo stesso esiste. Questo sposta il centro della questione dalla funzione evoluta alle immediate conseguenze incrementali del meccanismo evoluto come terreno . dell'informazione referenziale. Il meccanismo evoluto vincola le di~ namiche di interpretazione possibili, ma senza determinarle. Ogni momento di interpretazione è di sostegno o di ostacolo all'automantenimento di questa tendenza dinamica. Ciò significa che non solo c'è un'origine storica della proprietà normativa di questo processo interpretativo, ma vi è anche una proprietà normativa astorica e di efficacia immediata, che non deve per forza essere coerente con la sua funzione dovuta all'evoluzione. Questa possibilità, nei fatti, è una condizione necessaria per l'evoluzione, dato che essenzialmente ogni adattamento si è evoluto da forme e meccanismi precedenti che spesso servivano a funzioni adattative assai diverse. Funzione e rappresentazione sono rese possibili dal modo in cui i processi viventi sono intrinsecamente organizzati intorno a fattori assenti ed estrinseci, e il processo darwiniano genera inevitabilmente forme sempre più complicate di dipendenza da tali interne assenze. L'informazione è una proprietà relazionale che emerge da strati
Natura incompleta
annidati di vincoli: i vincoli sulle probabilità dei segnali (Shannon), quelli sulle dinamiche di generazione dei segnali (Boltzmann) e i quelli necessari per le dinamiche finalizzate automantenute lontane dall'equilibrio (Darwin). Dato che l'informazione è un rapporto tra i livelli di vincolo generati da processi fisici intrinsecamente instabili, ha anche carattere normativo rispetto a tali processi. Un vincolo però è una proprietà negativa, e dunque una cosa né intrinseca né determinata. Ciò vuol dire che è intrinsecamente incompleta e fallibile. Ma sono proprio queste proprietà a renderlo capace di evolvere e di essere indefinitamente raffinato.
Rappresentazione Possiamo concludere che nessun oggetto o struttura o veicolo di segni può essere investito di una relazione di rappresentazione. Questa relazione non è riconducibile ad alcuna distinzione fisica specifica, e neppure è pienamente costituita da una relazione di corrispondenza. Ma non si tratta neanche di una proprietà primitiva non analizzabile della mente. Anche le semplici relazioni funzionali e di rappresentazione emergono da un'interdipendenza annidata di processi generativi il cui unico carattere distintivo è di incorporare nelle loro dinamiche e nelle loro reciproche relazioni delle specifiche assenze. Queste assenze incorporano, in negativo, i vincoli imposti ai substrati fisici di segnali pensieri e comunicazioni che possono essere trasferiti da un substrato all'altro e così svolgono ruoli efficaci nel mondo come vincoli ereditati su ciò che tende ad accadere, senza però agire da forze che costringano gli eventi a prendere l'una o l'altra direzione. I vincoli non compiono lavoro, sono l'impalcatura da cui dipende la capacità di compierne. Questo è solo un minimo abbozzo di una teoria dell'informazione sufficiente a rendere conto di alcuni degli aspetti più elementari dei rapporti di funzione e rappresentazione, e dunque non ci si può attendere che copra l'intero spazio che separa la funzione biologica dall'agenzia cosciente. Ma considerando che anche le più basilari trattazioni di funzione biologica e rappresentazione sono oggi poco più che analogie con macchine di fabbricazione umana e con le comunicazioni umane, anche solo uno schema generale che of-
Significatività
477
fra un approccio costruttivo, e non solo più analogico e descrittivo, rappresenta un progresso importante. In questa esplorazione del rapporto tra teoria dell'informazione, termodinamica e selezione naturale abbiamo dipanato alcune delle complessità non riconosciute che si celano nel concetto di informazione. Generalizzando le intuizioni dell'equazione dell'informazione di Shannon con la riduzione dell'entropia e la propagazione dei vincoli, e rintracciandone i collegamenti con analoghi elementi dei domini della termodinamica e dell'evoluzione, abbiamo affrontato alcuni dei più seri problemi legati a rappresentazione riferimento e normatività (cioè utilità). Eliminando l'inadeguatezza delle correnti definizioni di informazione possiamo finalmente superare gli ostacoli apparentemente insormontabili che si oppongono alla formulazione di una teoria della rappresentazione abbastanza ricca da poter fare da base per le scienze biologiche e le neuroscienze cognitive, e insieme abbastanza fondata sulla fisica da poter spiegare fallibilità della rappresentazione, verifica degli errori, creazione di informazione e rapporti tra processi informativi ed energetici.
Capitolo I4
Evoluzione
L'auto-organizzazione propone e la selezione naturale dispone. Stanley Salthe 1
Eliminazione naturale Letterahnente, il termine evoluzione si rifei;isce a un processo che si svolge. Anche se lo si può usare in senso generico a indicare un processo che si svolge in una determinata direzione, come quando si parla di «evoluzione di una reazione chimica» o di «evoluzione stellare», dai tempi di Darwin il termine evoluzione è associato al processo biologico attraverso il quale le specie viventi si sono venute differenziando e diversificando nei tempi geologici. Nelle discussioni biologiche si assume che il suo significato sia equivalente a quello di selezione naturale più una serie di processi collegati come la deriva genetica, e nelle discussioni non tecniche si assume che si riferisca a una versione della prospettiva darvvinista sull'origine delle specie. La connotazione darwinista è utile a distinguere quella che risulta essere una concezione negativa, o sottrattiva, del cambiamento, in cui certe forme sono progressivamente eliminate o tolte di mezzo d;,i una concezione positiva quali quelle che vediamo nei processi di progettazione, in cui si aggiungono nuove modifiche .. Nel modello standard sia la preservazione dei «più adatti» che l'eliminazione dei «meno adatti» sono intese come il risultato della sopravvivenza o meno fino alla rip~oduzione.
Natura incompleta
I processi sottostanti l'evoluzione biologica non sono, ovviamente, limitati a un effetto sottrattivo. La stessa selezione naturale nella sua forma più semplice richiede la produzione di variazioni di forma e la moltiplicazione della prole, di cui gli individui più validi sono poi preservati. Nella maggior parte delle tradizionali esposizioni del darwinismo, la fonte di nuove variazioni è considerata il fattore positivo primario. In un'ottica neodarwinista, tuttavia, si presume che l'introduzione di nuove variazioni nel processo sia dovuta a una forma di danno - il danno genetico da mutazioni - che è essenzialmente espressione della seconda legge della termodinamica, e dunque un effetto che distrugge l'ordine. Ma potrebbe essere disposinibile anche una fonte di aumento dell'ordine: i processi di auto-organizzazione. Il riconoscimento della necessità che vi sia un tale fattore «positivo», e non soltanto un fattore moltiplicativo, per poter spiegare 1' evoluzione biologica, si sta facendo più diffuso. È lo stesso requisito che richiama Peter Corning quando sostiene che «una teoria pienamente adeguata dell'evoluzione deve comprendere sia l'auto-organizzazione che la selezione» 2 • Il mancato riconoscimento di questa necessità è stato fonte di persistenti problemi teorici per la teoria evoluzionista. Dimostrare con precisione in che modo siano intrecciati i processi di auto-organizzazione e di selezione potrebbe dunque contribuire a risolvere alcuni di queste difficoltà. È forse più esatto dire che la teoria della selezione naturale è esplicita sul suo effetto sottrattivo ma agnostica sull'aspetto additivo. Pur offrendo una logica potente, in grado di spiegare il modo in cui gli organismi si sono evoluti ad adattarsi a ciò che hanno intorno, la selezione naturale lascia fuori quasi tutti i dettagli meccanicistici dei processi coinvolti nella generazione degli organismi, delle loro parti e della loro prole. Anzi, il fatto di essere agnostica sui meccanismi di crescita e rigenerazione di strutture e funzioni, riproduzione dei singoli organismi e trasmissione dell'informazione genetica, nonché sulla spiegazione delle possibili fonti di variazione .che influiscono su questo processo, è uno dei pregi di questa teoria. Ma è proprio il processo di generazione di corpi fisici e mantenimento di processi fisiologici a costituire la valuta dell'economia della selezione naturale. Le variazioni non esistono in astratto, ma sono sempre variazioni di qualche. struttura o processo di un orga-
Evoluzione
nismo, o dei suoi esiti. Gli organismi devono competere per le risorse con cui costruire le proprie parti e mantenere la dinamica lontana dall'equilibrio che è la fonte dell'automantenimento e della riproduzione. Sono l'efficienza e la rispondenza al contesto di questi processi a determinare la riproduzione differenziale da cui dipende cosa persiste e cosa no. O, per dirlo più semplicemente, ciò che la selezione naturale elimina è determinato rispetto all'efficacia di ciò che arriva a essere generato in un dato contesto. Questo disaccoppiamento della funzione dai processi cui deve la sua origine significa che non importa quale meccanismo specifico sia coinvolto. Contano solo le conseguenze, a prescindere da come siano state ottenute. La selezione naturale è dunque un classico caso di fine che giustifica i mezzi, retrospettivamente, preservandoli. Questa indipendenza da substrati e meccanismi specifici è l'origine della più rivoluzionaria intuizione di Darwin: che l'adattamento in biologia si realizza solo ex post. Ciò lo aiutò a riconoscere che le variazioni di struttura e funzione che si producono per caso possono comunque essere funzionali. Ancora più importante è che questo disaccoppiamento delle conseguenze dalle cause consente che la massima diversità di meccanismi possibile sia resa disponibile per esser messa al servizio di una data funzione adattativa. Per esempio, i mezzi con cui possono esser realizzati il volo, la fotosintesi o il pensiero in un dato organismo sono irrilevanti, purché producano risultati utili. Che il volo sia ottenuto mediante la peluria del seme del dente di leone catturata da un soffio di brezza, con le membrane simili a cuoio degli pterosauri o delle ali dei pipistrelli, o con la leggerezza e la resistenza al vento delle penne, quel che conta è arrivare per aria. Anche se queste funzioni dipendono da meccanismi sottostanti che convergono su certi specifici vincoli meccanici, quel che conta è la realizzazione di questi vincoli e non la forma specifica in cui si realizzano. Così la selezione naturale è un processo definito dalla realizzabilità multipla, ed è l'esempio paradigmatico della definizione di funzionalismo. È proprio questa apertura in termini di substrato e meccanismo ad aprire il vaso di Pandora della capacità di evolvere e a rendere possibile l'esplosiva creatività della vita e della mente. È quindi con l'emergere del processo della selezione naturale che vie-
Natura incompleta
ne al mondo una vera generalità funzionale. Adattamenti e organismi sono in questo senso tipi generali che esistono a prescindere dai dettagli specifici della loro incarnazione. Il grande potere della capacità di evolvere è così una conseguenza del fatto che la selezione naturale è un processo che trasforma regolarmente proprietà fisiche incidentali in attributi funzionali. Un adattamento è la realizzazione di una serie di vincoli sui meccanismi candidati, e purché tali vincoli siano rispettati le altre caratteristiche sono arbitrarie. Ciò significa però che per ogni adattamento vi sono innumerevoli altre proprietà arbitrarie che possono entrare in gioco. Anche se una struttura o processo deve concretizzarsi in substrati specifici dotati di innumerevoli proprietà incidentali alla sua attuale utilità adattativa, ciascuna di queste proprietà incidentali può diventare substrato per la selezione, e quindi una proprietà funzionale o disfunzionale. Proprio perché è indifferente ai meccanismi, quindi, la logica della selezione naturale è solo minimamente limitata rispetto al tipo di proprietà che possono essere reclutate, salvo il fatto che devono essere immediatamente presenti. La rilevanza di tutto questo per le discussioni sull'emergenza dovrebbe essere ovvia. Questa capacità di trasformare l'incidentale e accidentale in significativo e indispensabile riduce radicalmente al minimo il ruolo causale di ogni specifica tendenza fisica intrinseca o condizione antecedente immediata nel determinare che cosa può fare o meno da substrato di una funzione originatasi per evoluzione. Data la sua indifferenza al meccanismo, l'adattamento è un po' come un algoritmo che può essere adottato su macchine diverse, e in questo senso ha qualcosa del carattere di una descrizione. In termini filosofici, un universale. Ma un adattamento non è la stessa cosa dell'insieme delle proprietà che costituiscono lo specifico meccanismo di cui consta; è molto meno. Solo un ridottissimo sottoinsieme degli attributi della realizzazione fisica di una certa funzione; come il legame con l'ossigeno, è rilevante per il successo dell'adattamento. Un meccanismo adattativo è inoltre al tempo stesso qualcosa che va al di là di ognuna delle sue proprietà. È la conseguenza di una lunga storia di vincoli che sono stati trasmessi via via di generazione in generazione. Come il processo di somma, che può in diversi momenti attuarsi con movimenti delle dita, ·spostamenti delle pie-
Evoluzione
tre di un abaco o cambiamenti della distribuzione delle cariche elettriche nei registri di memoria di ur;i computer, gli anelli causali della catena sono divenuti incidentali. A essere critica è solo la trasmissione dei vincoli conservati, e i vincoli non sono materia. Ovviamente i vincoli devono essere incarnati a ogni passo in uno specifico substrato fisico, e il trasferimento da substrato a substrato deve sempre essere mediato da uno specifico meccanismo fisico che determini precisamente le sovrapposizioni fisiche e il lavoro del trasferimento di tali vincoli, ma la cosa importante è la conservazione dei vincoli, non dell'energia, del materiale o del meccanismo specifico. È appunto perché un vincolo non è qualcosa di positivo, ma piuttosto qualcosa di non realizzato, che solo alcuni dettagli fisici dei meccanismi realizzati come adattamenti sono funzionalmente rilevanti, anche se tutti fanno parte dei relativi processi fisici. Solo questi attributi funzionalmente rilevanti - cioè quelli che garantiscono la preservazione di tali vincoli - contribuiranno alla composizione corporea delle future generazioni. Gli altri attributi fisici alla lunga sono suscettibili di eliminazione, se i medesimi vincoli possono essere trasferiti ad altri substrati, o potrebbero semplicemente finire per essere degradati dalle variazioni accumulate nelle generazioni. È in questo senso che siamo giustificati nel sostenere che i meccanismi della vita sono tipi generali. La forza della teoria dell'evoluzione nello spiegare gran parte della complessità e diversità delle forme biologiche deriva da questa sua astrattezza fisica. La separazione tra i processi materiali generativi e le conseguenze funzionali è responsabile della persistenza degli adattamenti nell'arco di numerose generazioni, ma anche ciò che consente il passaggio di certe funzioni a substrati progressivamente più validi. In un senso più consueto, è responsabile anche di uno dei più elementari attributi della vita: la capacità di sviluppare, dal basso verso l'alto, un organismo di grande complessità e ben integrato, regolato da un insieme' relativamente piccolo di vincoli trasmessi nei geni e nel citoplasma ricevuto da un organismo genitore. Dato che le componenti materiali intrinseche e le proprietà dinamiche che costituiscono un determinato adattamento non sono essenziali, ma sono determinate da vincoli da imporre alle proprietà e non da un insieme di proprietà specificamente rilevanti, dob-
Natura incompleta
biamo pensare alle origini dei meccanismi organici in modo diverso da quelle dei meccanismi progettati. Nella storia evolutiva che ha condotto a una certa forma di adattamento i vincoli su materiali e dinamiche che sono stati conservati sono semplicemente quelli che non sono stati eliminati. In quanto scienziati e ingegneri tendiamo a concentrarci sulle proprietà che individuiamo come le più rilevanti per la nostra idea astratta di una funzione, ma, la vita dipende solo dall'esclusione delle meno utili. Questa è una rottura critica della simmetria causale che fa del concetto di funzione biologica una propri.età fisica emergente generale che non è determinata dalle sue proprietà costituenti di livello inferiore, anche se possiamo trovare utile cercare di elencarle e descriverle. Quelle proprietà costituenti che noi biologi possiamo trovare utili nel capire e categorizzare le funzioni biologiche non sono state essere stesse bersaglio della «selezione»; esse fanno semplicemente parte del residuo, di ciò che non è stato eliminato. L'evoluzione non è imposizione di un progetto, ma progressivo vincolo.
Le diverse forze della vita È dunque essenziale per la forza della teoria della selezione naturale il suo esplicito rifiuto di affrontare i modi in cui sono generati i meccanismi rilevanti e le loro forme varianti. La logica darwiniana, correttamente, tratta queste questioni come separabili dalla spiegazione della determinazione degli adattamenti. I teorici del!' evoluzione erano dunque giustificati sia nell'accettare la plausibilità della generazione accidentale di forme varianti sia nel negare la necessità di variazioni acquisite attivamente o dotate di orientamento funzionale. Questi aspetti non sono né un problema né una necessità per la teoria perché i dettagli di questi meccanismi sono irrilevanti per le spiegazioni funzionali da essa fornite. In effetti, anche se spesso i manuali fanno pensare altrimenti, lo stesso Darwin era aperto a molte possibili fonti di generazione delle forme e di variazione genetica, compresi i meccanismi lamarckiani. Semplicemente, riconobbe che la logica della selezione naturale era sufficiente a prescindere da come queste conseguenze generative, riproduttive e varianti fossero ottenute.
Evoluzione
Riconoscere che la logica della selezione naturale è agnostica rispetto a questi fattori ncin toglie però di mezzo il problema del meccanismo. Come abbiamo sottolineato, il problema di come siano generati processi dinamici regolari e forme fisiche malgrado la seconda legge della termodinamica, e quello di come sia generata, preservata e trasmessa l'informazione biologica sono aspetti tutt'altro che banali della spiegazione biologica. La selezione naturale può avvenire a prescindere dai dettagli della generazione e riproduzione delle forme, ma avviene solo se questi processi sono presenti. Qualche meccanismo specifico è richiesto e i processi in grado di produrre questo tipo di regolarità sono limitati e devono avere proprietà dinamiche assai specifiche per poter contrastare l'ubiquità delle tendenze termodinamiche locali. Non ci siamo liberati, dunque, dal dover rispondere alle domande su come i mezzi specifici con cui si realizzano questi processi potrebbero influenzare l'evoluzione. Gli organismi sono sistemi altamente complessi e, come tanti critici della selezione naturale amano far notare, il numero di possibili combinazioni diverse di un complicato sistema composto da un gran numero di parti come un organismo è astronomico. Anche nel caso del più semplice degli organismi, un processo non diretto e non vincolato in cui la selezione naturale consideri e metta alla prova per tentativi ed errori la quasi infinita gamma di varianti combi~atorie delle forme alla ricerca di una. configurazione ottimale, non potrebbe campionare adeguatamente questo spazio di possibile variazioni neanche nell'intera durata dell'esistenza dell'universo. In contrasto con questo spazio così vasto delle possibili variante combinatorie, il processo dello sviluppo biologico in ogni linea di discendenza degli organismi è altamente vincolato, di modo che solo un:a minuscola frazione delle possibili variazioni del meccanismo può essere generata e messa alla prova della selezione naturale. Mentre a prima vista questo limite può apparire come un ulteriore carico imposto alla teoria, esso si rivela invece essere il più importante contributo alla soluzione .dell'enigma. Così come il «progetto» di un organismo da parte dell' evoluzione va inteso in senso negativo, anche lo sviluppo della forma di un organismo non è un processo di costruzione, nel senso che in cui lo potremmo immaginare da un punto di vista ingegneristico. È in-
Natura incompleta
vece l'espressione dell'interazione di numerosi processi morfodina-. miei. Come la logica reciproca di fini e mezzi dei processi morfodinamici che genera il «corpo» di un sistema autogeno, un tessuto largamente più complesso di processi morfodinamici è responsabile · della generazione del corpo di un organismo a partire dal suo stato iniziale dopo il concepimento. I vincoli ereditati che identifichiamo come informazione genetica sono vincoli specifici che rendono altamente probabili tali processi morfodinamici a livello chimico, macromolecolare, cellulare e intercellulare. L'evoluzione, in questo senso, può essere considerata un processo che cattura, addomestica e integra diversi processi morfodinamici ai fini della loro collettiva preservazione. Riconoscere l'origine morfodinamica della forma dell'organismo è un elemento critico di questa analisi, perché significa che le variazioni che compaiono a livello genetico sono espresse solo attraverso un filtro dinamico dotato di tendenze altamente specifiche al1' amplificazione e all'attenuazione dei vincoli. Le forme varianti che giungono alla fine a essere sottoposte alla selezione naturale sono in questo senso già stàte passate al vaglio dell'auto-organizzazione. Così, anche se il meccanismo di generazione delle variazioni è indipendente dalle conseguenze della selezione naturale, e per esse irrilevante, questo non vuol dire che le variazioni vengano espresse a prescindere dall'integrazione sistemica dell'organismo. Questo vincolo sulle variazioni espresse nello sviluppo condiziona significativamente le variazioni stesse a essere solo minimamente discordanti rispetto agli esistenti processi di ontogenesi, malgrado siano generate a prescindere da ogni potenziale esito adattativo. Malgrado restringano radicalmente l'esplorazione di tutte le possibili variazioni di forma vantaggiose, questi vincoli morfogenetici aumentano di molto la probabilità di generare variazioni in una certa misura adattate almeno al livello interno dell'organismo; cioè in accordo con i vincoli e sinergie che mantengono l'integrità delle funzioni dell'organismo. Il risultato è che la selezione naturale finisce per campionare le opzioni fenotipiche solo in una minima frazione del possibile spazio di variazione, ma tali varianti hanno assai maggiori probabilità di esibire caratteri non troppo discordanti o dannosi rispetto alle funzioni già esistenti.
Evoluzione
La significatività dei vincoli morfogenetici sulla generazione delle variazioni è solo un aspetto di un insieme più globale di condizioni la cui rilevanza va considerata antecedente alla teoria della selezione naturale. L'importanza dei vincoli introdotti dai· processi morfogenetici è che costituiscono una controparte positiva alla logica negativa della selezione naturale. Dato che provvede solo un'influenza di eliminazione selettiva ex post, la selezione naturale è generativa soltanto quanto la sua riserva di forme opzionali è prodiga. La generazione vincolata di forme varianti è solo lespressione più ridotta dei postulati processi positivi nell'evoluzione. Lo sosteneva James Mark Baldwin parlando di «selezione organica», il suo «nuovo fattore nell'evoluzione». La selezione naturale è troppo spesso trattata come un agenzia positiva. Ma non lo è; è interamente negativa. È semplicemente laffermazione di quel che accade quando un organismo non presenta le qualificazioni necessarie per consentirgli di sopravvivere in determinate condizioni di vita ... Possiamo così dire che i mezzi di sopravvivenza sono sempre una domanda ulteriore rispetto all'affermazione di tipo negativo del funzionamento della selezione naturale. Le qualificazioni positive di cui è dotato lorganismo sorgono come.variazioni congenite di un tipo che consente all'organismo di affrontare le sue condizioni di vita. Questo è il lato positivo del darwinismo, come il principio della selezione naturale ne è il lato negativo. Tuttavia, una piena specificazione del «lato positivo del darwinismo» richiede significativamente di più che solo una teoria delle variazioni. Richiede organismi e tutte le complesse proprietà che ascriviamo loro, nonché gli associati processi fisici che consentono loro di preservare le proprie caratteristiche essenziali e di riprodursi. In termini generali, ciò significa sistemi unitari che presentino proprietà essenziali come automantenimento in presenza di continua degradazione termodinamica, permanente chimica lontana dal1' equilibrio, meccanismi sufficienti a generare copie complete di se stessi e organizzazione bastante a mantenere queste proprietà di
Natura incompleta
fronte a significative variazioni delle condizioni di esistenza. Ma se questo è un requisito dell'evoluzione per selezione naturale, non può essere emerso per selezione naturale. La selezione naturale presuppone l'esistenza di una popolazione non omogenea di sistemi individualizzati dotati di queste proprietà complesse e termodinamicamente rare. Appropriatamente, così, Darwin concludeva l'Origine delle specie con poche poetiche righe. Vi è qualcosa di grandioso in questa concezione della vita, con le sue diverse forze, originariamente impresse in poche forme o in una forma sola; e nel fatto che, mentre il nostro pianeta ha continuato a ruotare secondo l'immutabile legge della gravità, da un così semplice inizio innumerevoli forme, bellissime e meravigliose, si sono evolute e continuano a evolversi. Per tornare forse a dire una cosa ovvia, la selezione naturale assume l'esistenza di processi di persistente termodinamica di non equilibrio, automantenimento, riproduzione e adattamento. Non può dunque essere da sola la spiegazione delle loro origini, in particolare per l'origine del loro carattere teleodinamico. La selezione naturale può solamente migliorare l'adattamento tra questi processi dinamici e le varie condizioni ambientali da cui essi dipendono o da cui devono difendersi; ma non può generarli. I primi sistemi teleodinamici non si sono evoluti, sono emersi. Sono emersi da specifici modelli di interdipendenza arrivati a verificarsi tra processi morfodinamici. Abbiamo usato il concetto di sistema autogeno come esempio dei requisiti di questa transizione emergente. Come abbiamo visto, l'auto-organizzazione è un processo distinto dalla selezione naturale, e di gran lunga più semplice. I processi morfodinamici formano il terreno su cui sono venuti a costituirsi dei processi teleodinamici e dunque evolutivi. In parole povere, l'auto-organizzazione è l'espressione della, dinamica intrinseca di un sistema che si esprime all'interno di certe condizioni al contorno di non equilibrio, mentre la selezione naturale è una funzione dell'organizzazione della dinamica interna di non equilibrio di un sistema rispetto alle condizioni esterne. Così la selezione na-
Evoluzione
turale comporta una specifica modalità di dinamica intrinseca autoorganizzata che mantiene se stessa in virtù della generazione di effetti che contrastano specificamente certi cambiamenti esterni delle condizioni che le allontanano da quanto conduce alla persistenza di tali processi intrinseci.
Abiogenesi Il primo organismo, dunque, non è statp un prodotto dell'evoluzione. La costellazione di processi che identifichiamo con l'evoluzione biologica è emersa da una sorta di proto-evoluzione, sostenuta da una sorta di protovita, che deve essere fatta risalire all'emergenza spontanea dei primi sistemi molecolari capaci di una minima forma di dinamica evolutiva. Si è mostrato in precedenza che anche sistemi molecolari assai semplici possono dare origine a una forma di selezione naturale. L'emergere della costellazione di proprietà che ha reso possibile un'evoluzione, anche in forma minimale, segna un passaggio essenziale nell'organizzazione dinamica del mondo naturale. Nei termini che siamo venuti qui sviluppando, si tratta del passaggio dai processi termodinamici e morfodinamici a quelli teleodinamici. Ovunque ciò si verifichi nell'universo, si ha l'emergenza dei primi e più semplici processi di tipo vitale in quella regione. Ogni altro processo teleodinamico e relazione teleologica che si sviluppi in tali ambienti potrà con tutta probabilità farrisalire la sua origine a tale cruciale transizione. Per lo stesso motivo, lo studio delle origini della vita ha una posizione paradossale nei confronti del resto della biologia. Esso viola un dogma cruciale e stabilito a prezzo di grandi sforzi della biologia: il rifiuto della generazione spontanea. Fin dai tempi degli antichi romani si pensava che alcune forme di vita, se non tutte, sorgessero dalla materia inanimata per generazione spontanea. Prova a sostegno di questa teoria della genesi della vita era considerato il fatto che da un pezzo di carne in putrefazione emergono spontaneamente vermi, o che su pane raffermo e frutti troppo maturi si formano muffe, senza apparentemente che queste forme di vita fossero intrinsecamente presenti in tali materie. Nel 1668, in uno dei , primi esperimenti controllati della biologia, Francesco Redi mise al-
490
Natura incompleta
la prova l'idea dimostrando che non emergono vermi dalla carne tenuta sotto vetro. Ma la convinzione che la vita emergesse spontaneamente dalla non vita è stata dura a morire. In realtà, è da ultimo un assunto necessario del materialismo scientifico che l'essenza della vita non sia venuta da un regno esterno a quello dei substrati :fisici che la costituiscono. In quei primi secoli dell'Illuminismo era, da questo punto di vista, 1' alternativa scientifica di moda alla teoria dell'origine spirituale ultraterrena, e una delle principali ragioni di fascino della sapienza alchemica. Non erano rare le «ricette» alchemiche per generare la vita, considerate segno di vera perfezione dei metodi dell'alchimia. Per molti aspetti l'interesse centrale dell'alchimia - le trasformazioni della materia da una forma all'altra, fra cui quella dalla non vita alla vita - è stato il precursore prescientifico dell' emergentismo. Il sostegno alle teorie della generazione spontanea è durato finché oltre due secoli dopo Redi non fu confutata dai famosi esperimenti di Louis Pasteur, nel 1889 3. Pasteur mostrò che dalla carne in putrefazione sterilizzata, posta in un :fiasco dal collo a forma di S non si originavano mai vermi, purché fosse prevenuta la contaminazione dall'esterno. In effetti il metodo di sterilizzazione e successivo isolamento dei cibi faceva molto di più che prevenire la formazione di nuovi organismi, visto che impediva loro - anche ai microbi ancora ignoti alla scienza del XIX secolo ~ di contribuire alla degradazione e alla putrefazione dei cibi. Così la conservazione a lungo termine dei cibi può essere considerata la ricaduta più impor~ tante delle ricerche sull'origine della vita. Con i risultati degli esperimenti di Pasteur divenne rapidamente un dogma della biologia l'idea che 1' emergere della vita dalla non vita non era qualcosa di cui preoccuparsi. Ne dipendono, nei fatti, i metodi attualmente ubiquitari di sterilizzazione, inscatolamento, congelamento, imbottigliamento, irradiazione e, certo, pastorizzazione dei cibi. La verità del detto per cui «la vita nasce solo dalla vita» si conferma miliardi di volte nel mondo moderno: ogni volta che qualcuno produce o consuma cibo o bevande in scatola o in bottiglia. Ma ovviamente un'accettazione incondizionata di questo fatto conduce a un paradosso concettuale. O la vita esiste da sempre in un universo senza inizio, o viene da un altro regno non fisi-
Evoluzione
491
co in ._cui sia in qualche modo preformato qualcosa di analogo a essa, oppure emerge, abiogeneticamente, da materiali non viventi. Le prime due sono più che altro forme di reductio ad absurdum; quindi ci resta il problema di dimostrare che i teorici della generazione spontanea avevano ragione, almeno in forma limitata. Charles Darwin aveva chiarissimo il fatto che questo problema era al di là della sua prospettiva, e infatti alla fine dell'Origine delle specie parla di come l'evoluzione sia iniziata solo dopo che le forze della vita siano state «originariamente impresse in poche forme o in una forma sola». Ma questo non toglie di mezzo la questione. E infatti le discussioni sulla generazione spontanea sono state assai intense tra i darwinisti della fine del XIX secolo. Gli sèhieramenti contrapposti forse più notevoli sono esemplificati da Alfred Russell Wallace e Thomas Henry Huxley, il «mastino» di Darwin. Wallace si schierò con teorici come il famoso neurologo Henry Charlton Bastian, che sosteneva gli esperimenti volti a dimostrare la generazione spontanea della vita dalla non vita, e scrisse tre influenti libri sull'argomento nei decenni successivi alla pubblicazione dell'Origine delle specie. L'interesse di Bastian era in parte dovuto alla sua attenzione di medico alle basi delle malattie microbiche, ma anche alla sua posizione critica contro le teorie soprannaturali della vita. Anche se la teoria di Darwin sembrava specificamente minare la possibilità di un'origine soprannaturale delle forme e delle caratteristiche adattative degli organismi, il suo silenzio a proposito del!' origine della vita e l'inizio dell'evoluzione bi,ologica lasciava una grossa falla nell'alternativa materialistica alle varie forme di vitalismo e soprannaturalismo. Quindi Bastian e molti altri darwinisti della nuova generazione ritennero importante intraprendere sperimentazioni per dimostrare che anche la vita aveva un'origine naturale e puramente chimica. Bastian distingueva questa teoria dell'origine dei microrganismi dalle precedenti teorie della generazione spontanea chiamandola «archebiosi», riferendosi all'originaria o antica creazione della vita, pur credendo di poter dimostrare sperimentalmente che si trattava di un processo naturale che probabilmente continuava a verificarsi nel presente. Egli credeva che si sarebbe giunti infine a scoprire le leggi generali che governavano la generazione della vita a partire dalla materia inorganica, anche se era pron-
492
Natura incompleta
to ad ammettere che la scoperta di tali leggi sarebbe stata una sfida scientifica assai impegnativa. Pur solidamente darwinista, Bastian era però soprattutto un convinto materialista, impegnato nella confutazione delle teorie spiritualiste. Questo è uno dei più significativi assunti metafisici espressi nella prospettiva darwinista, e chiaramente è stato uno .dei motivi per cui ha reclutato sia zelanti alleati che critici virulenti. L'idea della generazione spontanea era però attraente anche per i vitalisti, che pensavano potesse essere una finestra sul segreto di una forza vitale ancora da scoprire, un élan vital esclusivamente legato alla vita. La questione fu ripresa da Huxley, che all'inizio vedeva con favore l'impresa dei materialisti ma poi si convinse che la generazione della vita dalla materia inorganica era così rara e improbabile da poter essere avvenuta una sola volta nell'antica storia della Terra. Huxley sembra essersi reso conto che una continua generazione di nuove forme di vita sarebbe stata un problema per la teoria di Dàrwin. Sia Darwin che Huxley aderivano decisamente .a qualcosa come un approccio monogenetico all'evoluzione biologica, in cui tutte le forme di vita sono discendenti di un unico o al massimo di un numero assai ridotto di forme ancestrali .. Ove la vita dovesse essere continuamente generata per tutta l'epoca della sua presenza sulla Terra, la continuità delle forme di vita, le loro interazioni e interdipendenze e le profonde somiglianze della loro costituzione sarebbero difficili da spiegare. In più, i principi della selezione naturale e il suo corollario, «discendenza con cambiamento», dovrebbe~ ro cedere il centro della scena: non sarebbero più la spiegazione quasi esclusiva della varietà biologica e dell'adattamento. Huxley quindi prese a criticare il lavoro di Bastian sia per le sue implicazioni sul meccanismo dell'evoluzione sia per i danni che avrebbe potuto subire la teoria di Darwin se si fosse creduto che la mancata dimostrazione della generazione spontanea dei batteri minasse anche gli assunti materialisti della teoria dell'evoluzione. Così, pur riconoscendo la necessità di una teoria che spiegasse come la chimica del vivente potesse emergere da antecedenti inorganici - il processo da lui detto di «abiogenesi» - Huxley fu sempre attento a distinguere questo fatto dalla generazione spontanea e a sottolinearne irn!'~" 1:;.:; bilità, complessità e astronomica rarità, suggerendo che forse solo le , particolari condizioni della Terra prebiotica potevano spiegarlo.
Evoluzione
493
Il contesto intellettuale che nutriva questa seconda generazione di teorici del darwinismo era tuttavia assai più espansivo del solo studio delle basi fisiche della vita. La possibilità di scoprire principi generali della natura che rendessero conto della generazione abiotica dei processi viventi prometteva anche di completare l'assalto lanciato dal darwinismo allo speciale status della vita e della mente, con la loro apparente estraneità alle normali leggi della chimica e della fisica. Se era possibile scoprire nei processi quotidiani un regolare cammino che conducesse direttamente dalla chimica complessa alla vita semplice, l'ultimo fossato interpretativo sarebbe stato colmato. Ma se la transizione non fosse stata in qualche modo generale, dovuta a leggi comuni a tutti i processi materiali, e fosse stata invece così bizzarra da essere avvenuta solo una volta in miliardi di anni, e poi mai più, la sua naturalezza avrebbe potuto essere posta in discussione. In retrospettiva, pur se i critici di questa versione post-darwinista della generazione spontanea avevano ragione nel confutarne le affermazioni anche per le più semplici forme di vita, e nell'insistere che tutte le forme di vita note sulla Terra potevano esser sorte a partire da una comune forma ancestrale, non è detto che non potesse esserci un bambino che vale la pena di salvare nell'acqua sporca e non sterilizzata delle teorie di Bastian e di altri 4.
I vestiti nuovi del replicatore Anche se la teoria dei sistemi autogeni proposta in questo libro era intesa in primo luogo come sistema modello per delucidare la logica dell'emergenza dei processi teleodinamici, essa offre anche una parziale risposta alla sfida di Bastian e un approccio all'origine della vita. È tuttavia qualcosa di meno di un caso di generazione spontanea, e parecchio meno di una descrizione dell'ultimo universale antenato comune (a volte chiamato LUCA, dalle iniziali inglesi di questa designazione, Last Universal Common Ancestor) degli organismi viventi. Questo perché i sistemi autogeni non sono vivi, quanto meno nei correnti significati del termine. Sono infatti privi di dinamiche di non equilibrio persistenti, di superfici di diffusione, di processi riproduttivi implementati autonomamente, e di ogni possibilità di reagire o agire sull'ambiente in modi che possano con-
494
Natura incompleta
tribuire al proprio sostentamento. Tuttavia la teoria dei sistemi autogeni potrebbe darci qualcosa di ugualmente utile, la prima pietra di una teoria che ci consenta di dedurre le origini di questi fondamentali attributi degli organismi. Vedremo che estrapolando a partire dalla logica dell'evoluzione dei sistemi autogeni con la logica della dinamica emergente, è possibile render conto di come tali forme proto-viventi potrebbero dare origine alle proprietà che riconosciamo come segni distintivi della vita. Inoltre, una descrizione del1' origine dell'informazione biologica ancorata ai principi primi è un passo essenziale per liberare da confusioni e oscurità, e da ogni homunculus, le nostre concezioni dei rapporti tra informazione genetica e la proprietà che definisce la vita. La teoria dei sistemi autogeni può darci un'idea di un'elusiva legge di emergenza che agiva agli albori della vita, offrendoci un caso di emergenza di proprietà entenzionali da una termodinamica di non equilibrio, e dunque un ponte tra i processi non viventi e quelli viventi. La teoria dimostra anche perché la generazione spontanea è così straordinariamente rara. Lo è perché le condizioni che la rendono possibile sono altamente preèise e allo stesso tempo altamente atipiche tra i processi spinti da fattori termodinamici che sono ubiquitari al di fuori della biologia 5. Ma una volta emersi i sistemi teleodinamici capaci di selezione naturale si apriva un territorio illimitato. L'evoluzione della vita ha condotto a molti livelli di fenomeni teleodinamici radicalmente di ordine superiore e precedentemente inesistenti, fra i quali i fenomeni mentali. Prerequisito però per questa capacità di evolvere, livello su livello, in relazioni entenzionali più complesse è la capacità di catturare i vincoli dinamici critici di ciasc4n livello inferiore di teleodinamica in una forma che ne consenta la preservazione e la trasmissione a prescindere dalle ulteriori complicazioni di organizzazione dinamica che possano essere incorporate nel corso dell'evoluzione futura. Se la sorgente dei vincoli che mantengono il nucleo dinamico essenziale non è in qualche modo essa stessa isolata da. queste modifiche non possono esservi solide fondamenta su cui costruire. Ogni nuovo cambiamento modificherebbe i vincoli esistenti, e combinazione e aggiunta di nuovi vincoli teleodinamici di ordine superiore sulla base dei vincoli preesistenti sarebbero pressoché impossibili. È necessario
Evoluzione
495
che vi siano vincoli separati e sequestrati, concretizzati in attributi non dinamici, che possano essere preservati intatti attraverso i cambiamenti delle dinamiche, di modo che i precedenti risultati dinamici non siano costantemente minati e indeboliti. Questo è ciò che fa l'informazione genetica per gli organismi-viventi; e molto altro. Sequestra una fonte indipendente di vincoli che è parzialmente ridondante a quella intrinseca alla dinamica dell'organismo stesso. Ciò dà due vantaggi immediati. In primo luogo è un fattore di conservazione, che protegge contro la degradazione dei vincoli adattativi evoluti che potrebbe avvenire per le interazioni con fattori di origine ambientale precedentemente ignoti. In secondo luogo è un fattore innovativo. Le sue separate proprietà materiali offrono una base fisicamente indipendente dai dettagli e limiti di tali dinamiche per modificare indirettamente i vincoli dinamici. Il meccanismo molecolare informazionale che costituisce la genetica ubiquitaria in tutti gli organismi viventi non è stato un semplice miglioramento del processo autogeno, ma lo ha condotto a un livello interamente nuovo. L'effetto di conservazione dell'incorporazione dei vincoli dinamici in un substrato fisico separato da quello che effettivamente svolge il lavoro di mantenimento dell'organi, smo ha dato le fondamenta su cui l'evoluzione ha poi costruito i processi teleodinamici di ordine progressivamente superiore. Come ha dimostrato l'analisi del concetto di informazione condotta nei capitoli precedenti, tuttavia, l'informazione non può essere semplicemente identificata con un substrato fisico o uno schema. L'informazione dipende dalla propagazione di vincoli che collegano un sistema teleodinamico al suo _contesto ambientale. Ciò vuol dire che l'informazione non è una proprietà intrinseca del substrato che incarna o trasmette tali vincoli. Anche se una delle proprietà cruciali di un mezzo capace di portare informazioni è il poter servire da stampo per la copia e la propagazione di vincoli, non è questa semplice qualità fisica a definirla. La teoria generale dell'informazione che abbiamo esplorato nei prècedenti dtie capitoli dimostra che l'informazione si identifica con la trasmissione di vincoli realizzata da un mezzo fisico che collega un sistema teleodinamico al suo ambiente. L'informazione non è separata da tale rapporto, né preesiste alla teleodinamica che informa., Un altro modo di dire la stessa co-
Natura incompleta
sa è che l'organizzazione teleodinamica è primaria, e l'informazione è una caratteristica speciale di alcuni processi teleodinamici. Che significa questo per il ruolo dell'informazione genetica nel1' origine della vita? Fondamentalmente suggerisce che l'informazione genetica non sia primaria ma sia piuttosto una caratteristica derivata della vita. Anche se una molecola dotata dell'insolita proprietà di poter servire come stampo per produrre una precisa replica di se stessa è senz'altro utile per propagare vincoli, il processo di replicazione strutturale in sé non costituisce informazione. Una molecola di DNA al di fuori di un organismo non trasmette informazione; è un grumo di roba appiccicaticcia, o poco più. E le sequenze geniche trapiantate da. un organismo di un certo tipo a uno di tipo diverso saranno probabilmente solo rumore in tale nuovo contesto 6 . Dunque anche se DNA ed RNA fossero stati abbondantemente sintetizzati nell'ambiente puramente geochimico della Terra primordiale, in tali circostanze non avrebbero costituito informazione a proposito di nulla. Non è la replicazione su stampo a costituire la ba-, se della capacìtà di trasmettere informazione del DNA e dell'RNA negli organismi; quel che conta è l'integrazione degli schemi che sono in grado di esibire nella teleodinamica dei processi viventi. Per ribadire dunque questa affermazione in modo più cogente, il DNA non è che uno dei tanti adattamenti, e deve essersi evoluto per selezione naturale. Ciò non dovrebbe sorprenderci, perché queste molecole sono notevolmente adatte allo scopo. L'energia di legame quasi identica di tutti i nucleotidi adiacenti, le dimensioni quasi illimitate di un filamento di DNA e la precisione della specificità di stampo danno l'impressione di una molecola che sia stata affinata dalla selezione naturale in risposta alle sue funzioni di trasporto dell'informazione. Inoltre, e questa osservazione è più importante, la replicazione di una molecola come il DNA non è essenziale né per la riproduzione né per l'evoluzione, visto che ·può riprodursi ed evolvere qualcosa di tanto semplice come un sistema autogeno. Chiamarlo «il segreto della vita» è dunque un'iperbole. E considerare l'informazione genetica come l'elemento che definisce la vita è anch'essa un'affermazione alquanto affrettata. È senza dubbio essenziale per l'evoluzione di tutte le forme superiori di vita, comprese tutte quelle attualmente disponibili per lo studio dei biologi. Una
Evoluzione
497
descrizione di come l'informazione biologica emerge da processi te.leodinamici più elementari è quindi il primo passo per spiegare la natura di tutte le proprietà entenzionali di ordine superiore. Questo modo di vedere l'informazione è una sfida per una concezione dell'origine della vita, e dell'evoluzione in generale, largamente accettata. Si tratta della convinzione che la vita sia fondamentalmente un complesso processo di copiatura. La sua versione più nota è la teoria della selezione dei replicatori. Il termine replicatore è stato coniato da Richard Dawkins in un libro del 1975 che . ha avuto grande influenza, Il gene egoista. Anche se il nome glielo ha dato Dawkins, come vedremo, l'ipotesi di base di questa teoria caratterizza in una forma o nell'altra quasi tutte le moderne concezioni del processo evolutivo. Come la descrizione di Darwin delle condizioni necessarie per la selezione naturale, la selezione dei replicatori comincia anch'essa dando come acquisiti dei processi non specificati e assolutamente non banali. Contrariamente a Darwin, però, che evitò ogni speculazione in merito, le teorie che invocano i replicatori spesso assumono che il processo sia talmente ubiquitario e privo di complicazioni da poter essere accettato come attributo che definisce la vita. Un replicatore è qualcosa che -viene copiato. Più esattamente, quel qualcosa è uno schema incarnato in un substrato fisico. Nei sistemi biologici si considera nella grande maggioranza dei casi essere DNA o RNA, ma Dawkins ha suggerito anche che certi artefatti e abitudini culturali potrebbero anch'essi essere dei replicatori, il termine «memi». I critici delle teorie dei replicatori hanno spesso sostenuto che il concetto era stato riservato in modo troppo ristretto all'informazione genetica, e che fra i replicatori andavano incluse anche altre caratteristiche degli organismi, come la membrana cellulare e parecchi orgànelli. Questi non sono creati da zero a ogni divisione cellulare, ma ereditati fisicamente dalla cellula progenitrice nel momento in cui questa si divide. Nell'uno e nell'altro caso, che vi sia uno solo tipo di replicatore o parecchi a diversi livelli, è la sua copia a essere assunta come il principio che lo definisce. Malgrado si ritenga che le catene polinucleotidiche come le molecole di DNA e RNA siano i replicatori della vita, anche stando alla descrizione dello stesso Dawkins, basata sulla caratterizzazione
Natura incompleta
della «replicazione» del DNA, queste molecole non rispondono al criterio cruciale. Infatti non replicano sé stesse. Più esplicitamente: il polinucleotide A non può produrre direttamente produrre un duplicato esatto del polinucleotide A 7. Invece, con l'assistenza di speciali condizioni contestuali (per esempio accompagnata da un complesso molecolare fatto di parecchie molecole di supporto alla trascrizione, o all'interno di un dispositivo per PCR, e in presenza di essenziali molecole componenti come materiali grezzi), la molecola polinucleotidica A può produrre una molecole polinucleotidica complementare B, che a sua volta nelle stesse condizioni può pro~ durre la molecola polinucleotidica A. Mentre la divisione dei virus e quella delle cellule batteriche ed eucariotiche producono effettivamente repliche, ciò comporta la replicazione di entrambi i filamenti di una molecola di DNA a produrne due copie a doppio filamento. A osservarla più attentamente, dunque, vediamo che l'idea di replicatore, che Dawkins ha identificato con il DNA, è invece una proiezione semplificata della riproduzione cellulare in un processo detto replicazione del DNA. A questo punto possiamo facilmente riconoscere che la «replicazione» dei polinucleotidi è un caso speciale di quella che è spesso detta autocatalisi. Come notato nella discussione sulla chimica dei sistemi autogeni, i processi chimici descritti in entrambi i casi potrebbero essere più esattamente detti di catalisi reciproca, o anche di catalisi reciproca indiretta, visto che spesso comportano almeno due, e spesso più catalizzatori complementari, ciascuno dei quali catalizza un altro componente dell'insieme. Così la replicazione del DNA in un dispositivo per la PCR - ignorando il ruolo del macchinario di supporto e delle molecole mediatrici - è un anello di catalisi reciproca a due stadi. L'analogo più prossimo di quella che può essere chiamata replicazione molecolare diretta si può trovare nel particolare processo di replicazione dei prioni. In questo processo la formazione della nuova molecola non comporta alcuna nuova sintesi o scissione di molecole. La molecola del precursore, talora detta proteina «pre-prionica», è fatta degli stessi componenti amminoacidici disposti nella stessa sequenza polimerica della proteina prionica. A essere diversa è la struttura tridimensionale delle due proteine. La formazione di
Evoluzione
499
un prione richiede semplicemente il legame della molecola del prione a una molecola pre-prionica, che fa sì che quest'ultima si deformi assumendo la conformazione prionica, divenendo così capace di deformare allo stesso modo altre molecole di proteina preprionica. Le proteine pre-prioniche richiedono 1' apparato molecolare presente nei cervelli dei mammiferi (compreso il DNA in cui è codificata tale sequenza pre-prionica) per poter essere sintetizzate. Sotto questo aspetto, la «replicazione» dei prioni non genera in realtà nuovo materiale. Si tratta solo di «danni» apportati a delle proteine sintetizzate nei cervelli dei mammiferi, che poi propagano tale danno ad altre molecole. Tornando al caso della replicazione della cellula batterica per cercare di cogliere la sua struttura logica minima, dobbiamo tener conto del fatto che è composta da un complesso di molecole reciprocamente interdipendenti. Il fattore cruciale è dato dalle complesse reciprocità che consentono a ciascuna delle parti di essere sia fine che mezzo nel formare l'intero organismo integrato. Una completa specificazione di questi dettagli è essenziale per dar pieno conto del processo di autoreplicazione. Non vi è alcun sottoinsieme di molecole che sia sufficiente. In ultima analisi devono essere replicati tutti i componenti essenziali, se non altro per rimpiazzare quelli che hanno subito danni. In questo senso le sequenze degli acidi nucleici non hanno alcuno speciale titolo a esser considerate i replicatori. Hanno semplicemente un ruolo più centrale perché molti altri processi di replicazione molecolare dipendono da essi. Anche ammettendo però per il momento che gli acidi nucleici nudi possano fare da stampo per la produzione di copie identiche di se stessi, continueremmo a non aver fatto il minimo passo avanti verso la comprensione dei rapporti tra replicazione e informazione genetica. Pur essendo la molecola replicata una rappresentazione (una «ri-presentazione») della forma della sua molecola «genitrice», non è altro che questa forma (o il suo complemento) a essere copiato più e più volte. Non c'è alcuna informazione a proposito di qualcos'altro che sia copiata in questo processo, ma solo una struttura molecolare. Se inserita entro una cellula v:ivente questa sequenza potrebbe generare un prodotto proteico o qualche altro tipo di effetto biologico, come possono fare certe sequenze di DNA
500
Natura ·incompleta
generate artificialmente, ma il massimo che possiamo dire è che questa sequenza è «informazione potenziale». È il macchinario cellulare a determinare che una sequenza di DNA ha questo potenziale, e la sequenza lo eredita solo in seguito all'esistenza di cellule che hanno usato molecole simili a proprio vantaggio in passato. Una sequenza casuale di DNA può valersi di questo potenziale in modo parassitario, alla stessa stregua di un gene che ha subito una mutazione casuale. C'è un significativo spazio concettuale da superare tra la replicazione del DNA e il suo ruolo come mezzo di informazione. Anche se spesso Dawkins parla come se una certa sequenza di basi di una molecola di DNA fosse intrinsecamente una forma di informazione, questo è vero soltanto nel senso minimale di Shannon. Come abbiamo visto, la concezione dell'informazione di Shannon è un'astrazione che considera solo i pìù ridotti criteri minimi della possibilità di recare informazione. Anche se nessun biologo molecolare considererebbe la struttura di una molecola di DNA come informazione se non per il suo contributo ad altri processi molecolari della cellula, potrebbero forse essere ancora disposti a mettere da parte questo aspetto quando pensano all'evoluzione. Nella vita, le molecole di DNA non danno informazioni su altre repliche di se stesse, ma sulla dinamica molecolare della cellula in relazione al suo probabile mezzo ambientale. E tuttavia molte teorie sull'origine della vita si basano sull'assunto che la replicazione molecolare sia una proprietà sufficiente a definire l'informazione vivente. L'ipotesi che ha avuto probabilmente più influenza fra quelle che spiegano l'origine della vita partendo dalla replicazione molecolare è nota come quella del «mondo a RNA». In essa si sostiene che il processo essenziale che ha distinto i primi processi simili a quelli della vita dagli altri processi chimici sia stata la replicazione dell'RNA. L'influenza di queste vedute è cresciuta negli ultimi decenni a causa della scoperta di altre funzioni dell'RNA in aggiunta al suo ruolo di mediazione tra la sequenza del DNA e la sequenza di amminoacidi che specifica una proteina. Le molecole di RNA a filamento singolo possono riavvolgersi su se stesse a dare complesse forme a forcina e a spirale tenute insieme da legami incrociati,. fino a produrre complesse strutture tridimensionali. Sotto forma di RNA
Evoluzione
5or
di trasporto questa struttura ha il ruolo critico di legarsi agli amminoacidi e allinearli rispetto a una molecola di RNA messaggero entro un ribosoma. Ma grazie a questa struttura, inoltre, alcune molecole di RNA sono anche dotate di azione catalitica. Più di recente si è trovato che fràmmenti polimerici di RNA svolgono poi una variegata serie di ruoli di regolazione nella cellula. Queste funzioni diverse hanno fatto pensare che le molecole di RNA potrebbero svolgere tutte le funzioni essenziali che si assumeva fossero necessarie per una forma di vita primordiale. L'RNA può infatti ricoprire sia un ruolo di sintesi sia un ruolo di stampo. In questo tipo di scenari, però, la capacità di copia su stampo è trattata come primaria. Ma è vero che uno schema replicabile è informazione? Senza l'elaborato sistema di macchine molecolari che trascrive le sequenze di DNA o RNA in sequenze di amminoacidi, senza le risultanti funzioni delle proteine e senza la storia evolutiva non vi sarebbero informazioni a proposito di nulla nella sequenza di basi della sua struttura. C'è un caso particolare in cui questo risulta ovvio: il DNA «spazzatura». Negli ultimi decenni è risultato chiaro che solo una piccola frazione del DNA contenuto in una cellula eucariotica reca effettivamente le istruzioni in codice per una proteina o una funzione regolativa. Anche se vi sono ragioni di sospettare che almeno una parte di esso sia conservato per altre funzioni, è quasi certo che vi sono lunghe sequenze che sono replicate a ogni divisione cellulare semplicemente perché sono legate a sezioni utili. Anche queste vanno considerate replicatori nell'analisi di Dawkins (anche se lui li chiamerebbe probabilmente replicatori passivi), ma chiamare informazione queste sequenze è meno facile da giustificare, proprio perché non svolgono un ruolo nell'organizzare la dinamica cellulare che ne rende più probabile la persistenza. Ciò suggerisce che la funzione informazionale degli acidi nucleici dipenda dalla loro immersione nel metabolismo di una cellula adattata al suo contesto. Ciò vuol dire che l'informazione dei nucleotidi non è primaria. È un adattamento, non la base ultima dell'adattamento. È una caratteristica derivata per via evolutiva, e non una caratteristica primitiva. E suggerisce che dovremmo poter ricostruire un cammino evolutivo da un mondo pre-DNA a un mondo post-DNA, dalla proto-vita alla vita. Sotto questo aspetto i sistemi
502
Natura incompleta
autogeni non si limitano a darci un modello euristico della transizione alla teleodinamica, ma offrono un contesto in cui indagare in che modo la struttura di una molecola (come può essere il DNA) possa diventare informazione a proposito di certi schemi di interazioni chimiche che si verificano tra altre molecole. La struttura del DNA rappresenta effettivamente, in forma concreta, la dinamica del sistema chimico che lo contiene e lo replica. Questo qualcosa che il DNA riguarda è la fonte della selezione naturale che mantiene la replicazione relativamente conservata di certe sequenze invece che di altre. La funzione informazionale dipende così, in senso evoluzionistico, da questa precedente dinamica, ed è quindi un adattamento indiretto volto a stabilizzare la forma di questa dinamica molecolare. In questo modo potremo forse riuscire a ricostruire i passi che hanno condotto dalla teleodinamica all'informazione, la caratteristica della vita che ne costituisce il massimo elemento di novità.
Interpretazione in sistemi autogeni La dipendenza dell'informazione dal coinvolgimento in un processo teleodinamico può essere dimostrata aumentando lievemente la complessità del modello del sistema autogeno. In una discussione sullo status semiotico dei sistemi autogeni, due miei colleghi, Chris Southgate e Andrew Robinson, hanno proposto una modifica che ci ha trovati tutti d'accordo nel riconoscere che coinvolge un aspetto semiotico. Sostenevano infatti che si può ritenere che un sistema autogeno il cui contenimento sia reso più fragile dal legame di molecole substrato rilevanti alla sua superficie risponda selettivamente a un'informazione riguardante il suo ambiente. Anche se la nostra discussione riguardava una questione un po' più sottile, la sua applicazione alla natura dell'informazione biologica è più illuminante. Se il confinamento di un sistema autogeno è disturbato in un contesto in cui i substrati che supportano l' autocatalisi sono assenti o a bassa concentrazione, una nuova chiusura e la replicazione saranno improbabili. Dunque la stabilità del contenimento è vantaggiosa per la persistenza di una data variante nei contesti in cui la presenza dei substrati rilevanti è poco probabile. Se però la superficie della capsula contenitiva ha caratteristiche molecolari cui i substrati
Evoluzione
503
rilevanti tendono a legarsi, e nel farlo ne indeboliscono la stabilità strutturale, la probabilità della replicazione autogena ne risulterà significativamente accresciuta. Il sistema tenderà a essere più stabile negli ambienti privi di substrati essenziali e meno stabile in quelli in cui sono abbondanti. Una sensibilità alla concentrazione dei substrati sarebbe anch'essa una probabile conseguenza spontanea di questi legami, perché se il legame dei substrati alle molecole del contenitore indebolisce i legami idrogeno tra queste ultime ne segue che l'indebolimento del contenimento sarebbe correlato al numero di molecole di substrato legate. Una maggiore concentrazione di substrato renderebbe più probabile la rottura. In termini evoluzionistici, questo è un adattamento. Le linee di discendenza dei sistemi autogeni dotati di questa sensibilità ai substrati rilevanti saranno effettivamente selettive su quali siano i migliori ambienti in cui dissociarsi e riprodursi. Anche se questi sistemi autogeni «sensibili» non darebbero esattamente inizio alla propria riproduzione - che dipenderebbe ancora da disturbi estrinseci - la loro suscettibilità differenziale ai disturbi rispetto a un contesto rilevante è un passo in tale direzione. A me pare che a questo punto abbiamo introdotto una forma non ambigua di informazione e la sua base interpretativa. Il legame delle molecole di substrati rilevanti è un'informazione sulla validità dell'ambiente per il successo della replicazione, e dato che una replicazione andata a buon fine accresce la probabilità che una data forma di sistema autogeno possa persistere, in confronto ad altre varianti che hanno meno successo nel replicarsi, siamo giustificati nel descrivere ciò come informazione riguardo all'ambiente volta al mantenimento di questa capacità interpretativa. Usando un termine introdotto da Charles Sanders Peirce, possiamo dire che queste conseguenze sono le interpretanti di questa informazione. Peirce ha introdotto questo modo di parlare dei processi di interpretazione in termini di conseguenze interpretative al fine di dipanare in maniera più completa la nozione alquanto opaca di interpretazione dei segni. Specificamente, avrebbe detto che la minor integrità del contenimento data dal legame dei substrati è l'interpretante immediato dell'informazione, e avrebbe chiamato il relativo supporto alla perpetuazione di questa abitudine interpretativa attraverso la persisten-
504
Natura incompleta
za della linea di discendenza l'interpretante finale. E possiamo analizzare in termini semiotici anche la nozione di informazione. Il segno, in questo caso, è il legame del substrato, e il suo oggetto è l'appropriatezza dell'ambiente. O, per usate di ·nuovo la terminologia di Peirce, potremmo descrivere la presenza del substrato nell'ambiente come l'oggetto dinamico del legame (il fatto fisico indicato dal segno) e la generale appropriatezza dell'ambiente come 1'oggetto immediato (la proprietà generale dell'oggetto dinamico che è significativa per il processo) 8 • Qual è dunque la differenza tra questa sensibilità in questo semplice sistema molecolare e la sensibilità di un sensore meccanico, come un termostato usato per controllare la temperatura di una stanza o una fotocellula posta su una porta per rilevare 1' entrata di una persona in un negozio? In assenza del progettista o dell'utente umano, direi che l'azione di questi dispositivi meccanici dà soltanto informazione nel senso di Shannon. Alcuni dei vincoli fisici incorporati in questi meccanismi sono la base di un potenziale di informazione riguardo a particolari tipi di eventi. Ma anche la velocità a cui si asciuga un asciugamano può indicare la temperatura di una stanza, e seguire la polvere che entra dalla strada indica che una persona è entrata in una stanza. Tutte queste cose sono potenziale informazione a proposito di particolari eventi, ma vi sono anche numerose altre cose che questi meccanismi e processi fisici potrebbero indicare, a seconda del processo interpretativo messo in atto. Ma· questa è la differenza. Una persona concentrata solo sugli aspetti che ritiene rilevanti a qualche fine che sta perseguendo determinerebbe riguardo a che cosa ciò costituisce informazione. Non vi è alcuna finalizzazione intrinseca in questi meccanismi o processi fisici. Questo è ciò che aggiunge, nel senso più ridotto possibile, la tendenza del sistema autogeno a ricostituirsi o riprodursi dopo esser stato scompaginato. La dinamica autogena non solo tende a svilupparsi verso uno specifico stato bersaglio, ma tende a svilupparsi verso uno stato che inoltre ricostituisce e replica questa tendenza. Dunque l'interpretazione del legame del substrato è un elemento auto-costitutivo. È un'organizzazione dinamica che è presente in seguito alla sua propensione a far esistere se stessa. Ogni atto di in-
EvolÙzione
505
terpretazione, ovviamente, è un evento singolo, quindi è più esatto dire che il tipo generale di questo specifico vincolo dinamico che abbiamo identificato come un processo di interpretazione è autocostitutivo. È solo la forma di questo vincolo dinamico che sarà perpetuamente trasmessa, non una specifica collezione di molecole e così via. Per tornare a una terminologia che risuona degli echi della semiotica di Peirce, il terreno ultimo di interpretazione è un abitudine autosostenuta. C'è anche un necessario carattere normativo intrinseco a questo processo processo interpretativo. Se in virtù di qualche somiglianza strutturale altre molecole che non sono potenziali substrati catalitici tendono anch'esse a legarsi alla superficie del sistema autogeno e a indebolirlo, si avrebbe nei fatti un'informazione sbagliata, un errore. I sistemi autogeni sensibili che tendessero a rispondere in modo non specifico avrebbero meno successo nel riprodursi di quelli più selettivi e dotati del giusto grado di· sensibilità. Questo darebbe un'influenza selettiva a favore di un aumento della specificità. Anche se i singoli sistemi, autogeni e le loro linee di discendenza in sé non lo individuerebbero come un errore, la linea di discendenza lo farebbe. Nel corso dell'evoluzione questo genere di sistemi.autogeni soggetti a errori tenderà a essere eliminato dalla popolazione. Questo è un esempio del fatto che non appena vi sia informazione vi è anche possibilità di errore. Dato che il riguardare qualcos'altro è una relazione estrinseca, è necessariamente fallibile. Il rilevamento dell'errore all'interno dell'individuo comporta un ulteriore livello di informazione sull'informazione, e quindi un ulteriore livello di processi interpretativi. I sistemi autogeni sono troppo semplici per registrare qualcosa riguardo al processo di interpretazione. Un'interpretazione dei processi interpretativi è una relazione di tipo logico superiore. È per questo che si presenta solo al livello della selezione della linea di discendenza autogena. Ciò implica che la selezione naturale sia una forma distribuita di rilevazione degli errori, e solo quando un analogo della selezione naturale è trasferito all'interno del processo interpretativo (per esempio nella fisiologia o nella funzione cerebrale) la rilevazione degli errori diventa intrinseca al sistema che effettua l'interpretazione.
506
Natura incompleta
Dall'energetica alla genetica Questo uso del modello del sistema autogeno per esplorare le condizioni necessarie e sufficienti a costituire una capacità interpretativa minima non ha però affrontato la questione più urgente: la natura e l'origine dell'informazione genetica. La dimostrazione sopra riportata di come la teleodinamica dei sistemi autogeni può fare da base per una dinamica interpretativa offre una sorta di falsariga per mostrare come una regolazione molecolare (il legame di molecole substrato a molecole della capsula) può arrivare a essere interpretata come informazione relativa a un qualche rilevante stato estrinseco delle cose. Mentre questo è un reciproco accoppiamento tra questa singola relazione molecolare e i requisiti estrinseci del sistema teleodinamico in cui è incorporata, l'informazione genetica deve comprendere un ulteriore livello di relàzione referenziale. Deve essere in relazione con la teleodinamica dell'organismo come la relazione di legame con il substrato lo è con l'ambiente. L'informazione genetica riguarda certi aspetti di questa organizzazione teleodinamica rispetto a certi fattori ambientali. ,La nostra domanda così diventa: come può prodursi questo ripiegamento su se stesso del riferimento? Ovviamente, come vi sono innumerevoli dettagli molecolari dell'idea del sistema autogeno che ho meramente assunto come plausibili senza realmente indagarne i possibili aspetti chimici, man mano che la teoria si complica i dettagli da affrontare aumentano in modo esponenziale. Questa è la decisiva indagine scientifica che deve essere intrapresa prima di poter dire che qualcosa di tutto questo si può considerare applicabile alle origini della vita, o della protovita, e tanto più a quelle dell'informazione genetica. Il mio scopo, però, non è spiegare l'origine della vita, ma chiarire i principi che vanno compresi per concentrare le ricerche sui dettagli più importanti. Quel che intendo è solo offrire ciò che si potrebbe chiamare una prova di principio. Forse né una protovita né l'informazione genetica sono sorte nei modi specifici da me descritti, ma ritengo che i principi esemplificati in questi scenari si applichino anche ai particolari processi specifici, quali che possano essere stati, che hanno effettivamente avuto luogo agli albori della vita sulla Terra.
Evoluzione
507
Tenendo a mente questa avvertenza, esploriamo uno scenario alquanto fantasioso su come una semplice forma di informazione genetica potrebbe sorgere nel contesto dei sistemi autogeni. L'intuizione che sta dietro questo ipotetico sèenario è motivata da una curiosa coincidenza che sembra comune a tutti gli organismi: alcuni dei blocchi costitutivi delle molecole della vita di trasporto dell'informazione (DNA e RNA) sono anche le principali molecole di trasporto dell'energia (come A TP e GTP) e quelle dei cosiddetti secondi messaggeri (come cAMP e cGMP) della cellula. Tutte queste molecole, e le loro controparti nei monomeri del DNA e dell'RNA, hanno una struttura tripartita. Questa comprende il doppio anello di una purina a un'estremità (A = adenina, G = guanina), una o più molecole di fosfato (PO 4) che formano una sorta di coda all'altra estremità e la molecola di uno zucchero a cinque atomi di carbonio (anello pentagonale) nel mezzo (ribosio). Nei loro ruoli non informazionali queste molecole tripartite sono trasferite o diffuse da un punto all'altro come rifornimento di energia o a svolgere funzioni di «interruttori» rispetto ad altri sistemi molecolari. Di contro, il loro ruolo di portatrici di informazione genetica si realizza solo in una forma polimerica in cui ciascun nucleotide è legato a un altro grazie al legame del suo gruppo fosfato allo zucchero del vicino, l'uno dopo l'altro, a dare un lungo «scheletro» zucchero-fosfato-zucchero- ... con i residui delle basi legati lateralmente. Nella forma polimerica, ai nucleotidi contenenti purine (omologhi ad AMP e GMP) si uniscono i nucleotidi contenenti pirimidine (ad anello singolo) (che per uniformità possono essere designati CMP, TMP, e UMP, ove C =citosina, T = timina, U = uracile). Nei loro ruoli di trasmissione dell'informazione a contare è la sequenza di queste purine e pirimidine sporgenti, aiutate dal legame preferenziale di A con T, di C con G, e di U con A (l'intercambiabilità di U e T distingue l'RNA dal DNA; nell'RNA l'U sostituisce la T del DNA e lo zucchero - il ribosio - è lievemente modificato) che rende possibile replicazione e traduzione. A che si deve questa coincidenza? La mia ipotesi è che le funzioni dei monomeri (trasferimento di energia e funzioni di interruttore) siano venute per prime, e la funzione di trasporto di informazioni si sia evoluta, per così dire, a mo' di ripensamento. Di nuovo, questo suggerisce che l'informazione non sia primaria.
508
Natura incompleta
Per cominciare devo postulare la presenza di molecole nucleotidiche che servono a una o più di queste funzioni energetiche di base. Anche se la sintesi inorganica spontanea di qualcuno dei monomeri di questi nucleotidi è stata recentemente dimostrata, e portata a sostegno di uno scenario delle origini ispirato al mondo a RNA, ciò che importa per lo scenario qui proposto è solo che ci sia qualcosa che conduce alla loro sintesi. Importante per questa discussione è che la loro sintesi a opera dei processi catalitici di un complesso sistema autogeno deve essere plausibile (cosa che, ai fini di questo scenario, assumerò non sia problematica). L'assunto di partenza, dunque, è che qualche aspetto della catalisi del sistema autogeno o del suo auto-assemblaggio sia potenziato da queste molecole trasportatrici di fosfato, come avviene nelle cellule viventi. Ciò potrebbe comportare l'unione con una o due altre molecole di fosfato nel contesto altamente energetico di un camino vulcanico, ma di nuovo ai fini del principio che si sta esplorando questi aspetti chimici sono privi di importanza. Nel corso delle fasi di ricostituzione e replicazione del «ciclo vitale» di questi più complessi sistemi autogeni utilizzatori· di energia, la presenza di energia catturata sotto forma di trifosfati potrebbe aver risposto alla necessità di molecole substrato ricche di energia che potessero alimentare le reazioni catalitiche coinvolte. Laddove la semplice catalis.i autogena è parassita di specifici substrati ricchi d_i energia, la disponibilità di una fonte energetica più generica, sotto forma di legami fosfato-fosfato, avrebbe offerto sia una sorta di partenza a caldo della catalisi sia una certa libertà da una così stretta specificità di substrato. Un simile miglioramento dei processi di ricostituzione e replicazione di un sistema autogeno avrebbe dato alle linee di discendenza che generavano e incorporavano nucleotidi capaci di catturare e rilasciare energia un significativo vantaggio evolutivo. Nel passare in rassegna la letteratura sulle origini della vita ho trovato altri due autori che hanno proposto indipendentemente questo passaggio evolutivo dalle funzioni energetiche dei nucleotidi a funzioni informazionali: Lynn Margulis 9, biologa evoluzioni7 sta, e il fisico teorico Freeman Dyson rn. L'idea di Dyson è che la polimerizzazione di queste molecole potesse essere una sorta di mezzo di raccolta della spazzatura, per. togliere di mezzo i mono-
Evoluzione
509
meri che avevano ceduto il fosfato in più e potevano competere per i residui fosfato in più ancora disponibili per compiere lavoro di cui fossero portatori altri nucleotidi. Quel che ipotizzo è vagamente analogo, ma nello specifico contesto di un «metabolismo» dei sistemi autogeni. Si ricordi che questi, contrariamente alla maggior parte degli esseri viventi, non mantengono attivamente condizioni di non equilibrio: non si trovano costantemente in uno stato dinamico, ma trascorrono assai più tempo come strutture inerti. Una chimica molecolare mediata dal fosfato sarebbe dunque importante solo durante quei brevi e rari periodi in cui il confinamento ha ceduto e i processi di catalisi e autoassemblaggio risultano critici p~r la ricostituzione di tale forma stabile. La polimerizzazione dei nucleotidi - il legame dei fosfati fra gli zuccheri - li renderebbe indisponibili per interagire con altre componenti molecolari, mantenendone però una riserva disponibile per il successivo ciclo di replicazione. Un ulteriore contributo potrebbe venire se la chiusura del sistema autogeno tendesse a escludere l'acqua, rafforzando le condizioni di disidratazione che facilitano la polimerizzazione, e la rottura del confinamento del sistema autogeno portasse dunque inversamente a una maggiore esposizione all'acqua, consentendo alla reidratazione di facilitare la depolimerizzazione dei nucleotidi, e di renderli di nuovo disponibili per la cattura di altri fosfati ad alta energia. Finora questo scenario offre un interessante miglioramento della logica dei sistemi autogeni in cui l'aggiunta di cattura e gestione dell'energia costituisce un significativo vantaggio evolutivo. Ma offre anche altro, una nuova fonte di vincoli e propagazione di vincoli. Per vedere questa possibilità bisogna considerare certe possibilità incidentali, dal punto di vista funzionale, di un polimero del genere. Intanto, in un mezzo di immagazzinamento molecolare le posizioni relative dei diversi nucleotidi lungo la catena polimerica sono irrilevanti. Così, se varie molecole diverse sono capaci di svolgere una funzione di trasporto di fosfato, l'ordine della loro polimerizzazione tenderà a essere casuale, riflettendone solo la relativa prevalenza. Questo ordinamento non vincolato dei nucleotidi è ovviamente una proprietà critica della capacità di trasmettere informazione degli acidi nucleici, cioè l'entropia di Shannon. Se la sequenza degli acidi nucleici dovesse favorire certi legami o combinazioni più
5ro
Natura incompleta
di altri, ciò introdurrebbe un condizionamento, e quindi ridondanza e riduzione della capacità di recare informazioni. In secondo luogo, proprio perché per poter essere utili nel metabolismo dei sistemi autogeni è necessario eh.e i nucleotidi recanti il fosfato si leghino selettivamente ai siti catalitici e ad altre molecole costitutive del sistema autogeno stesso, vi sarà una tendenza di queste molecole a legarsi anche al polimero, e ove vi fosse una qualche specificità associata alle diverse varietà di sequenze nucleotidiche anche questo legame avrebbe un certo grado di specificità. Insieme, queste due proprietà sono la base che può permettere il reclutamento della forma polimerica al servizio di una funzione diversa da quelle della raccolta di nucleotidi e dell'inattivazione dei fosfati: quella di stampo. La forma di evoluzione delle forme autogene è soggetta a seri limiti. Uno dei più significativi ha a che fare con le dimensioni di una rete di interazioni catalitiche sufficiente a completare la replicazione autogena. Così, mentre un insieme autocatalitico di crescente complessità potrebbe dare ai sistemi autogeni una certa flessibilità rispetto alla variabilità dell'ambiente, con l'aumento del numero dei catalizzatori e della complessità dei modelli di interazione si raggiungerà ben presto un limite superiore delle possibilità evolutive. Per ogni nuovo catalizzatore che si aggiunge a una rete autocatalitica il numero di possibili interazioni molecolari non produttive tra esso e le altre molecole aumenta in modo esponenziale. Più vasta e specifica è la rete necessaria per la replicazione di un sistema autogeno e più il processo sarà lento e inefficiente. Quel che ci vuole è una fonte di vincoli sulle possibili interazioni molecolari che si aggiungano a quelli intrinseci alla loro struttura. Un meccanismo che vincoli le interazioni a favorire quelle appropriate alla formazione del sistema autogeno e inibire quelle che non lo sono sarebbe un serio ausilio per superare questa esplosione di possibili reazioni collaterali. La probabilità di interazione fra molecole è in larga misura funzione della loro relativa vicinanza. Le molecole in bassa concentrazione sono così raramente, in media, abbastanza vicine da interagire, dato il gran numero di molecole interposte. Un processo autocatalitico, per questo motivo, è significativamente sensibile alla re-
Evoluzione
SII
lativa prossimità di ogni molecola catalitica capace nelle sue interazioni chimiche di reagire con qualche altro catalizzatore. E ove l'autocatalisi coinvolga più di un ridotto numero di catalizzatori interagenti, e se qualcuna delle reazioni tra i catalizzatori dell'insieme è rilevante, le differenze di prossimità dei catalizzatori diventano tanto più importanti. Nelle cellule viventi, le cui «macchine» molecolari possono a volte comprendere anche decine di molecole diverse che lavorano insieme, i diversi componenti sono spesso legati ai substrati in un configurazione specifica, o confinati in diversi compartimenti cellulari, o assemblati per disponibilità sequenziale dei componenti a dare complessi multimolecolari (come i ribosomi), in modo da evitare l'interferenza di interazioni molecolari irrilevanti. Un sistema autogeno che usi più di un ridotto numero di componenti interagenti richiederebbe anch'esso vincoli analoghi. Senza vincoli sulle relative probabilità delle interazioni molecolari entro un sistema autogeno anche di modesta complessità, cioè forse già con un. sistema autocatalitico che comprenda quattro o cinque catalizzatori, le reazioni collaterali tenderebbero a ostacolare la riproduzione generando prodotti inappropriati e riducendo la velocità delle reazioni rilevanti. La cosa andrebbe poi rapidamente fuori controllo ove la chimica del sistema autogeno divenisse anche non di molto più complessa, con l'aggiunta di nuovi componenti. In relazione a questo problema di limitazione della complessità, la disponibilità di un polimero nucleotidico di costituzione casuale potrebbe fare una significativa differenza. In ogni reazione chimica, un fattore importante è la probabilità che le molecole reagiscano fra loro. Così, per esempio, le concentrazioni relative di diverse molecole diminuiscono la probabilità che certe molecole specifiche interagiscano. A livello molecolare, è un problema di prossimità relativa. Uno dei modi in cui i catalizzatori possono accrescere la velocità delle reazioni è aumentare la probabilità che determinate molecole siano abbastanza vicine da interagire. Ma in modo analogo un grosso polimero lineare di struttura irregolare può influenzare prossimità e tassi di reazione di altre molecole. Presumendo che i vari catalizzatori simil-proteici racchiusi in un sistema autogeno inattivo abbiano affinità di legame lievemente differenti nei confronti della sequenza lineare del polimero
512
Natura incompleta
nucleotidico, questo ordine di legame può mettere a disposizione vincoli di prossimità che influiranno sulla probabilità di interazione di ogni coppia di catalizzatori legati. Le molecole legate l'una nelle vicinanze dell'altra sullo stesso polimero avranno una più alta probabilità di interagire di quelle legate in posizioni più distanti. Nella misura in cui le molecole legate l'una vicino all'altra sono anche quelle la cui immediata interazione conduce alla formazione del sistema autogeno e non a una reazione collaterale, questa inclinazione a reagire facilita la conservazione di questa caratteristica, perché si produrrà una maggiore quantità di tale variante grazie alla sua maggiore efficienza chimica. In altre parole, il grado di correlazione tra l'ordine in cui si legano i catalizzatori e la topologia ottimale della rete di reazioni autocatalitiche diventa fonte di selezione a favore di una certa sequenza di nucleotidi rispetto alle altre. La selettiva preservazione e trasmissione di questa correlazione tra sequenza nucleotidica e sequenza di interazioni catalitiche può così diventare un grossolano equivalente dell'informazione genetica. A questo punto sarebbe esatto dire che le caratteristiche strutturali di una data sequenza nucleotidica trasmettono informazioni a proposito di una sequenza vantaggiosa di reazioni chimiche. Una struttura molecolare erediterebbe in tal modo dei vincoli dalle dinamiche autocatalitiche più funzionali e li trasferirebbe alle dinamiche future, man mano che alcune linee di discendenza di sistemi autogeni si riproducono più di altre. Sarebbero necessari numerosi altri dettagli per completare questo scenario. Fra questi vi sono la preservazione delle sequenze nucleotidiche vantaggiose, i mezzi con cui possono essere replicate insieme alla replicazione dei sistemi autogeni e il mantenimento della loro forma lineare. La maggior parte di queste difficoltà può trovare risposta assumendo che questi primordiali polimeri nucleotidici avessero una forma a doppio filamento analoga a quella del DNA invece che a singolo filamento come quella dell'RNA. Questo ovviamente contraddice gli assunti del mondo a RNA, ma il vantaggio dell'RNA in questo caso è ridotto perché le funzioni catalitiche sono già state assunte a prescindere dalle funzioni dei nucleotidi. Il senso di questo abbozzo di scenario, ovviamente, non è rivendicare una maggiore o minore plausibilità di questo o quel particolare
Evoluzione
processo molecolare, mostrare come un processo teleodinamico può scaricare certi vincoli critici da preservare in un substrato fisico separato, investendo il substrato di funzionalità semiotica, cioè della capacità di riguardare qualche altra cosa. Questa visione di una molecola di DNA cui sono legate proteine in posizioni determinate dalla sequenza nucleoti9J.ca ha un parallelo nei viventi. I biologi molecolari hanno già familiarità con una classe di proteine che si legano al DNA e che svolgono diversi ruoli. nelle cellule viventi, dalla semplice protezione e impaccamento strutturale a tutta una serie di funzioni di regolazione. Il legame di queste varie proteine e complessi proteici alla molecola del DNA è analogamente determinato da varie proprietà stereochimiche, compresa la corrispondenza strutturale tra la struttura proteica e la specifica «torsione della doppia elica correlata con la sequenza nucleotidica in quel punto. Queste lievi differenze di avvitamento sono dovute alle lievi differenze tra le proprietà delle basi accoppiate e a configurazioni energetiche lievemente differenti nelle modalità di «rilassamento» della molecola. Le funzioni regolatrici delle proteine che si legano al DNA sono inoltre mediate dalle interazioni proteina-proteina che inducono o bloccano, determinando quali altri complessi proteici si legheranno ai segmenti adiacenti. Dunque, analogamente, lo scenario che abbiamo abbozzato inverte nei fatti quella che potremmo immaginare essere la normale priorità delle . funzioni genetiche. Quella che nella genetica molecolare contemporanea consideriamo una funzione secondaria di supporto delle proteine legate al DNA, al servizio della regolazione dell'espressi o.. ne del codice gènetico, in questo scenario è considerata la funzione «codificante» primordiale del DNA: quella di substrato per l' organizzazione delle interazioni fra le varie proteine che interagisco' no cataliticamente. Si potrebbe proporre un gran numero di altre modifiche di questo scenario per aumentarne la plausibilità per una teoria delle Origini. Per esempio si può immaginare che le differenze di temperatura trovate nelle vicinanze dei camini vulcanici potrebbero fare da incubatori naturali per la PCR facendo sì che catene analoghe al DNA si separino e si riuniscano a formare repliche di se stesse. Ma fini di questa discussione spiegare come possano essersi evoluti
Natura incompleta
questi meccanismi potrebbe accrescere la plausibilità di queste idee come teoria delle origini della vita, ma aggiungerebbe poco alla definizione costruttiva dell'informazione biologica che ne risulta. Le questioni che porremo sulle origini di queste funzioni biologiche saranno diverse. Per qualcuno potrebbe essere deludente che non abbia cercato anche di dar conto dell'origine del codice genetico a triplette che determina la struttura delle proteine. Questo è un problema assai più complesso, e non ho gli strumenti per formulare ipotesi su di esso. Quanto detto è dunque lontano dal dar conto del «codice dei codici» che accoppia le sequenze nucleotic;liche alle sequenze di residui di amminoacidi che costituiscono le proteine. Ma nella misura in cui questo scenario offre un modello generale che dimostra come un processo molecolare teleodinamico possa facilitare il trasferimento di vincoli critici ad altri substrati, esso può forse dare qualche suggerimento per la ricostruzione dei numerosi passi evolutivi incrementali che possono aver condotto da uno stampo che struttura sequenze di reazioni a un codice molecolare.· Dunque se facciamo un passo indietro dagli aspetti specifici del problema del codice molecolare e ci limitiamo a chiederci come la struttura di una molecola possa essere arrivata· a svolgere un ruolo critico nell'organizzazione delle proprietà dinamiche della vita, la teoria dei sistemi autogeni offre appunto a questo una risposta. Un'interessante implicazione è che ciò ridimensiona la replicazione del DNA a un ruolo di supporto, invece di considerarla la caratteristica che definisce l'informazione, come nelle teorie del replicatore. Quel che va preservato e replicato sono determinati vincoli critici per il processo teleodinamico che a sua volta li genera, e questi vincoli possono essere realizzati fisicamente in numerosi modi diversi. L'informazione molecolare non è dunque intrinseca alle sequenze degli acidi nucleici, né al processo di replicazione, ma a questi vincoli, quali che ne sia la forma o il substrato. Il che significa anche che non c'è ragione di assumere, anche negli organismi contemporanei, che la sola informazione trasmessa di generazione in generazione sia quella genetica. In qualunque forma si presenti, l'informazione biologica non è un attributo intrinseco del suo substrato. Come questo intero lavoro si sforza di dimostrare, è precisa-
Evoluzione
515
mente di questo carattere non intrinseco dell'informazione che bisogna dar conto. Solo dopo aver afferrato questo principio riusciremo a evitare di introdurre le proprietà di qualche criptico homunculus nelle nostre teorie della genetica evoluzionistica. Questo scenario dimostra che un dato attributo componente di un sistema teleodinamico diventa portatore di informazione perché viene a incorporare e propagare vincoli rilevanti per la conservazione dell'organizzazione dinamica di cui fa parte. Questi vincoli dovevano già essere una caratteristica implicita della teleodinamica del sistema, prima di diventare· ripresentati in questa forma. Ma una volta che siano stati spostati in modo ridondante su un componente del substrato, il mantenimento di questi vincoli da parte di elementi intrinseci all'organizzazione teleodinamica globale del sistema può degradarsi senza che se ne perda la preservazione. Ciò riduce successivamente i vincoli sulla dinamica molecolare specifica, consentendo un tipo di esplorazione evolutiva di forme alternative che altrimenti non sarebbe possibile. Le caratteristiche dinamiche e chimiche altamente precise che prima mantenevano i vincoli possono ora prendere un carattere di realizzabilità multipla. Pensare l'informazione biologica in questi termini dinamici e neutrali rispetto al substrato riformula le nostre idee sulla funzione dell'eredità biologica. In questo scenario l'informazione genetica sorge dallo spostamento di vincoli sostenuti dinamicamente a vincoli incorporati strutturahllente che non hanno da svolgere alcun ruolo dinamico diretto. La funzione informazionale localizzata di questa struttura è così secondaria e parassitaria rispetto a tali precedenti vincoli più olisticamente distribuiti. Nello scenario di cui sopra, all'inizio la sequenza nucleotidica è soltanto ridondante a certi vincoli dinamici favoriti. Tuttavia la dissociazione di questo schema molecolare dalla dinamica che esso stesso influenza protegge in più tali vincoli dall'imprevedibilità termodinamica del contesto dinamico. I vincoli incorporati dinamicamente sono probabilistici e variano in maggiore o minor misura per caso e rispetto a variabili come concentrazione e distribuzione dei catalizzatori e substrati nel con'testo del sistema autogeno. I vincoli teleodinamici critici possono durare, in una linea di discendenza di sistemi autogeni, solo perché la loro probabilità di espressione in questo mezzo diversificato è ap-
516
Natura incompleta
pena sufficiente a tener testa ali' aumento della loro degradazione termodinamica. I vincoli che invece sono incorporati in maniera ridondante in una struttura molecolare sono relativamente più isolati da queste fonti di imprevedibilità, oltre a essere termodinamicamente più stabili. In più, sia la riduzione dei vincoli sulle proprietà che devono essere incorporati nei componenti dinamici che la reincorporazione di essenziali vincoli organizzativi in forma strutturale aprono nuove opportunità perché le caratteristiche fisiche incidentali diventino caratteristiche funzionali. Ciò perché vi sarà maggiore tolleranza verso componenti dinamici intercambiabili e un mezzo strutturale grazie al quale «esplorarè» distinte e riproducibili varianti dell'organizzazione dinamica globale. In tal modo, cambiamenti della struttura molecolare possono dare origine a cambiamenti di organizzazione, e regolarità organizzative possono dare origine a nuove forme di informazione molecolare. La capacità di un sistema teleodinamico di generare e trasferire vincoli da substrato a substrato è dunque la chiave che apre la via a un'evoluzione aperta che comporta sempre maggiore complessità di dinamica e varietà di substrati.
La caduta nella complessità Seguita come scenario per l'origine della vita, la teoria dei sistemi autogeni ci porta a porre domande di tipo assai diverso da quelle prese in considerazione dalla comunità dei ricercatori del campo. Altrove rr, per esempio, ho sostenuto che i grossi polimeri formatisi per via inorganica di cui è richiesta la disponibilità perché possano emergere i processi autogeni potrebbero aver avuto maggiori probabilità di formarsi su pianeti più fredde in condizioni anidre, e di essersi formati a partire .da monomeri di acido cianidrico. Inoltre, data la natura generica del meccanismo dei sistemi autogeni, sospetto che questo tipo di sistemi teleodinamici non del tutto viventi potrebbe essere in grado di formarsi a partire da una diversificata gamma di substrati molecolari. Dunque la natura generica degli· aspetti chimici, la semplicità del processo e la diversità delle condizioni entro cui un sistema del genere potrebbe evolversi dovrebbero rendere questa sorta di sistemi molecolari replicantisi assai più
Evoluzione
517
prevalenti nell'universo di qualcosa di tanto complicato e delicato quanto la vita 12 • Il passaggio dalla semplice replicazione autogena alla riproduzione basata sull'informazione, per quanto raro possa essere in senso cosmico come transizione evolutiva, deve aver fatto una differenza fondamentale in qualunque luogo e momento si sia verificato. La capacità di scaricare, immagazzinare, conservare, trasmettere e manipolare informazioni sul rapporto tra i componenti di un sistema teleodinamico e il suo potenziale contesto ambientale è l'apice della rivoluzione entenzionale. E segna l'inizio della semiotica come normalmente la si concepisce, e con essa di un vasto universo rappresentazionàle virtuale di possibilità, perché segna un fondamentale disaccoppiamento di ciò che è dinamicamente possibile dalle probabilità dinamiche immediatamente presenti; il punto in cui ciò che è meramente probabile diviene subordinato alle possibilità rappresentazionali. Questa è la fonte dell'esplosiva prodigalità dell'evoluzione biologica. Questa ricostruzione delle origini dell'informazione genetica come derivata da processi teleodinamici non ne sminuisce dunque il ruolo fondamentale nell'evoluzione biologica. Ci aiuta, però, a meglio comprendere le complesse basi sottostanti al processo di selezione naturale e in particolare l'importanza dei processi morfodin~mici nello sviluppo e il modo in cui ciò contribuisce all'evoluzione della complessità e alla generazione di nuova informazione biologica. Anche se l'esplorazione di queste idee per l'evoluzione più in generale va al di là delle intenzioni di questa analisi, vale la pena di concludere la presente discussione sulla natura del processo evolutivo e del suo ruolo nella generazione dell'informazione con qualche commento sul modo in cui questa prospettiva illumina certe recenti discussioni nella teoria dell'evoluzione. Consideriamo per prima cosa la logica del trasferimento di vincoli dalla dinamica chimica a un substrato costituito da un acido nucleico, che conferisce a quest'ultimo la capacità di trasportare informazioni. Nel modello del sistema autogeno qui presentato ciò si sviluppa originariamente da un rapporto di ridondanza. La struttura sequenziale del polimero costituito dall'acido nucleico è venuta a essere correlata con i vincoli dinamici che conducevano a un' ef-
518
Natura incompleta
ficiente replicazione di un sistema autogeno da un processo di selezione naturale a seguito del modo in cui questa sorgente ridondante di vincoli accresceva la probabilità delle reti di reazioni favorevoli rispetto a quelle sfavorevoli. Questa ridondanza crea un disaccoppiamento dell'informazione genetica dalla dinamica, che dà un disaccoppiamento dei vincoli sulle probabilità di interazione dai vincoli sulla stereochimica delle molecole interagenti. In tal modo le due forme di vincoli possono variare separatamente e quindi la selezione naturale può esplorare nuove sinergie tra questi vincoli. Un analogo ruolo della ridondanza nella creazione di nuova informazione genetica si verifica attraverso la duplicazione dei geni. La duplicazione è un errore o mutazione che fa sì che un certo tratto di DNA sia copiato e poi reinserito nel cromosoma, spesso in posizione adiacente a quella originale. Vi sono alcuni casi in cui l'ulteriore prodotto dovuto al duplicato è benefico e altre in cui è dannoso o semplicemente privo di effetti. La duplicazione, come la ridondanza nella teoria dell'informazione di Shannon, è un'importante difesa contro gli errori. Nel caso di un gene duplièato, ciò vuol dire che la degradazione funzionale di una delle due copie, come quella eventualmente provocata da danni mutazionali, potrebbe non dar luogo ad alcuna degradazione della funzione, e tanto meno a una sua catastrofica insufficienza. E in genere neanche la copia danneggiata diventerà del tutto non funzionale. Le mutazioni puntiformi che modificano uno solo dei residui amminoacidici di una grossa proteina avranno in genere l'effetto di alterarne la struttura solo in misura modesta. Il cambiamento delle sue proprietà tenderà quindi a essere anch'esso modesto, sempre che sia rilevabile. In casi sfortunati, in proteine composte da centinaia di amminoacidi resta tuttavia che una singola. sostituzione colpisca qualche caratteristica strutturale critica della proteina, ed è anche possibile che una mutazione puntiforme di inserzione o delezione di un nucleotide provochi uno slittamento del modulo di .lettura del codice che alteri il modo in cui vengono letti i codoni successivi, producendo così una proteina diversa, sempre che sia prodotta. Purché vi sia ridondanza e la copia alterata non produca effetti dannosi, sulla copia duplicata la selezione naturale risulta allentata, e le sue copie nei vari individui della progenie possono continuare ad accumula-·
Evoluzione
re mutazioni e così a «esplorare» variazioni sul tema funzionale originario, per così clire, senza costi significativi per la capacità di sopravvivenza. Dato che la funzione anche di una singola molecola è raramente semplice, ma anzi è spesso il risultato di vari «compromessi chimici», questa «esplorazione» può spesso dare origine a effetti sinergici rispetto all'originale. Ciò accade se capita che la molecola duplicata leggermente divergente costituisca una variante utile della funzione originaria e nel farlo liberi la forma originaria dai vincoli di compromesso che potrebbero essersi resi necessari per funzionare in molteplici contesti. Arrivare per caso a questo tipo di interrelazioni sinergiche è più probabile negli organismi che si riproducono per via sessuale, perché la continua ricombinazione, generazione dopo generazione, campiona efficacemente la gamma combinatoria delle opzioni che sono potenzialmente disponibili a una popolazione in cui numerose versioni del duplicato variano indipendentemente. Questo processo di duplicazione, degradazione-variazione, ricombinazione casuale delle varianti, e stabilizzazione selettiva delle combinazioni a maggior valenza sinergica può accadere più volte nell'evoluzione del genoma di una specie. Il risultato può essere un'intera famiglia di geni correlati, che lavorano insieme o separatamente per ottenere un risultato complesso. L'esempio classico, probabilmente, di questo tipo di sinergia dovuta alla duplicazione di un gene è quello dei geni dell'emoglobina nei mammiferi. L'emoglobina contenuta nel sangue è un complesso tetramerico in cui quattro molecole di emoglobina - due alfa e due beta emoglobine - si congiungono a dare una forma tetraedrica in cui tutte le regioni che legano l'ossigeno sono rivolte verso l'esterno. Un evento di duplicazione genica ha dato luogo a divergenza di forma, nei tempi evoluzionistici, separatamente per le due forme alfa e beta, consentendone l'attuale adattamento sinergico. Variazioni indipendenti nella forma delle superfici non impegnate nel legame con l'ossigeno delle varianti alfa e beta nel corso della loro evoluzione hanno consentito alla ricombinazione di «campionarne» le diverse tendenza ad autoassemblarsi in complessi più grossi, e di favorire la replicazione di quei complessi che miglioravano autoassemblaggio, stabilità e capacità di trasporto dell'ossigeno. Ancora più interes-
520
Natura incompleta
sante è che ulteriori duplicazioni del gene della beta emoglobina nel1' evoluzione hanno condotto a una serie di varianti della beta emoglobina, ciascuna delle quali ha un'affinità per l'ossigeno lievemente diversa. Queste sembrano essere state reclutate nei mammiferi da-analoghi processi di ricombinazione e selezione al servizio delle mutevoli necessità di trasferimento dell'ossigeno del feto in via di sviluppo, la cui emoglobina deve essere in grado di estrarre ossigeno dal sangue della madre e distribuirlo al proprio corpo. Inoltre le diverse varianti della beta emoglobina fetale sono prodotte in quantitativi diversi nei diversi stadi della gestazione, e risultano _corrispondere ai mutamenti della richiesta di ossigenazione del feto in crescita, realizzando così una sorta di sinergia temporale. L'esempio probabilmente più spettacolare degli effetti della duplicazione genica seguita da complementazione di funzioni è responsabile della struttura a «tema con variazioni» dei corpi delle piante e degli animali pluricellulari. Questa è effetto di una classe di geni che svolgono ruoli di regolazione producendo proteine che si legano ad altre regioni del genoma e funzionano guidandò l' espressione coordinata di ampie costellazioni di altri geni. La famiglia genica che è risultata responsabile della segmentazione del corpo degli animali è la famiglia dei geni denominati homeobox (e nei vertebrati, per brevità, Hox). Il loro nome deriva da una regione codificante che hanno in comune e che costituisce il dominio critico di legame al DNA delle proteine in essi codificate. SonO'stati scoperti nei moscerini della frutta perché le mutazioni di questi geni producono bizzarre ma sistematiche alterazioni di interi segmenti corporei, come la duplicazione della regione toracica o la presenza di una zampa nel punto in cui avrebbe dovuto svilupparsi un'antenna. Varianti duplicate diverse di questi geni orchestrano l' espressione di un ampio numero di geni «a valle», ma in modi lievemente differenti; un po' come due direttori d'orchestra dallo stile un po' diverso. Dato che ogni gene duplicato variante è poi confinato a essere espresso solo in particolari segmenti del corpo durante il suo sviluppo, le strutture da essi prodotte sono, in ciascun segmento, simili l'una all'altra ma con lievi differenze. Il risultato è una distribuzione delle parti del corpo che può essere paragonata a un tema con variazioni, come nelle zampe leggermente differenti nelle varie po-
Evoluzione
521
sizioni del corpo di un insetto, o nella lieve variazione del modo in cui sono fatte le dita delle mani e quelle dei piedi umani. In qualche remoto momento dell'evoluzione, prima dell'ultimo antenato comune tra noi e le mosche - intorno a mezzo miliardo di anni fa - c'era un ~alo gene homeobox ancestrale, che regolava l' espressione di molti altri geni. Ma dopo la sua duplicazione, e a mano a mano che i geni duplicati prendevano a variare nelle regioni di espressione e nel modo in cui controllavano l'espressione degli stessi geni a valle, ne è risultata una corrispondente ridondanza di segmenti corporei leggermente varianti. Analogamente ai geni duplicati dell'emoglobina, un campionamento combinatorio ha permesso di «mettere alla prova» diverse combinazioni di queste strutture corporee varianti in uno stesso corpo, selettivamente favorito o sfavorito dal modo in cui le loro interazioni ne influenzavano la riproduzione. In tal modo le versioni varianti dei geni duplicati sono divenute il mezzo con cui il processo evolutivo è arrivato a stabilizzare le relazioni funzionali sinergiche tra diverse strutture corporee. Interi organi ripetuti (come zampe e parti boccali) si sono così evoluti in maniera complementare, schermandosi parzialmente l'un l'altra dalla selezione grazie alla loro ridondanza. Così, un lontano cugino dello scaricamento dei vincoli in maniera ridondante su substrati alternativi è stato anche il segreto della generazione di nuova informazione genetica, nonché della logica di tema con variazioni che contraddistingue tutti gli animali pluricellulari complessi. Questo processo di duplicazione e complementazione nell'evoluzione - come il trasferimento di vincoli dalla dinamica molecolare nei sistemi autogeni alla struttura della sequenza nucleotidica nello scenario sopra descritto - è un effetto morfodinamico, una propagazione progressiva di vincoli. La sinergia che ne risulta a ciascun passo, sotto l'influenza della selezione, introduce ulteriori vincoli che differenziano ciascuna delle unità duplicate rispetto all'altra, con una riduzione reciproca di una certa :frazione del rispettivo carico funzionale. Nei fatti, la nuova relazione sinergica di ordine superiore che ne risulta è un'espressione dei processi morfodinamici che sono impliciti nella teleodiilamica dell'intero. Se da un lato la selezione naturale è un processo che riduce la varietà mantenendo o aumentando i vincoli sulla forma e la funzione dell'organismo, la pro-
522
Natura incompleta
duzione di questa ridondanza fornisce però dall'altro una parziale schermatura dalla selezione naturale, consentendo l'emersione in parallelo di nuove forme di varietà. In termini di informazione, vi è un aumento dell'entropia di quella che potrebbe essere chiamata la «capacità del canale evolutivo» e il mezzo attraverso cui può emergere nuova informazione, con nuove possibilità combinatorie di ordine superiore che divengono soggette alla spinta all'incremento dei vincoli del processo della selezione naturale. C'è tutto un nuovo settore della ricerca evoluzionistica che si sta aprendo, man mano che cominciamo a prestare attenzione ai contributi dei caratteri morfodinamici dei processi genetici ed epigenetici che generano strutture e funzioni degli organismi. Ripens;mdoci, ci accorgiamo ora che «le diverse forze della vita» comprendono i sottostanti processi morfodinamici che si sostengono e si generano sinergicamente a vicenda, e da essi dipendono. Quando la selezione naturale indebolisce la sua presa limitativa su varie funzioni adattative, come avviene nel caso della duplicazione genica, la tendenza alla propagazione di vincoli generatrice di forma che dà origine alle organizzazioni viventi può diventare il mezzo con cui possono emergere forme di informazione funzionale di ordine superiore. Questa reciproca interazione tra selezione e morfodinamica apre così la via per un indefinito accrescimento della complessità, verso forme di organizzazione teleodinamica di volta in volta di ordine superiore.
Capitolo
I)
Oggi esistono dei «sé». C'è stato un tempo, migliaia (o milioni, o miliardi) di anni fa, in cui non ce n'era nessuno - almeno su questo pianeta. Quindi - a fil di logica - deve esserci una storia
vera da raccontare su come sono venute al mondo delle creature dotate di un sé. Dan Dennett 2
Cominciare da piccoli L'ormai leggendaria affermazione di René Descartes - «penso; dunque sono» lanciò la sfida di una teoria del sé. Chi o che cosa è questo «lo» di cui parla Descartes? I tentativi di sondare questo mistero hanno dato luogo a un intero campo della filosofia, e con decine di libri all'anno, negli ultimi tempi, che sostengono di aver risolto l'enigma, o almeno di essere andati un po' più a fondo nelle sue profondità ancora limacciose. Purtroppo però, fra i risultati di mezzo millennio di dissezioni della questione da ogni possibile, si direbbe, punto di vista, c'è poco che possa essere detto un significativo passo avanti, e tanto meno una risposta. Credo che dipenda dal fatto che partire dalla sfida di spiegare il cogito cartesiano è un grave errore. Non nel senso che sia una carica contro i mulini a vento - anzi, negare la realtà del sé è assurdo, anche se a volte porta a speculazioni filosofiche interessanti - ma perché è come voler correre prima di aver imparato a camminare, anzi, anche solo a muoversi a quattro zampe.
524
Natura incompleta
L'approccio classico al problema parte dall'assunto che 1' esperienza soggettiva umana sia un fenomeno semplice e caratterizzato. Ovviamente però non è né semplice né facile da descrivere, anche se è l'aspetto più ubiquitario di tutto quel che sappiamo. E anche se è l'unico attributo comune di ogni cosa esperita, il sé non è sempre già lì. Non emerge semplicemente di colpo, già pienamente formato, né nell'evoluzione né nella vita di una persona. I sé evolvono, si sviluppano, si differenziano e cambiano. Ci vuole del tempo. I sé maturano lentamente e si differenziano in modo incrementale e, ancor più importante, sono sia causa sia conseguenza di questo processo. Questo è un ulteriore motivo per assumere che debba esserci - come osserva Dennett nella frase che apre questo capitolo - una storia da raccontare a proposito di come sia venuto in essere questo fenomeno che chiamiamo sé. Il sé soggettivo su cui si sono concentrati Descartes e i moderni indagatori della teoria della coscienza è un capitolo successivo di questa storia. Affrontarlo in modo adeguato richiede qualcosa di più che meditare su ciò che uno sa ed è in grado di mettere iU: dubbio, qualcosa di più dell'introspezione. Richiede una certa conoscenza di . molti dettagli dell'evoluzione animale e della funzione cerebrale. Ma neppure questo basta. Senza gli strumenti concettuali che qui siamo andati sviluppando, senza essere in grado di descrivere in modo esplicito la dinamica che hanno in comune quel che si potrebbe chiamare il semplice sé dell'organismo e lo stesso sé mentale umano, ci mancherebbero i mezzi per utilizzare questo comune filo evolutivo e dinamico· per ricostruire questa personalissima forma dell'individuazione. Partire dunque dal problema dell'esperienza soggettiva umana concentra troppo l'attenzione su una sola variante, altamente sviluppata ·e specializzata, del fenomeno del sé, e ci mette di fronte a . una particolare variante che è il prodotto di processi di supporto assai complessi, i cui bizantini dettagli sono il prodotto di miliardi di anni di evoluzione. Il tipo di sé mentale riflessivo che Descartes accetta come innegabile è divenuto possibile solo dopo miliardi di anni di evoluzione. Non è un fenomeno ubiquitario .e generale largamente rappresentato nel mondo, malgrado che su tale mondo sia la nostra sola finestra. È anche il prodotto di un numero astronomico
Sé
525
di sottili e incessanti processi fisici,che hanno luogo ogni millisecondo nella rete elettrochimica quasi inimmaginabilmente complicata e altamente strutturata che è un cervello umano. E anche se non fosse il prodotto di una simile complessità, sarebbe comunque ancora sorprendentemente controintuitivo nella sua organizzazione e nelle sue proprietà, proprio perché è un fenomeno intenzionale. Perché dunque dovremmo aspettarci qualcosa di più che restare abbacinati da questa variante sommamente complessa di questo processo sommamente controintuitivo? Cercare di capire qualcosa di così impenetrabilmente complicato e controintuitivo come primo passo è improponibile. Questa è quasi certamente una delle ragioni principali per cui le discussioni sul sé e l'esperienza soggettiva hanno compiuto ben pochi progressi dai tempi di Descartes, malgrado gli enormi avanzamenti di filosofia, psicologia e neuroscienze. Io credo che .sia arrivato il momento di prendere una via largamente diversa. Le domande di Descartes devono essere accantonate fino a che non saremo in grado di valutare la questione dell'intenzionalità e del sé a livelli assai più semplici. Suggerisco di partire in piccolo, il più in piccolo possibile. Partendo dal caso più semplice in cui ci sembri ancora giustificato identificare qualcosa di vagamente analogo a un sé, troveremo più facile analizzare una per una queste questioni controintuitive. Solo dopo aver intrapreso questi primi passi potremo costruire su queste fondamenta, fino a dar conto dell'architettura dinamica del sé soggettivo. Fortunatamente per il nostro tentativo di comprendere il sé, la cosçienza umana non è l'unico esempio di questa proprietà. È una variazione speciale e altamente divergente su un tema più generale, esemplificato dalle migliaia di animali che sono dotati di cervello. E questa forma di sé, mediata per via neurologica, è a sua volta una variazione speciale di un tema ancor più generale: quel che significa essere un organismo individuale. Ma il sé non è meramente asso~iato alla vita e alla mente: è ciò che definisce fa stessa individuazione che caratterizza un organismo e i suoi più fondamentali principi organizzatori. Solo gli organismi viventi sono veramente individuali nel senso che tutti gli aspetti della loro costituzione sono organizzati intorno al mantenimento e perpetuazione di questa forma di organizzazione. È il carattere circolare di questa architettura con-
526
Natura incompleta
sequenziale - la teleodinamica - che delinea e insieme crea quell'individualità che è il sé dell'organismo. Le funzioni dell'organismo sono in tal modo indirettamente autoreferenziali e autoproiettive. Nel mondo inanimato che abbiamo attorno, non si trova traccia di questa circolarità di processi generativi. Per delimitati e unitari che siano, né le pietre, né le gocce d'acqua, né le automobili, né i computer, né alcun altro artefatto non vivente è riflessivamente individuale in questo modo. Inteso in questo modo più generale, il sé non è una proprietà esclusiva degli organismi dotati di cervello come gli esseri umani, o come altri animali che hanno probabilmente una qualche lontana parvenza di esperienza soggettiva. La soggettività, quasi certamente, è una modalità specialmente sviluppata del sé che è probabile sia limitata alle creature dotate di cervello complesso. Questo speciale aspetto del sé a mediazione neurologica è per molti aspetti emergente da caratteri esemplificati in modi diversi già nelle forme più elementari di sé che costituiscono un'individualità come organismo. Si dà per scontato in biologia che sviluppo, mantenimento e riproduzione anche del più semplice degli organismi siano interamente riflessivi. Si assume senza problemi che funzioni e adattamenti dell'organismo esistano, per definizione, «per» la persistenza o la riproduzione di tale individuazione. Anche se vi sono importanti distinzioni qualitative e quantitative nei modi in cui usiamo il concetto di sé, quindi, ci sono anche molti aspetti essenziali in comune. Il sé, in tutti i casi, è l'origine il bersaglio e il beneficiario dell'organizzazione funzionale, che sia molecolare o mentale. Vi sono dunque buone ragioni per credere che cominciando a esplorare il sé al suo livello più elementare, prima di affrontare il problema nella sua forma più complessa, riusciremo forse a discernere qualche fondamentale principio generale da applicare quando saliremo con la nostra analisi verso il più complesso dei fenomeni legati al sé: la coscienza umana. Riconoscere che anche organismi semplici come i batteri hanno proprietà tali da qualificarli come sé indica anche che la soggettività non è una proprietà essenziale per la definizione del sé, ma probabilmente è rilevante solo quando si applica il concetto alle creature dotate di cervello complesso. Ciò ci permettere di mettere al-
Sé
527
meno temporaneamente tra parentesi questo problematico attributo, per esplorarne intanto altri più elementari, senza però eludere la centrale sfida concettuale da affrontare. Nei fatti, questioni di teleologia, agenzia, rappresentazione e valore sono elementi critici del sé che devono essere considerati. Dipanare questi difficoltosi concetti esplorandone degli omologhi più semplici è stata la principale strategia di tutto questo testo. Questa strategia si è dimostrata valida per spazzar via molte delle confusioni che da tempo ostacolavano il cammino verso la comprensione di come processi e relazioni entenzionali possano esser resi compatibili con le scienze naturali. Questo approccio, d'altra parte, non ha ridotto questi problemi a meri processi chimici e fisici, ma ha invece dimostrato l'importanza del1'andare al di là di questo semplice tipo di concretizzazi~ne in materia ed energia. Analogamente, questo approccio può contribuire a illuminare fino a che punto il fenomeno del sé non sia una semplice proprietà fisica di corpi o cervelli ma piuttosto un decisivo carattere assenziale che da ultimo costituisce il sito dell'individuazione che crea la distinzione dal non-sé. Malgrado il concetto di sé sia onnipresente nel discorso biologico, non è in genere ben accetto nelle scienze naturali, e in biologia lo si tratta prevalentemente in modo euristico. La mancanza di una spiegazione non omunculare dell'origine e dell'efficacia dei fenomeni teleologici ha per lungo tempo assicurato che il concetto di sé ponesse dei dilemmi irrisolvibili, e restasse di conseguenza ambiguo. Sotto questo aspetto, vi è un'analogia con il concetto di teleonomia. Si ricordi che l'idea di teleonomia è stata usata per legittimare l'uso nelle spiegazioni di descrizioni finalistiche presumendo di negarne ogni implicazione entenzionale. Ma, come mi sono sforzato di dimostrare, gli organismi non sono meri meccanismi che imitano tendenze teleologiche, e sono interamente organizzati intorno a un nucleo centrale di finalizzazione, autogenerazione e perpetuazione. L'essere finalizzato è una caratteristica intrinseca essenziale per la definizione di un organismo, non qualcosa di definito soltanto dall'esterno e imposto in modo estrinseco o accidentale. Avendo affrontato la questione nella sua forma più embrionale - in relazione all'emergenza di processi teleodinamici in sistemi autoge. ni semplici - siamo adesso forniti di qualche nuovo strumento con
528
Natura incompleta
cui affrontare questa sfida partendo, per così dire, dal basso. È tempo di smettere di trattare il sé come un eufemismo. Come suggerisce Dennett, possiamo dire con tranquillità che quattro miliardi di anni fa, prima del sorgere della vita sulla Terra. non vi era nessuna forma di sé su questo pianeta, e probabilmente neppure nel resto del sistema solare. Sistemi fisici dotati di questa proprietà sono emersi in qualche punto della storia del pianeta. lo ho sostenuto che questa transizione emergente sia stata all'incirca coincidente con le origini della vita. L'emergere della forma di sé che caratterizza la soggettività umana è invece una variante recente, speciale e di ordine più alto di quella prima transizione. Mentre dunque questa complessa variante comprende proprietà emergenti radicalmente diverse come soggettività e interiorità, questa versione esperienziale del sé deve comunque riflettere una logica comune le cui origini risalgono a questa originaria transizione teleodinamica. Per esaminare questo problema da una prospettiva più elementare e più trattabile, dunque, facciamo un passo indietro e lasciamo le questioni di coscienza e soggettività per considerare i motivi per cui diciamo che gli organismi mantengono, difendono e riproducono sé stessi.
Individuazione La tesi centrale di questo capitolo è che la proprietà di base che collega il sé anche della più semplic.e forma di vita con quella proprietà apparentemente ineffabile che caratterizza l'umana esperienza del sé è una forma speciale di organizzazione dinamica: quella teleodinamica. Ciò che non è stato esplicitato, però, è che tutti i processi teleodinamici sono implicitamente individuati, cioè chiusi, in un senso fondamentale, rispetto ad altri aspetti dinamici del mondo. Questa speciale forma di chiusura si riflette nell'espressione i