Interattoma
Il paradosso di Levinthal dell’interattoma e le sue conseguenze sulla biologia evolutiva
Le proteine sono le molecole tuttofare della vita, veri e propri nanostrumenti capaci di svolgere le funzioni più svariate. Sono oggetti dalle molteplici forme, raggruppabili in tre grandi classi: le proteine globulari, più o meno sferiche, come l’emoglobina; le proteine fibrose, dalla struttura filamentosa, come la cheratina; infine, le proteine di membrana, dalla geometria dipendente dalla funzione svolta (per esempio, regolare il passaggio di ioni attraverso la membrana cellulare).
La maggior parte delle attività delle cellule di ogni organismo vivente viene eseguita da proteine che interagiscono tra loro e con altre molecole organiche del nucleo, del citoplasma e della membrana cellulare. Di solito si tratta di interazioni complesse, che prevedono una successione di passi esattamente scandita e regolata, sia nel tempo sia nello spazio. Si pensi, ad esempio, all’interazione fondamentale: la sintesi proteica. Si tratta di un meccanismo complicato che prevede, a grandi linee, prima la trascrizione del gene codificante una data proteina in RNA messenger (mRNA) all’interno del nucleo, poi la traduzione del codice mediante il montaggio sequenziale – all’interno dei ribosomi – delle molecole di amminoacidi trasportate dall’RNA transfer (tRNA), infine la ripiegatura della lunga catena peptidica nella forma finale della proteina (la cosiddetta conformazione nativa).
Tutte le operazioni che coinvolgono molecole organiche dipendono, ovviamente, dalle specifiche interazioni chimiche che avvengono tra di loro. Dal punto di vista della fisica queste ultime sono semplicemente la manifestazione di interazioni elettromagnetiche tra le nuvole elettroniche degli atomi coinvolti. In pratica, le molecole organiche si combinano tra di loro, si “smontano” e si “rimontano” in configurazioni diverse grazie al fatto che la loro superficie esterna – quella che rappresenta l’interfaccia della molecola con l’ambiente – costituisce un “paesaggio” composito di zone, diverse per forma e dimensione, con densità di carica elettrica differente. In tal modo una proteina può agganciarne un’altra in una specifica direzione e (per esempio) formare un aggregato di forma allungata, come nelle fibre di cheratina; oppure può trattenere una molecola di ossigeno, per poi rilasciarla al momento opportuno; e via dicendo.
È evidente, dunque, che la funzione di una proteina è determinata in maniera essenziale dalla “mappa” di densità elettronica sulla sua superficie esterna, che a sua volta dipende tanto dalla sua struttura primaria (la sequenza di amminoacidi – ovvero residui – che la costituiscono), quanto dalla sua struttura secondaria e terziaria (l’esatta configurazione tridimensionale di tutti i suoi atomi). Secondo l’ipotesi termodinamica (nota anche come dogma di Anfinsen ) la conformazione nativa della proteina è determinata univocamente dalla sequenza degli amminoacidi costituenti. In pratica, nelle condizioni ambientali in cui la proteina viene sintetizzata, la conformazione nativa corrisponde a un minimo unico, stabile e accessibile dell’energia libera. Quindi, la forma finale è una configurazione di equilibrio stabile dal punto di vista termodinamico, che viene raggiunta spontaneamente nella biosintesi proteica (vale a dire, nel corso dell’assemblaggio della proteina all’interno di una cellula vivente).
Questa considerazione non risolve, però, il cosiddetto problema del ripiegamento: in che modo una proteina raggiunge la sua forma funzionale, partendo dalla catena di amminoacidi sintetizzata nei ribosomi? Il fatto è che se il ripiegamento dovesse avvenire mediante un processo di “ricerca casuale” – per agitazione termica – del minimo globale di energia libera, questo richiederebbe un tempo assolutamente irrealistico, molto maggiore di quello trascorso dalla nascita dell’Universo. Vediamo perché.
Per ogni legame peptidico sono possibili due diversi angoli di rotazione, ognuno dei quali può dar luogo a tre configurazioni energeticamente stabili. Perciò, una proteina costituita da N residui – quindi con (N – 1) legami peptidici – avrà 2(N – 1) diversi angoli di legame. Dato che ad ognuno di questi corrispondono tre configurazioni stabili, il numero di possibili conformazioni della catena (non equivalenti dal punto di vista dell’energia libera complessiva) sarà di 32(N – 1) = 9N – 1 ≈ 100,95(N – 1) .
Se la proteina dovesse raggiungere la sua conformazione nativa – quella corrispondente al minimo globale di energia libera – mediante un’esplorazione casuale delle varie configurazioni realizzabili, ognuna delle quali avvenisse in un tempo dell’ordine del picosecondo (10–12 secondi), ci vorrebbero più o meno 100,95 N – 13 secondi per raggiungere lo scopo. Nel caso di una piccola proteina formata da 100 residui (quindi con N = 100), il tempo richiesto sarebbe dell’ordine di 1082 secondi, più o meno 1065 volte l’età dell’Universo! È evidente che c’è qualcosa che non torna: un batterio come l’E. Coli si riproduce ogni 20 minuti, duplicando l’intero insieme delle sue proteine funzionali – gran parte delle quali ben più lunghe di 100 residui – entro quell’intervallo di tempo. Tale contraddizione venne riconosciuta per la prima volta da Cyrus Levinthal nel 1969 (): si tratta di quello che è ormai universalmente noto come “paradosso di Levinthal”.
Il problema del ripiegamento si può dunque riformulare in questo modo: come viene selezionato l’unico stato funzionale di una proteina in mezzo a un numero tanto grande di alternative? Secondo Levinthal, la risposta è semplice: il ripiegamento non può che avvenire seguendo percorsi preferenziali; in altre parole, è accelerato e guidato dal rapido instaurarsi di interazioni locali, che a loro volta servono da centri di nucleazione per i passaggi successivi. In pratica, l’assemblaggio delle proteine sarebbe un processo gerarchico, che si verifica in un “paesaggio energetico” a forma di imbuto, analogo al rotolamento di un masso dalla cima di una montagna verso un pozzo situato in una profonda valle.
È evidente che i “canali preferenziali” che guidano il corretto ripiegamento proteico sono messi a disposizione dal processo stesso di biosintesi nella cellula sana, e dipendono dalle giuste condizioni fisico-chimiche – oltre che dall’eventuale presenza di particolari molecole organiche dette chaperone, specificamente adibite a fornire “assistenza” al ripiegamento. Notoriamente, ogni discostamento dalla conformazione nativa produce proteine inattive, spesso tossiche; alcune malattie neuro-degenerative sembrano essere prodotte da proteine mal-ripiegate. Lo “srotolamento” parziale o totale di una proteina, detto denaturazione, è nella maggior parte dei casi irreversibile – indubbiamente a causa del grandissimo numero di conformazioni denaturate, in confronto all’unica nativa.
Al di fuori dell’ambiente cellulare, perciò, la sintesi artificiale di una proteina a partire esclusivamente dai suoi componenti elementari appare ancora un problema tecnicamente arduo.
Ora, ritornando a quanto detto all’inizio, il funzionamento di una cellula dipende dall’insieme delle interazioni tra le proteine e tutte le altre molecole, organiche e inorganiche, presenti al suo interno. In particolare, l’attività cellulare è determinata dalla rete completa del suo interattoma, vale a dire dall’insieme di tutte le interazioni fisiche proteina-proteina che possono aver luogo nella cellula. Non è difficile comprendere che il problema dell’assemblaggio dell’interattoma sia analogo a quello del ripiegamento delle proteine, nel senso che in entrambi i casi lo stato funzionale viene selezionato entro un numero astronomicamente alto di alternative non funzionali.
I biologi Peter Tompa della Vrije Universiteit di Brussels e George Rose della Johns Hopkins University hanno affrontato la questione della sintesi dell’interattoma in un articolo apparso su Protein Science nel 2011, “The Levinthal paradox of the interactome”. La rete dell’interattoma è costituita dall’insieme delle interconnessioni che collegano idealmente le migliaia di componenti cellulari; ogni collegamento corrisponde a un’interazione chimicamente efficace delle molecole coinvolte. Nel caso delle interazioni proteina-proteina, queste avvengono in modo corretto solo se le due (o più) molecole coinvolte presentano la “giusta” distribuzione complementare di carica elettrica e si avvicinano l’una all’altra nella “giusta” direzione – un po’ come una chiave nei confronti di una serratura. Ora, è chiaro che, nel caso di molecole grandi e di forma complicata come le proteine, esistono molte possibilità diverse di interazione, dipendenti dalla geometria del “contatto”.
Tompa e Rose forniscono una stima approssimata del numero di possibili schemi di interazione in un interattoma-modello, considerando per semplicità solo interazioni a coppie tra proteine “medie”. L’interattoma esaminato è quello esistente in una particolare fase di crescita del lievito Saccharomyces cerevisiae, con 4500 proteine diverse, lunghe in media 400 residui e presenti in media in 3000 copie ciascuna. Supponendo per semplicità di avere a che fare solo con proteine globulari, gli autori calcolano 3540 interfacce distinguibili in una proteina tipica. Nel caso più semplice, in cui si assume che ognuna delle n proteine diverse sia presente in una singola copia, e che tutte le interazioni avvengano a due a due attraverso una singola interfaccia, il numero complessivo di possibili schemi di interazione risulta pari a:
La dipendenza da n è rapidamente crescente: per n = 6 si hanno 15 interazioni possibili, per n = 10 si sale a 945, per n = 20 si arriva già a più di 600 milioni… nel caso esaminato, con n = 4500, vi sono ben 107200 possibilità! Questo, però, è ancora niente: se si tiene conto del fatto che vi sono in media 3540 interfacce per ogni proteina, si arriva a 4500 x 3540 ≈ 1.6 x 107 enti distinti in grado di interagire. Ebbene, il numero di interazioni possibili sale adesso allo strabiliante valore di 1054 000 000 ! Non è finita qui: considerando che ogni proteina compare in 3000 esemplari, più copie della stessa proteina possono essere impegnate in interazioni con controparti diverse allo stesso tempo; si giunge quindi a una stima di 1079 000 000 000 distinte configurazioni dell’interattoma. Un numero assolutamente stupefacente.
Tompa e Rose osservano che tale straordinaria complessità esclude la possibilità che un interattoma funzionale si formi per tentativi ed errori in un qualsiasi accettabile arco di tempo, e ne traggono la conclusione che l’assemblaggio dell’interattoma debba procedere lungo percorsi preferenziali, anche mediante l’interpretazione di opportuni segnali di “montaggio”. Secondo gli autori, dunque, è evidente che la formazione di un interattoma funzionale necessiterebbe di una rete preesistente di proteine interagenti – vale a dire, dell’interattoma stesso. Prendiamo, per esempio, alcune fasi della biosintesi proteica: la localizzazione dell’mRNA comporta l’esistenza del citoscheletro, che funge da rete di trasporto; a sua volta, il citoscheletro può essere assemblato correttamente solo se esiste un’organizzazione precedente (come i centri di organizzazione dei microtubuli, MTOC); infine, il trasporto lungo il citoscheletro può verificarsi solo mediante motori proteici, che sono costituiti appunto da proteine precedentemente sintetizzate. Inoltre, tutte le nanomacchine coinvolte richiedono un flusso continuo di energia per funzionare: non è quindi pensabile che il risultato finale del loro lavoro (un interattoma funzionale) possa mantenersi in equilibrio spontaneamente, cioè senza alcun dispendio energetico.
In sostanza, nessun interattoma potrebbe auto-organizzarsi spontaneamente a partire dai suoi componenti proteici isolati; al contrario, esso può raggiungere il suo stato funzionale solo “copiando” l’interattoma di una cellula-madre, e mantenere quello stato solo attraverso un continuo dispendio energetico. Senza una rete preesistente di interazioni, una cellula finirebbe per impantanarsi in uno stato caotico non funzionale, incompatibile con la vita. Insomma, secondo Tompa e Rose esiste, tra un interattoma vitale e i suoi componenti isolati – tra vita e non vita – una discontinuità che risulta essere insormontabile, in modo spontaneo, al di fuori dell’ambiente cellulare.
Per chiarire meglio il concetto di discontinuità, i due ricercatori individuano tre configurazioni generali (“zone”) di organizzazione del materiale organico.
La zona 1, quella dell’ordine o dello stato nativo, corrisponde all’interattoma vitale, in condizioni fisiologiche normali. L’assemblaggio spontaneo è dominante e le trasformazioni sono completamente reversibili.
La zona 2, quella del disordine, viene definita da transizioni reversibili dalla zona 1, dovute a stress, malattie, mutazioni, divisione cellulare, eccetera. La reversibilità qui è minore, ma ogni trasformazione si può invertire con un costo energetico e grazie a una combinazione di percorsi obbligati e molecole assistenti (chaperone).
La zona 3, quella del caos, rappresenta il livello assoluto di disorganizzazione. Le trasformazioni che portano in questa zona non sono reversibili: non esiste alcun meccanismo che permetta di raggiungere da qui la zona 1 in tempi ragionevoli.
In altre parole, tra zona 3 e zona 1 esiste una barriera invalicabile, almeno nelle condizioni attualmente esistenti sulla Terra. È evidente, del resto, che la vita deve aver attraversato la zona 3 almeno una volta – all’inizio. Si capisce che qui entriamo in un campo altamente congetturale; possiamo però presumere che gli attuali meccanismi di assemblaggio dell’interattoma riflettano la loro storia evolutiva. Anche nell’ottica della Sintesi estesa (cioè della teoria dell’evoluzione più “prudente” e conservativa) ogni proteina sintetizzata in ogni organismo oggi vivente viene guidata al suo destino nella cellula lungo una strada che è stata forgiata in un’epoca precedente. È nondimeno ovvio che un primo interattoma funzionale, benché primitivo, deve essere esistito in qualche momento del remoto passato, emergendo in qualche modo dalla zona 3 – vale a dire, in assenza di un preesistente interattoma di supporto.
Su come debba essere stato l’interattoma primordiale non sappiamo granché, al momento. Tuttavia, abbiamo al riguardo qualche indicazione da parte degli scienziati premiati con il Nobel per la chimica nel 2009: si deve essere trattato almeno di una triade catalitica costituita da RNA ribosomiale, proteina ribosomiale e tRNA substrato. Dunque, almeno una grande proteina funzionale, non dissimile da quelle moderne, deve aver attraversato il confine tra zona 3 e zona 1 qualcosa come quattro miliardi di anni fa. Per puro caso? È certamente possibile, sebbene molto improbabile, se si tiene conto del paradosso di Levinthal. La valutazione della probabilità di tale evento, però, si riduce ancora quando si considera che deve essere stato un interattoma completo – seppure primitivo, seppure ridotto all’osso – ad attraversare spontaneamente la barriera tra caos e ordine. Una stima di tale probabilità è stata effettuata da Eugene Koonin, e non appare molto incoraggiante.
D’altro canto, non potrebbe invece essere che una qualche “legge di natura” – vale a dire un aspetto intrinseco della natura, piuttosto che un caso contingente – abbia giocato un ruolo fondamentale nell’origine e nell’evoluzione della vita, come suggerisce Michael J. Denton?
Non lo sappiamo. Pensiamo, però, che valga davvero la pena di continuare a riflettere sul tema della complessità fondamentale della vita, forse la questione più importante della biologia del XXI secolo.
22 commenti
Grazie, Michele: che spasso leggere questo articolo!
E’ pressante l’esigenza che la scienza si liberi della “magia” che Monod, Crick, Weinberg, Hawking, ecc. hanno instillato nella biologia evolutiva e nella cosmologia con il loro ingenuo sistematico ricorso al caso, forse per l’ossessione di quella comune credenza filosofica in un Universo “ostile”, che poi ha monopolizzato la cinematografia hollywoodiana. Un caso che rimane sempre ergodicamente impari (nella Terra come nella panspermia dell’Universo come nell’ipertrofia ultima del multiverso) a giustificare la ricchezza della biosfera osservabile nel nostro pianeta. Se vogliamo sperare in una soluzione scientifica dell’abiogenesi, dobbiamo partire dalla rinuncia alla scappatoia del caso e dal riconoscimento di non avere nemmeno (ancora) alcuna congettura a riguardo.
In fondo, è ciò che è successo col paradosso di Levinthal. Un paradosso non è una proposizione falsa, ma una proposizione vera che ti costringe a rivedere alcuni tuoi pregiudizi. Levinthal, dimostrando che il caso non ha il tempo di piegare le proteine nella conformazione spaziale funzionante esplorando lo spazio di tutte le configurazioni, ha stimolato in questo campo la ricerca in due direzioni: 1) di meccanismi (come il collasso idrofobico, i folding tunnel, ecc.) rientranti nei princìpi noti della fisica e nella chimica che piloterebbero i ripiegamenti proteici, e 2) in nuovi princìpi e nuove leggi di Natura che platonicamente starebbero a priori delle forme proteiche.
Il lavoro di Tompa e Rose segna a mio parere un punto a favore della seconda direzione, verso la ricerca di nuove leggi di Natura ed una rivoluzione di paradigma. Se il XX è stato il secolo della (doppia) rivoluzione della fisica, il XXI potrebbe essere quello della biologia.
PS. Non so se è un problema del mio browser, o di trascrizione dell’articolo, ma non vedo la formula dopo “il numero complessivo di possibili schemi di interazione risulta pari a: …”
No, neanche il mio browser visualizza la formula. Avviserò Enzo!
Ho provveduto a ripristinare la formula, nel “copia incolla” dell’articolo di Michele il formato originale non veniva letto da WordPress e io non me ne ero accorto.
Piaca anche a me pensare, in accordo a quanto dice Giorgio, che il XXI secolo potrà essere quello della rivoluzione nell biologia, ma voglio precisare un paio di punti.
1- Il secolo della rivoluzione nella biologia sarebbe già stato il XX, se solo si fosse abbandonato il dogma darwiniano.
2- Che è in realtà una conseguenza del punto 1, il XXI secolo sarà quello della rivoluzione in biologia nella misura in cui verrà abbandonato il dogma neo-darwiniano.
Impressionante, l’abiogenesi è sempre stata il punto debole della scienza materialistica. Segnalo un articolo pertinente di Robert Deyes: http://www.arn.org/blogs/index.php/2/2008/06/30/the_protein_interactome_revealing_design_3
Grazie per la segnalazione!
Confermo il mio commento lasciato su UCCR, un articolo meraviglioso soprattutto perchè rimette in circolo la vita all’interno del mondo fisico-chimico e la tira fuori da un idolatrico iperuranio in ncui per caso e necessità ‘era tutto possibile’
Grazie Michele, molto interessante.
A proposito delle implicazioni pratiche del darwinismo sulla scienza:
Stavo leggendo proprio oggi su un libro, della interpretazione sul genoma del DNA in cui i geni agiscono in reti, in cui l’effetto di ogni gene è deciso dall’azione reciproca su questo gene di molti altri, quindi in modo olistico, una rete dinamica.
Quindi cadrebbe la credenza per cui ogni gene riproduce un singolo tratto, una singola proteina e di conseguenza non si può trasferire un certo tratto o proteina, trasferendo un singolo gene da una specie all’altra.
Con enormi implicazioni anche mediche, alimentari e commerciali: è tutta da ridiscutere la sicurezza propagandata dai cibi OGM, le presunte cure personalizzate in base alla mappatura genomica, la brevettabilità dei geni, la consistenza di una mappatura genetica, etc
Insomma un caso esemplare degli effetti del riduzionismo scientifico coniugato al business: decenni di ricerca, miliardi di dollari dedicati a un mito scientifico, inquadrabile a sua volta nel mito darwininiano evoluzionista e nel riduzionismo e meccanicismo scientista.
Il business del genoma industriale ha sicuramente ostacolato deliberatamente filoni di ricerca che potendolo smentire, avrebbero messo a rischio i profitti nel settore.
Ostacolando la vera conoscenza dei meccanismi biologici naturali.
Cari amici,
consideravo con un pò di sgomento come il dibattito su questo articolo sul sito di UCCR (che, a scanso di equivoci io ADORO, in quanto consente un dibattito veramente sulla ‘frontiera’ che da una parte fa crescere in consapevolezza tanti giovane e dall’altra si apre a chi non è credente e lo interroga..) si sia in poche battute tanto allontanato dal senso dell’articolo da rendersi ormai irriconoscibile e fungibile con i commenti a qualsiasi altro articolo che parli di qualsiasi altro argomento.
Per usare una analogia fisica è come se ci fossero degli ‘attrattori potentissimi’ dei veri e propri buchi neri della retorica che ingoiano qualsiasi tipo di inizio in due o tre prese di posizione standard uccidendo la fertilità del tema. Mi preoccupa non poco questa incapacità di ‘tenere il punto’ (qui l’instabilità è stata innestata da Pendesini con una cosa che non c’entrava nulla, totalmente inverificabile, su ‘perchè è evoluto il cervello umano’, ma non stavamo parlando di proteine, cioè di un tema molto più scientifico e verficabile delle elucubrazioni sul cervello ?).
Però, indipendentemnte da dove parte la prima smagliatura, prima o poi, come nelle calze di nylon delle donne, si allarga velocissima in quanto tutti gli vanno dietro.
Perchè non si riesce a tenere il punto ? Da questo punto di vista direi che questa iniziative dellea TA è molto più coerente (anche se ahimè più elitaria). credo però dovremmo interrogarci su questa deriva…
Quando il testo è sfiazzante e non c’è nulla da dire si finisce per deviare su discorsi più generalizzati dove qualcosa lo si trova sempre. Io nel leggere questi articoli così completi de “La Tavola Alta” rimango sempre senza parole, sono perfetti e c’è ben poco da aggiungere. Il mio silenzio in questo caso è un una forma di rspettoso elogio.
Caro Alessandro, la tua riflessione è molto profonda. Di getto, alla domanda di quale sia l’attrattore che, indipendentemente dalla smagliatura iniziale, porta il dibattito velocemente fuori tema verso la finale radicalizzazione tra materialisti e cristiani, mi viene da rispondere che è la passione ideologica! In fondo, e l’aveva ben capito Lakatos, la scienza non è sufficiente a scaldare gli animi: ci vuole sempre una Weltanschauung!
Che fare? Poichè il dibattito in Uccr non è controllato ma libero, non trovo altra soluzione che l’autore dell’articolo lo tenga costantemente monitorato, per intervenire prontamente quando un commento è OT, per toglierne legittimità e così scoraggiare le repliche di commentatori ingenui…
Io almeno cercherò di regolarmi così in futuro per i miei articoli.
Concordo con quanto dite. Anch’io ho trovato sconcertante l’intervento di Pendesini, tanto da non sapere come regolarmi. A questo punto, purtroppo, gli interventi sono chiusi, altrimenti avrei già messo in atto il consiglio di Giorgio. In ogni caso, credo che anch’io d’ora in poi mi atterrò a questa regola!
Riguardo all’ultima osservazione di Alessandro, penso che sia giusto interrogarsi su come provare a rimediare alla facile deriva delle discussioni su temi “tecnici”. D’altra parte, penso che la radicalizzazione del dibattito teismo-materialismo un po’ dipenda dal fatto che in Italia non esiste una divulgazione scientifica critica diffusa a vasto livello. I tempi sarebbero ampiamente maturi perché ciò che qui e in pochi altri siti web si dibatte quotidianamente (mi vengono in mente quelli di Adriano e di Fratus) cominci a essere discusso anche con altre modalità. Già, ma come?
Mi spiego meglio su quest’ultimo punto. La mia impressione è che, quando si tratta di commentare un testo “tecnico” di critica scientifica (al neodarwinismo, al riduzionismo determinista e via dicendo), il materialista ( di buona cultura generale, ma che non conosce dell’argomento “tecnico” più di quel che sostiene la vulgata scientista ampiamente dominante ) si sentirà in dovere di criticarlo a priori – in quanto intuito essere in contrasto con i suoi capisaldi dogmatici. Dal canto suo, il teista ( di buona cultura generale, ma che non conosce dell’argomento “tecnico” più di quel che sostiene la vulgata scientista ampiamente dominante ) non potrà rispondere sul piano scientifico, vuoi perché spesso non ha oggettivamente gli strumenti specifici per farlo, vuoi perché non può ricorrere ad alcuna “contro-vulgata” che sia patrimonio culturale in comune con l’interlocutore materialista; di conseguenza, tenderà a rispondere allontanando il fuoco del dibattito dall’argomento “tecnico”, portandosi su temi filosofici più generali – ovvero su un terreno più familiare. Naturalmente questo primo scambio innescherà subito una rapida spirale centrifuga, destinata ad atterrare su questa o quella annosa (e irrisolvibile, senza gli strumenti adatti) diatriba: libero arbitrio, evoluzione del cervello, DNA umano uguale al 98% con quello dello scimpanzé…
Ottima analisi caro Michele, che condivido pienamente, però il punto è che ora bisognerebbe uscirne, l’argomento ‘tecnico’ dovrebbe essere messo su dei ‘piedi di buon senso’ esponendolo all’intervento di tutti. Se da una parte apprezzo i complimenti di Adriano per la Taviola Alta dall’altra mi preoccupa il non ‘lasciar spazio’ all’approfondimento e alla critica, fosse anche perchè tutto è molto chiaro ed evidente.
Se non lo facciamo questa ‘nuova vulgata’ non sorgerà mai…
Come dici tu Michele il punto è che la ‘percezione di qualcosa come tecnico’ porta ‘via’ il discorso verso i soliti attrattori per diversi motivi, il punto è allora inventarsi uno stile (non mi vengono altre parole) che ‘de-tecnicizz’ il discroso scientifico, e questa potrebbe essere la contro-vulgata…
Assolutamente d’accordo anch’io con la lucida analisi di Michele.
Voglio solo aggiungere che se queste dinamiche sono saltate fuori e se ci accorgiamo di questa assenza di una “contro vulgata” di questa difficoltà di fare contro-divulgazione, proprio perché da una paio di anni sono sorte delle realtà, come UCCR e noi, che hanno creato le condizioni perché determinati dibattiti avessero luogo.
La soluzione più immediata è nel continuare a fare quello che già stiamo facendo, nella speranza che qualche realtà con molti più mezzi si decida a fare altrettanto.
Per questo motivo ringrazio tutti, da chi scrive gli articoli a chi li commenta a chi li legge senza intervenire, perché siete voi il motore di questo cambiamento.
Anch’io sono una delle persone che ha replicato all’ intervento in questione del sig. Pendesini…..
Ammetto che trovo abbastanza difficile cercare di non rispondere alle sue argomentazioni molte volte presuntuose e, comunque, caratterizzate da una marcato riduzionismo filosofico. Accetto comunque la sua giusta osservazione e mi propongo di contribuire in modo piu’ costruttivo ai dibattiti che si svolgono su UCCR (che per altro, molte volte, sono gia’ caratterizzati da una eccessiva animosita’).
Colgo l’occasione per ringraziare tutti voi (Forastiere, Pennetta, Masiero, Giuliani) dei vostri preziosi articoli, che leggo sempre con grande interesse.
Credo di rispondere anche a nome degli altri che hai citato: grazie piuttosto a te per la passione con cui ci segui!
Ciao Lucio,
anche se Michele ha già risposto, voglio aggiungere il mio personale saluto e ringraziamento.
Grazie di questo stupendo articolo che fa comprendere, tra le altre cose, come la più minuscola cellula vivente sia un prodigio della natura.
Come scrisse Chesterton, se il mondo perirà sarà non per mancanza di meraviglie ma di meraviglia.
Hai ragione, Giovanni. Da quando è uscito questo articolo io lo leggo ogni giorno, ogni giorno mi stupisco, capisco qualcosa di nuovo che mi era prima sfuggito e colmo di curiosità mi fiondo sui suoi link, e da questi ad altri e scopro un mondo, quello biologico dove esiste una “complessità ordinata” così gigantesca che mi chiedo: ma come si può attribuire tutto questo al caso? come si può dire che la scienza nega Dio? non è piuttosto vero l’opposto, ossia che la scienza “implica” Dio?
Buttandola un po’ lì..ad ogni modo,il “caso” propriamente detto in verità non esiste.
Ovviamente lei proff.Masiero che è fisico lo sa ben meglio che noi tutti..
Vorrei cogliere la palla al balzo e ricordare un “uomo di scienza”, Henri Poincaré.
Ne avevo ricordato un pensiero qua:
http://www.enzopennetta.it/2012/09/9314/
“[..]una causa così piccola da sfuggire alla nostra attenzione può determinare un effetto considerevole che non possiamo ignorare; in una tale situazione noi diciamo che l’effetto è dovuto al caso. …può infatti accadere che piccole differenze nelle condizioni iniziali producano un errore enorme in quelle successive. La predizione diventa impossibile…”
[H. Poincaré, Science et méthode, Flammarion, Paris 1908, (cap. IV, p.68)]
E Masiero mi contraddica se sbaglio ma mi pare che il “succo” sia stato che confermato dalla fisica moderna..
Monod scriveva,sempre circa la “meraviglia del caso”:
“[…]Il nostro numero è uscito alla roulette: perché dunque non dovremmo avvertire l’eccezionalità della nostra condizione, proprio allo stesso modo di colui che ha appena vinto un miliardo? ”
– Le Hasard et la néccessité, 1970-
C’è chi da Dembski ad altri vuole porre in tutte le meravigliose complessità un fine causa-effetto.Un’estensione massima del principio antropico,un estensione intergalattica del principio di conservazione dell’energa e della risonanza ideale,ma una “causa causante incausata” certo fa ben pensare a qualcosa di preciso direi..
Il riduzionismo e il “Caso” con la C maiuscola sembrano(sono) cose più metafisiche che non altro..
La ringrazio, Leonetto, delle Sue osservazioni: di questo Caso metafisico parlerò estensivamente nel mio prossimo articolo su Tavola Alta!
Pingback: La genetica moderna ha smentito il darwinismo classico | UCCR