Un articolo pubblicato su Science l’11 maggio, e ripreso da Le Scienze, mette in guardia verso le possibili malattie dovute all’aumento nella frequenza di alleli rari.
Ma tale aumento è ascrivibile alle mutazioni casuali, quelle che secondo il neodarwinismo dovrebbero essere all’origine delle nuove specie.
Se le mutazioni casuali vengono indicate come origine di nuove malattie, come potrebbe tale meccanismo portare a nuovi caratteri e perfino a nuove specie?
Dopo l’articolo pubblicato il 1° maggio su CS; Neodarwinismo alla “deriva”: la speciazione allopatrica… conduce all’estinzione, relativo ad uno studio pubblicato su PLoS One sull’effetto negativo dell’isolamento riproduttivo di piccole popolazioni (condizione necessaria nella teoria neodarwiniana) adesso è la volta di Science che ha pubblicato uno studio intitolato “Recent Explosive Human Population Growth Has Resulted in an Excess of Rare Genetic Variants” che evidenzia l’aumento nella frequenza di alleli rari nella popolazione umana degli ultimi 10.000 anni.
La ricerca è stata riportata in Italia da Le Scienze in un articolo pubblicato il 16 maggio dal titolo “Con il boom demografico, più varianti geniche rare” che così inizia:
In meno di 400 generazioni la popolazione umana è passata da pochi milioni di individui a sette miliardi, una crescita avvenuta in buona parte negli ultimi 10.000 anni. Una ricerca dimostra che a questo aumento esponenziale è corrisposto un aumento nella frequenza di alleli rari, finora sfuggito alle ricerche basate su campioni piccoli o che non contemplavano questa dinamica demografica
Gli alleli rari non erano presenti nella popolazione iniziale e sono il frutto delle mutazioni casuali occorse nel frattempo “Keinan e Clark hanno condotto uno studio volto ad analizzare l’importanza di tre parametri fondamentali per l’individuazione delle mutazioni rare” come specificato nel testo pubblicato su Le Scienze.
Siamo quindi proprio in presenza di quel tipo di mutazioni che secondo la Sintesi moderna sarebbero all’origine dei nuovi caratteri che, sottoposti alla selezione dell’ambiente, dovrebbero dare origine alla macroevoluzione e quindi alla nascita di nuove specie.
Ma quello che è emerso dallo studio è ben diverso, l’aumento delle micromutazioni (superiore al previsto) denota solamente un deterioramento del patrimonio genetico iniziale e, lungi dal costituire la potenziale premessa per l’evoluzione, costituisce la potenziale premessa per la nascita di nuove malattie, come evidenziato su Science:
La rapida e recente crescita, aumenta il carico di varianti rare ed è probabile che giochi un ruolo nel rischio individuale di una malattia genetica complessa. Quindi, l’estrema, recente, crescita della popolazione umana ha bisogno di essere presa in considerazione nello studio della genetica di malattie e tratti complessi.
Le stesse considerazioni le troviamo riportata anche nella conclusione dell’articolo apparso su Le Scienze:
Questa situazione – scrivono gli autori – implica massicce deviazioni dall’equilibrio genetico delle popolazioni. In particolare, la recente rapida crescita genera un carico di variazioni rare, dovute a mutazioni recenti, che possono avere un ruolo nel rischio di malattie complesse.
Ecco quindi che quando dei dati sperimentali sono disponibili non viene nessuna conferma alla teoria dell’evoluzione per “caso e necessità”, anzi, come nel caso del tilacino sopra ricordato, i meccanismi che dovrebbero stare alla base dell’evoluzione sono invece accusati di portare all’estinzione delle specie o comunque ad un incremento di situazioni patologiche.
La scienza, quella seria, quando si trova davanti alle conseguenze delle mutazioni casuali mette da parte i sofismi neodarwiniani e le fantasie delle “Just so story”, e giustamente si preoccupa per i danni che da esse possono derivare.
La teoria dell’evoluzione neodarwiniana per “caso e necessità” risulta messa in crisi una seconda volta in pochi giorni, e solo la presenza di un forte e radicato paradigma non permette di vedere la verità.
26 commenti
Lo capisce anche un bambino: v’immaginate un software Excel che, per piccoli cambiamenti, diventa Word? e poi PowerPoint?!
Chi capisce qualcosa di software sa che, al primo piccolo cambiamento (detto in gergo “virus”) il programma smetterà di funzionare bene, e al secondo si fermerà.
Un po’ OT ma mi piace:
#include
#include
using namespace std;
int main(int argc, char* argv[])
{
char q = 34;
string l[] = {
" ",
"=============<<<<<<<>>>>>>>=============",
"#include ",
"#include ",
"using namespace std;",
"",
"int main(int argc, char* argv[])",
"{",
" char q = 34;",
" string l[] = {",
" };",
" for( int i = 21; i <= 26; i++ )",
" cout << l[i] << endl;",
" for( int i = 0; i <= 35; i++ )",
" cout << l[0] + q + l[i] + q + ',' << endl;",
" for( int i = 27; i <= 35; i++ )",
" cout << l[i] << endl;",
" return 0;",
"}",
"=============<<<<<<<>>>>>>>=============",
"public class Quine",
"{",
" public static void main( String[] args )",
" {",
" char q = 34;",
" String[] l = {",
" };",
" for( int i = 2; i <= 10; i++ )",
" System.out.println( l[i] );",
" for( int i = 0; i < l.length; i++ )",
" System.out.println( l[0] + q + l[i] + q + ',' );",
" for( int i = 11; i <= 19; i++ )",
" System.out.println( l[i] );",
" }",
"}",
};
for( int i = 21; i <= 26; i++ )
cout << l[i] << endl;
for( int i = 0; i <= 35; i++ )
cout << l[0] + q + l[i] + q + ',' << endl;
for( int i = 27; i <= 35; i++ )
cout << l[i] << endl;
return 0;
}
😀
#include
#include
Per il proff.Masiero beh..al di la della palese pubblicità a Microsoft 🙂
Può senz’altro essere un buon esempio considerare le cose dal punto di vista del software..
Se si guardano le cose terra-terra a livello assembler sfido ad inserire una riga a caso e a vedere se tutto magicamente torna o se addirittura si verifichi un nuovo funzionamento “utile”.
Dal punto di vista del proff.Masiero certo..però se si pensa ad un passaggio da notepad per esempio a word si capisce che è mostruoso,ma è mostruoso anche il passaggio casuale da un piccolo programma ad un altro..
Vengono fatti campionati in cui vince chi scrive il codice sorgente piu’ incomprensibile..
si prenda quello che che arriva nei primi tre e si prenda il miglior programmatore,la probabilità che inserisca qualcosa produncendo qualcosa di sensato sono prossime a 0…
Ma credo che assembler riesca a farlo capire bene..senza commenti anche per i più “esperti” un codice assembler è qualcosa di offuscato,di non immediata interpretazione come qualcosa scritto in java o in C può essere,ripeto può..
Bisognerebbe che si creasse fortuitamente librerie,funzioni,cicli,label etc..non chiamate dal codice mai che non contengano termini eventualmente in conflitto col resto del codice e che vengano chiamati solo quando siano completi con funzioni definite,sensate etc..
E’ impossibile.
Gli evoluzionisti neo-darwiniani comunque non amano il paragone col software,lo amano solo quando vogliono fare metafore rifdicole tipo quella di Dawkins sull’orologiaio cieco..
lol non scrive string.h e iostream
penso siano quelle le include..le prende per tag 🙂
Ma credo che assembler riesca a farlo capire bene..senza commenti anche per i più “esperti” un codice assembler è qualcosa di offuscato,di non immediata interpretazione come qualcosa scritto in java o in C può essere,ripeto può..
http://www.ioccc.org/
😀
Si parlavo di quella competizione..
”
Vengono fatti campionati in cui vince chi scrive il codice sorgente piu’ incomprensibile..
“
Carissimi Loenetto e Piero, sapendo che siete esperti d’informatica vorrei approfittare delle vostre conoscenze, mi sapreste dire qualcosa riguardo ai sistemi “auto modificantesi” di cui si parla qui e delle possibili implicazioni in biologia?
http://www.uccronline.it/2012/05/15/il-successo-dellepigenetica-mette-in-discussione-il-riduzionismo-genetico/#comment-71048
Non capisco bene a cosa si riferisca.
Dopo una rapida ricerca, suppongo che si riferisca a roba del genere:
http://en.wikipedia.org/wiki/Markov_decision_process
che personalmente non conosco abbastanza. Ho sempre aborrito le catene di Markov, e in genere algoritmi formali senza un’intuitività pratica…
Pero’ credo che siano cose mooooolto sperimentali, non riesco a capire come una modifica al software possa essere esaminata e controllata dal software stesso, presupporrebbe che il software fosse capace di eseguire se’ stesso, in una macchina virtuale creata da esso. E resta da capire come valutare per esempio un JUMP condizionato dall’input esterno.
Questa mi sa che e’ roba piu’ di Scienze dell’Informazione.
Se si intende un sistema automodificante avvengono modifiche in relazione ad input esterni e comunque contenuti nelle potenzialità del sistema.
Sia nell’elettronica della moto,in sistemi energetici,oggetti automatizzati di produzione,robotica..
Se invece si intende codice automodificante,che per esempio hanno alcuni virus nel tentativo di eludere sistemi di protezione,si trovano poi in software che vogliono eludere i crack che evitano lo scadere della versione prova..
Ora,però,il codice automodificante i dati per adattare il proprio codice,ma dati e istruzioni nei microprocessori “moderni” sono in due aree distinte della memoria e quindi la gestione di questo codice(che rallenta comunque molto il microprocessore,ci sono soluzioni più economiche ed efficienti)è complessa e difficile e sconsigliata.
Cosa succede quindi..
Ammettiamo che il codice sia diviso in blocchi,ognuno dei quali svolgerà la stessa funzione in ogni codice..esistendo un codice centrale che dati parametri acquisiti verifichi quale dei due blocchi ha eseguito meglio la stessa funzione,accadrà che
i blocchi migliori verranno “uniti” per creare un nuovo codice migliore,ricompilarlo,ri eseguire e così via…
Non so se sono stato chiaro..
Si capisce comunque che si sarebbe ne più ne meno in casi di adattamento simili al nylonase per fare un esempio..dov’è il meccanismo di caso-necessità?
Questa è ingegneria non bricolage..
E’ vero che l’indottrinamento neodarwinista confonde su adattamnto e evoluzione neodarwiniana
Intendevo dire “formalismi basati su automi a stati finiti”…
Se invece riguarda reti neurali, allora il discorso cambia…
Ma alla fine il tutto si riduce ad una matrice di numeri che in base all’input e all’output successivo aggiorna i propri coefficienti.
Reti di Hopfield, reti di Kohonen, memorie associative… le ho fatte un po’ di tempo fa…
Ricordo che come progettino facemmo una rete che apprendeva come distinguere due vettori ortogonali. GLi si poneva in ingresso degli “esempi” e dopo vari cicli, “apprendeva” come si distinguevano i vettori ortogonali.
Quoto quello che hai detto Leonetto, anche relativamente ai nuovi processori che di fatto rendono impossibile codice automodificante (memorie diverse, lunghezze delle pipeline, branch prediction, ecc ecc)
Ma qui credo che si parli di algoritmi formali.
il “programma” deve essere interpretato da un altro codice, da un intero ambiente (tipo Smalltalk o simili) e secondo me ci deve essere una notevole limitazione delle interazioni con l’esterno…
In pratica, un “algoritmo” che fa “guru meditation” 😀
Cmq come ho detto, non conosco in dettaglio quello a cui si riferisce quell’utente.
Si ho messo tanto per coprire le possibilità..penso facesse riferimento al codice automodificante ..proprio quello di alcuni virus informatici..
Esiste comunque appunto per forza come dicevo ed hai quotato un codice centrale altrimenti buonanotte..
Quindi traslando sul mondo dei viventi siamo nel’adattamento.
Ah beh comunque adattamento a volerla dar buona.In verità non è che proprio proprio si potrebbe dire adattamento,probabilmente a voler proprio considerare rigorosamente la cosa non è neanche trasportabile al campo della biologia.Ci sarebbe probabilmente una componente finalistica,probabilmente del lamarckismo,una legge ordinatrice che dirige il tutto,in verita confuterebbe l’ipotesi neodarwinista,diciamo però che semplicemene non la sostiene e diciamo che è esprimibile con l’adattamento stile nylonase etc..che comunque ritengo sia accettabile come paragone.
Ragazzi, sono davvero impressionato dalle vostre argomentazioni!
Non posso però (per colpa mia)dire di aver capito molto più di prima… 🙂
Mi sembre comunque di aver capito che in fondo si introdurrebbe un finalismo che mal si concilia con il neodarwinismo.
Beh direi o un finalismo o comunque un adattamento, si aleatorio, ma insito nelle capacità della specie.
In tutti i casi volendo fare il paragone o si arriva in una situazione che confuta il paradigma neodarwinista o che comnque non riguarda il processo che porta da una specie ad un’altra..
Ah..non è stato detto..se fosse un codice automodificante casuale,nel senso che le modifiche fossero totalmente aleatrorie “morirebbe” molto velocemente..
Ah..non è stato detto..se fosse un codice automodificante casuale,nel senso che le modifiche fossero totalmente aleatrorie “morirebbe” molto velocemente..
A proposito di quanto dice il buon Leonetto, non so se conosce le Core Wars, dalle quali si sono ispirati per il film TRON.
In pratica due programmi scritti in linguaggio macchina si affrontano in un’arena controllati dal Master Control Program e cercano di distruggersi a vicenda.
Una tecnica basilare sapete cosa era? Sparare a caso delle “bombe paralizzanti” (delle semplici JUMP a se’ stesse, cioe’ operazioni che non fanno
altro che far fermare il codice dell’avversario)
http://www.corewars.org/
http://www.corewars.org/docs/dummies.html
Mi sembre comunque di aver capito che in fondo si introdurrebbe un finalismo che mal si concilia con il neodarwinismo.
In ogni caso, come dice bene e come dice bene Leonetto, come per gli algoritmi genetici, ci deve essere un meccanismo piu’ o meno plausibile che “calcoli” la fitness, e questo presuppone un ente esterno che dia una finalita’…
Come ho scritto qui
http://www.enzopennetta.it/wordpress/2011/09/neutrini-gli-einstenisti-accusano-i-fisici-di-creazionismo/#comment-460
se manca la finalita’, il progetto completo, come si fa a seguire un ramo dell’evoluzione?
Grazie a Leonetto e a Piero per queste ultime precisazioni che confermano che il meccanismo in questione non è paragonabile ad uno basato sui principi neodarwinianani.
Comunque Enzo..,a prescindere,non solo in questo caso particolare,ma prendere un esempio, per definizione,di progetto intelligente(o disegno) e portarlo come esempio di un meccanismo che dovrebbe essere esattamente l’opposto vuol dire o follia o che evidentemente non è affatto chiara la Sintesi Moderna,o malafede.
Solo questo io credo dovrebbe cominciare a far riflettere che la “battaglia contro” il neo-darwinismo sia una battaglia per la ragione.
Giorgio, il parallelismo con i software è chiaro ed efficace, ed è vero che lo capirebbe anche un bambino.
Il fatto che gente di sicure capacità intellettive non lo comprenda mostra, a mio parere, la potenza dell’orwelliano “bipensiero”.
“Chi capisce qualcosa di software sa che, al primo piccolo cambiamento (detto in gergo “virus”) il programma smetterà di funzionare bene, e al secondo si fermerà.”
Ad ogni modo stima ottimistica..
Riprendiamo il buon neodarwinista vedrai che se va bene dice quello che ho scritto nel commento sotto al codice postato da Piero:
“Bisognerebbe che si creasse fortuitamente librerie,funzioni,cicli,label etc..non chiamate dal codice mai che non contengano termini eventualmente in conflitto col resto del codice e che vengano chiamati solo quando siano completi con funzioni definite,sensate etc..
E’ impossibile.”
quell’impossibile che i neodarwinisti sfacciatamente chiamano “improbabile”
Della serie altro che fattore Q,altro che vita inaspettata…
Affidarsi a caso e contingenza io lo trovo abbastanza un insulto alla ragione.
C’è questa aggiunta “graduale” di nuova informazione che è determinante ma della quale non si sa nulla..
Cioè riprendiamo l’esempio…
Ipotizziamo un file tipo “foglio di calcolo elettronico” che sta nella sua bella nicchia “Excel”..può essere convertito in un pdf..se si verificheranno casualmente tutti i passaggi di un algoritmo di conversione da .xls a .pdf quando arriverà la selezione nuova nicchia “acrobat reader” che dapprima coesiste con excel poi diventa l’unica e gli xls diventano illegibili e i pdf sopravvivono.
Il fatto è ,in questo caso che chi non è ne pdf ne xls non può essere letto..questo è già un problema,e questo vale anche negli esempi del proff.Masiero..anzi a maggior ragione perchè li si parla di programmi e quindi la selezione sarà un Sistema Operativo..
E’ evidente che sia necessario che o le novità esistano a livello potenziale e si esprimano al sopraggiungere dell’inizio del “filtro di selezione” o si verifichino in varie tappe però garantendo comunque alla specie “mutata” di sovravvivere riprdursi anche nella vecchia nicchia e restando isolata dalla grande popolazione..
Appare abbastanza evidente veramente anche ad un bambino quanto sia veramente impensabile,difficile il verificarsi di si tante cose con sincronia,tempismo,senza finalità etc..
Il meccanismo caso-necessità ha due uscite:sopravvivenza o caduta.
La caduta,l’insorgere di malattie rare,casi come quello della tigre della tasmania,del dodo..estinzioni quello si è visto si vede,è un qualcosa da esaminare bene ..c’è ed è manifesto..
Manca invece qualsiasi cosa possa testimoniare ,corroborare l’esito con sucesso.
scusate la mia ignoranza ma nell’articolo viene scritto:
“Gli alleli rari non erano presenti nella popolazione iniziale”
non riesco a capire come si faccia a sapere con esattezza quali alleli fossero presenti nella popolazione iniziale, questi alleli come si “trovano” studiando il DNA?
grazie
Domanda più che lecita Alèudin,
cerco di spiegarmi con un’analogia, se duplichiamo il CD di un software e stabiliamo che il masterizzatore compia, ad es., un errore ogni 1000 copie, e poi le copie le duplichiamo a loro volta, gli errori compiuti all’inizio li troveremo duplicati in tutte le copie successive e quindi saranno presenti in un numero molto elevato di CD.
Gli errori che si verificheranno nelle serie successive, e a maggiora ragione nelle ultime serie di copie, quelle più recenti, saranno invece molto meno diffusi: rari appunto.
E’ quindi proprio il fatto di essere rari che testimonia che sono recenti.
Spero di essermi fatto capire…
Ad ogni modo il neodarwinista banalmente arriva eh dice :
“Beh è il meccanismo fondamentale per generare nuovi caratteri,ma può verificarsi,non si verifica sempre e comunuqe grazie e in relazione ad una serie di contingenze”.
Non potrebba postulare l’esistenza di altri meccanismi non ancora conosciuti? In fin dei conti, se una cosa che conosciamo non funziona, perché non cercare altrove? Mi ricorda tanto quelli che difendevano il geocentrismo complicando tutto con epicicli e cicli deferenti.
Se “complicare” diventa aggiungere cose che colmano i buchi,risolvono errori etc.. è qualcosa di ben gradito alla scienza,se “complicare” diventa aggiungere incertezza,indeterminazione e allontana sempre più dal concetto di teoria scientifica,beh allora è qualcosa di sgradito invece,o dovrebbe esserlo.
Si può fare “tutto”,senza dubbio bisognerebbe volerlo..è evidente che c’è la volontà di rwestare avvinti come l’edera al pardigma neodarwiniano.
Allo stato dei fatti in effetti parrebbe non esserci alternativa al credo che alcuni hanno da una parte e alla pseudo teoria che viene presentata dall’altra.
Il punto non è comunque quello.
Il punto è molto più umile,più semplice,più basilare…
Il punto è che viene presentata per evidenza, per certezza una teoria che neanche è teoria scientifica e che è fallace,insoddisfacente a spiegare il fenomeno che dovrebbe spiegare,e che,cosa che aggiunge male alla cosa,è servita e serve per giustificare,legittimare nefandezze a livello politico-economico-sociale.