La cosa più importante sull’Uomo è quello che non troverete alla mostra “Homo sapiens”.
Il pensiero dell’inventore del microprocessore.
Sarà ospite alla manifestazione BergamoScienza che si svolge fino al 21 ottobre, si tratta di Federico Faggin, uno degli uomini che più hanno lasciato il segno nel XX secolo e che meno hanno ricevuto il giusto riconoscimento per la loro opera.
Faggin è l’inventore del microprocessore, con il modello 4004 dell’Intel, commercializzato nel 1971 e che ha aperto l’era dell’informatica di massa. Il fatto è che Faggin ha adesso deciso di occuparsi del cervello umano, ovviamente egli si trova nella miglior posizione per poter comprendere le analogie e le differenze tra gli elaboratori elettronici e l’elaborazione della mente umana. Della cosa se ne è occupato Avvenire il 9 ottobre con un articolo intitolato L’inventore del “chip” alle prese con l’anima, da cui traiamo il seguente passaggio:
«Noi abbiamo la capacità di captare dai sensi le regolarità dell’informazione che ci attraversa, e da queste all’interno del nostro cervello sappiamo costruire un modello della realtà. Quanto all’architettura del sistema, a come ciò possa avvenire, però, abbiamo fatto pochi passi. Io mi sono buttato in quella direzione, con le reti neuronali già si potevano realizzare certe strutture di riconoscimento di immagine e della voce che erano molto meglio dei tradizionali modi dell’intelligenza artificiale top-down, ma dopo cinque anni mi è parso chiaro che non era possibile arrivare per quella strada a costruire un sistema cognitivo».
Faggin, che come pochi altri ha una comprensione profonda di quello che un computer può essere o non può essere, è giunto dunque alla conclusione che la capacità di costruire rappresentazioni della realtà non può essere ottenuta con delle reti neuronali, per quanto complesse. Ma non basta, di grande interesse è il seguito dell’intervista:
«Man mano che studiavo la neuroscienza mi chiedevo perché nessuno nominasse mai il problema della consapevolezza. Era come l’”elefante nella stanza”, come si dice in inglese, cioè qualcosa che è impossibile non notare, ma che nessuno voleva riconoscere. Come funzioni, che cosa sia la coscienza non lo sappiamo».
Ecco che con l’efficacissima metafora dell’ “elefante nella stanza” Faggin mostra lo stato delle cose nelle neuroscienze: esiste qualcosa chiamato consapevolezza, ma chi studia il cervello umano finge di non vedere questo “elefante nella stanza”.
A pochi giorni dall’episodio delle contestate affermazionidi Ian Tattersall non può non essere fatto un confronto tra le due affermazioni, ricordiamo infatti quanto ebbe a dire l’antropologo al meeting di Cl a Rimini:
…il punto di rottura, quello che caratterizza la comparsa dell’homo sapiens e la scomparsa di altre specie, per esempio dell’uomo di Neanderthal, evento avvenuto attorno a 200mila anni fa, è rappresentato dall’improvvisa apparizione di una nuova e straordinaria capacità: l’elaborazione simbolica”
La rappresentazione simbolica è la costruzione di un modello mentale della realtà, esiste dunque un collegamento stretto tra la capacità di elaborazione simbolica di cui parla Tattersall, e la capacità di costruire un modello della realtà, di cui parla Faggin.
Come sappiamo l’affermazione di Tattersall ha provocato una serie di reazioni da parte darwinista originate dal “timore” che si potesse pensare che l’Uomo sia qualcosa di più di un animale.
E così Tattersall ha dovuto ritrattare dicendo che si è sbagliato, che nella “stanza” davvero non c’è nessun elefante, che si è espresso male, sì è vero che ha parlato di barriti, di proboscide e zanne, ma questo non significa che quello che ha visto fosse un elefante.
E il mondo delle neuroscienze e della biologia evoluzionistica, soddisfatto del chiarimento, continua a studiare il mobilio… e a non vedere l’elefante nella stanza.
Ma per fortuna Faggin non è inserito in certi circuiti accademici, e da uomo libero può tranquillamente affermare che:
Pensiamo di essere delle macchine: siamo anche macchine, ma non solo delle macchine. Questo è il senso profondo della mia ricerca.
Però, ovviamente, viviamo in un modo scientifico e quindi asserzioni come questa devono essere provate: è il lavoro che abbiamo davanti
E allora non resta che augurare buon lavoro a Faggin.
25 commenti
Refuso: Modello 4004 non 404
Of course… corretto!
Piero, grazie per la segnalazione.
[OT]:
http://www.ilgiornale.it/news/esteri/nobel-pace-allue-cosa-ha-fatto-meritarlo-846058.html
NOBEL PER LA PACE ALL’UE!!!
O_O 8|
Dio, cosa aspetti ad incenerirci tutti come con Sodoma & Gomorra?
🙁
Da 1984:
L’ignoranza è forza, la guerra è pace, la libertà è schiavitù.
Adesso aggiungeremo anche: l’Europa ha dato la pace ai suoi popoli e agli altri.
Roba da fare impallidire Orwell!
Forse aspetta che l’UE riceva anche il Nobel per l’economia 😉 !
In effetti non e’ da tutti spremere sangue dalle rape (per darlo a ricchi banchieri)
Molto bene, vi segnalo questo interessante documento http://coe.bri.niigata-u.ac.jp/files/vtheory/IHBS_ch1_1.pdf
Grazie Riccardo, ho dato uno sguardo al documento, non ho potuto soffermarmi quanto avrei voluto, ma l’impressione è che sia uno studio che apre a delle interessanti possibilità.
Articolo molto interessante. Mi piacerebbe fare qualche osservazione da profano sperando di non dire fesserie.
Le prime considerazioni sono di carattere filosofico. Quando Faggin parla di consapevolezza mi viene in mente la polemica (relativa al linguaggio, ma non solo) fra innatismo e sensismo e l’impossibilità della ragione a stabilire una realtà oggettiva. La consapevolezza di cui parla Faggin a mio avviso è assimilabile per certi punti di vista all’idea dell’essere del beato Antonio Rosmini il quale afferma che questa realtà oggettiva ci è data da Dio, il resto è acquisibile tramite i sensi. (Ammetto che è una semplificazione brutale, ma per certi punti di vista penso renda l’idea).
La seconda considerazione è di natura informatica. Nel mio percorso di studi ho avuto modo di dare un paio d’esami interessanti. Linguaggi formali e compilatori e semantica dei linguaggi di programmazione. In realtà parlo da profano anche qui visto che, specialmente per quanto riguarda semantica, il corso prevedeva di affrontare solamente quella operazionale e non trattava minimamente quella assiomatica né quella denotazionale. Comunque sia, per dimostrare la coerenza semantica operazionale di un linguaggio, ci si basa in maniera pensante su dimostrazioni per induzione sulla struttura. Ora, noi sappiamo dai teoremi di incompletezza di Gödel che in un sistema formale sufficientemente potente da poter “comprendere” l’aritmetica sui numeri naturali esiste un enunciato vero che il sistema non può dimostrare e questo è un limite che la mente umana non ha. Il che, immagino, ha anche ripercussioni su problemi di calcolabilità come l’entscheidungsproblem e il problema di indecidibilità. Ora a me pare che la strada intrapresa dall’intelligenza artificiale con le reti neurali sia dare un’impostazione meramente sensistica della questione ignorando completamente questa “consapevolezza”.
Ripeto che non ho avuto modo di approfondire in maniera seria l’argomento, quindi se ho detto fesserie mi scuso in anticipo.
Luca, anch’io non sono specializzato in questo campo e preferisco fermarmi su considerazioni di carattere generale.
Comunque stavolta concordo con le sue riflessioni.
In effetti Enzo è una riflessione arguta ed interessante quella che fai.
Se da un lato l’automa,il robot tenda all’uomo mancando di autocoscienza e di coscienza, e nulla è n grado di dargliela,così come l’animale tende all’uomo mancando di capacità di elaborazione simbolica.Un automa elabora,reagisce,si “riprogramma” eventualmente,interagisce..ma presenta limiti che la mente umana non ha come giustamente esprime e ricorda Luca.Quando Luca scrive :
“Ora a me pare che la strada intrapresa dall’intelligenza artificiale con le reti neurali sia dare un’impostazione meramente sensistica della questione ignorando completamente questa “consapevolezza””
dice secondo me qualcosa di esatto e corrispondente al vero che condivido..
In effetti Enzo è una riflessione arguta ed interessante quella che fai.
Se da un lato l’automa,il robot tenda all’uomo mancando di autocoscienza e di coscienza, e nulla è n grado di dargliela,così come l’animale tende all’uomo mancando di capacità di elaborazione simbolica.
Ora,si era già detto circa l’impossibilità per un computer di pensare:
E si sono visti questi tipi di esperimenti:
Però arrivati a limiti invalicabili Tattersall e Faggin esprimono quelle che sono le conclusioni…
E pertanto quando Luca scrive :
“Ora a me pare che la strada intrapresa dall’intelligenza artificiale con le reti neurali sia dare un’impostazione meramente sensistica della questione ignorando completamente questa “consapevolezza””
dice secondo me qualcosa di esatto e corrispondente al vero che condivido..
Quando si parla di reti neurali(o neuronali che dirsi voglia)si parla di qualcosa legato ad un lento e non semplice processo di apprendimento,di addestramneto,nel quale la rete,per dirla brutalmente, impara a riconoscere un legame incognito che unisce,collega le variabili di input a quelle di output, ed e quindi in grado di fare delle previsioni anche laddove l’uscita non e nota a priori necessitando quindi di un’adeguata capacità di generalizzazione.L’addestramenteo avviene dietro opportuni algoritmi ed è una fase lenta ma il risultato è si qualcosa di sorprendente in grado di trattare dati in parallelo,di un sofisticato sistema di tipo statistico dotato di una buona immunita al rumore,ben protetta da eventuali blocchi di sistema.
I sistemi nervosi, al contrario dei calcolatori, non devono essere programmati per svolgere un compito, bens imparano autonomamente in base all’esperienza o con l’aiuto di un istruttore esterno.
Questo credo sia parte di ciò che intende Faggin.Un’elaboratore è sempre un elaboratore..l’uomo è più di un elaboratore.
E simili esempi di tecnologia,che trovano applicazioni varie non solo in economia,in sistemi di riconoscimento e sicurezza,ma anche nel campo della bioinformatica, dove per esempio sono utilizzate per la ricerca di pattern funzionali e/o strutturali in proteine e acidi nucleici..creati non sono lontanamente paragonabili alla mente che dovrebbe esser frutto di un meccanismo caso-necessità -contingenza?
Veramente un articolo interessante Enzo!
P.S.
http://www.enzopennetta.it/2012/07/avvisaglie-transumaniste/#comment-5997
http://www.algerimazzucchelli.it/progetti/osservatorio-su-psicologia-e-nuove-tecnologie/robotica/208-i-primi-robot-col-cervello-biologico.html
Ed anche azioni che possono apparire di una certa banalità come può essere utilizzare una routine,un processo,un azione imparata,vista,sperimentata in un contesto diverso per una AI diventa qualcosa di estremamente non banale .Richiede comunque un addestramento accurato per far si che dall’analisi dei dati del contesto riesca a ricondursi ad un processo input output svolto e/o memorizzato in precedenza trovando quindi poi in quel contesto una soluzione.
In buona sostanza il fatto è che chi va a progettare,programmare una AI di fatto usa il proprio pensiero simbolico,la propria capacità d’astrazione,il ragionamento logico-matematico per “tradurre ” la realtà in qualcosa che possa essere elaborato e con il fine di dare certi risultati.
Dennet,alcuni lo ricorderanno collegato a Dawkins in diverse vicende circa il neodarwinismo,si è mostrato in più occasioni un fiero sostenitore dell’idea che la supremazia,diciamo così,del cervello sul resto dell’organismo umano altro non fosse che una falsa illusione dell’uomo sempre volto a pensieri antropocentrici.Infatti sosteneva che,in linea con alcune linne di pensiero cognitiviste(es.H.L.Dreyfus),l’attività mentale umana potesse essere descritta in termini di operazioni logiche complesse e di rappresentazzioni logico-formali,e quindi l’ovvia conclusione che sarebbe in linea teorica costruire o comunque progettare computer in grado di dare sfoggio della stessa qualità mentale umana.
L’idea insomma dell’uomo come “macchina pensante”.
Il pensare ed il “simulare”(con tutto quanto ciò concerne) si trovano su due piani diversi,non sono per nulla interscambiabili e nessuna operazione di simulazione o insieme di operazioni di simulazione per quanto differenziate,numerose,veloci ed efficienti potranno arrivare ad eguagliare l’attività del pensare.
Il cervello umano è una macchina parallela, nel senso che i segnali vengono elaborati simultaneamente in milioni di segnali diversi;migliaia di segnali distinti vengono elaborati collettivamente e simultaneamente e non vengono utilizzati blocchi di 8,16,32 elementi come in un calcolatore;la risposta del neurone ai segnali in input è analogica,non digitale(la frq degli impulsi in output varia con continuità in funzione dei segnali in ingresso;
L’esistenza degli assoni(http://it.wikipedia.org/wiki/Assone) rende il cervello un vero e proprio “sistema dinamico”.
Difficile dare ragione a Dennet e non a Faggin…
Avevo risposto al tuo primo intervento mentre tu scrivevi questo.
Dopo averlo letto devo aggiungere che il confronto che evidenzi tra un’impostazione alla Dennett e una alla Faggin-Tattersall, merita la massima attenzione.
Effettivamente sembra che l’idea di una mente espressa con operazioni logico – matematiche non sia più sostenibile, se mai lo era stata.
La posizione riduzionista alla Dennett dovrebbe quindi lasciare il posto ad un’idea di salto “quantizzato” e a una differenza di qualità più che quantità, della mente umana rispetto a quella di altri mammiferi.
Ma non credo che sarà così semplice che questo venga accettato.
Mah..che si sia proprio “sostenuto” francamente non lo so,sicuramente nell’escalation di sviluppo dell’elettronica,dell’informatica,della teoria dell’informazione e ricerca operativa è stato il grande obiettivo,la grande montagna da scalare.Si conquistava una vetta e ci si preparava a salire più in alto..ancora più in alto…eppure la cima del monte è lontana oggi quanto lo era prima..
Ricollegandosi al neodarwinismo e alle scienze naturali,mi sembra abbastanza condiviso da tutti che la mente umana non è un fatto di ordine puramente biologico,infatti, soprattutto,essa rappresnta il risultato di una continua interazione fra strutture e funzioni del cervello, esperienze personali ed interpersonali pregresse, in vista poi della creazione di altre relazioni ed interazioni con l’ambiente.
Il salto quindi fra l’uomo e un non-uomo è certamente di tipo qualitativo ed anche abbastanza notevole,e non puramente quantitativo.
In verità la più intelligente delle macchine create o da creare non è poi così “intelligente”..
In relazione alla semantica, che nominava poco sopra Luca,infatti,si può senz’altro dire che un computer,un bot,un robot,un sistema di microprocessori,un sistema aperto,insomma un”AI” dispone unicamente di una competenza sintattica nel combinare simboli, non dell’umana competenza semantica, che consenta di attribuire significato a quei simboli su cui si va ad operare.Nell’elaborazione c’è applicazione di determinate istruzioni o regole,c’è acquisizione di dati,simulazioni su “situazioni” memorizzate ma non si può veramente più pensare che una visione ben accolta da Dennet sia oggi proponibile.
Ed appunto questo è ancor più importante se si va a valutare quanto ha detto e scritto Tattersall..altro che abiura!
Si vede nientemeno che il medesimo salto qualitativo..che contraddistingue l'”homo” dalla sua comparsa..e crea un abisso con le scimmie australopitecine..
Non posso tuttavia che non concordare nuovamente con te Enzo:
“Ma non credo che sarà così semplice che questo venga accettato.”
E direi che anche Faggin è ben cosciente di questa cosa..e Tattersall forse anche più che Faggin..
” Faggin è ben cosciente di questa cosa..e Tattersall forse anche più che Faggin..”
Credo proprio che tu abbia ragione!
Ciao Leonetto,
quando si parla d’informatica mi faccio da parte e lascio a te il campo!
Grazie per l’intervento che mi ha fatto capire la differenza tra l’apprendimento delle reti neurali e quello del cervello.
L’ipotesi di vedere la consapevolezza come effetto collaterale di una macchina particolarmente complessa (come il cervello umano) non è stata ancora del tutto esclusa, matematicamente parlando.
Il limite all’intelligenza algoritmica, posto dai teoremi di incompletezza di Gödel, fu spiegato considerando che l’intelligenza umana può sbagliare e quindi comprendere cose false. Sa un po’ da arrampicata sugli specchi, ma formalmente ha un senso. (aggiungo che Gödel era convinto che l’uomo avesse anche un’intelligenza intuitiva, che non era riconducibile a puro calcolo)
La mia opinione è che il materialismo e il meccanicismo in questo ultimo secolo ha preso tante e tali “sberle”, che oramai si dovrebbe cominciare a rivedere il pensiero illuminista e positivista che ancora oggi è imperante in molti ambienti scientifici.
Personalmente ho l’animo in pace. Le mie risposte le ho avute seguendo altre vie.
Platone scrisse che Atlantide affondò per la corruzione e il materialismo. Rivedo entrambe molto diffuse nei nostri tempi, ma percepisco anche una grossa spinta in senso opposto.
Spero per il bene dell’umanità, che la scienza ritrovi un connubio con la spiritualità, come fu nell’antica Grecia, non limitandosi a vicenda, come pensano in molti, ma trovando una sinergia in comune.
In questo non posso che ringraziare voi, per il vostro lavoro, e Federico Faggin, che antepongono la ricerca della verità a dei preconcetti che spesso fanno il gioco di determinati interessi che oramai ben conosciamo.
L’altro giorno mia madre ha sentito dire che “ormai è scientificamente dimostrato che gli animali sono dotati di autocoscienza” e si è scandalizzata, pensare che poi questa possa essere attribuita ad una macchina, per quanto perfezionata e potente mi sembra assurdo ma credo che non dovremo aspettare poi molto per sentire alla radio che “l’aspirapolvere è dotato di autocoscienza”.
Per quanto riguarda il nobel per la pace all’europa, mah, è un po’ come assegnare il nobel per la pace “postumo” a Jack lo squartatore, in fin dei conti le sue vittime hanno raggiunto effettivamente la pace ………….. quella eterna. E’ solo una questione di punti di vista e in un mondo dove le guerre coloniali vengono chiamate “missioni di pace” mi sembra che il fatto in questione sia perfettamente in linea.
Sì, Orwell è il nostro elefante nella stanza in questo momento in cui si sta realizzando la democrazia matura del “Tutti gli animali sono uguali ma alcuni sono più uguali degli altri”: Vedere sentenza della corte costituzionale sulla riduzione degli stipendi di giudici e manager pubblici.
p.s. l’utilizzo di iniziali minuscole è assolutamente intenzionale.
Ciao Valentino, d’accordo su quello che dici, ma in particolare sulla frase:
“Sì, Orwell è il nostro elefante nella stanza in questo momento…”
Questa metafora si sta rivelando assolutamente efficace in diversi campi!
Non solo Tattersall e Faggin, ma proprio (udite, udite) i piu’ recenti esperimenti nel campo delle neuroscienze (2012) confermano questo “salto” tra l’uomo e gli animali, e – cio’ che appare ancora piu’ notevole – lo individuano nel linguaggio simbolico, ovvero nella stessa frontiera individuata da Faggin e Tattersall.
Ci sono quindi almeno 3 scienze che si stanno accorgendo dell’elefante in camera e che condividono la causa che l’ha portato.
Su queste scoperte recenti da parte delle neuroscienze sto preparando un articolo, Enzo.
Molto bene Giorgio, ma vallo un po’ a spiegare a Pendesini su uccr se ti riesce 🙂
mission impossible!
Caro Francesco, mi puoi cortesemente spiegare in modo scientifico (visto che con certi tipi e’ difficile parlare scientificamente) questo dannato esperimento di Libet che tanta meraviglia suscita in Antonio72, tanto che presupporrebbe (secondo lui) una eccezione del meccanismo di causa-effetto??
Grazie.
Senza togliere il diritto a Francesco di risponderLe su Libet in questa sede, Le anticipo, Piero, che anche di questo parlero’ nell’articolo di neuroscienze che ho preannunciato.
Ma che UCCR, ormai lo ha detto a me! 😎
Magari si potrebbe mettere in contemporanea…
Grazie Giorgio, ovviamente sono impaziente di leggerlo, quando sarà pronto lo pubblicheremo subito.