La democrazia è il governo del popolo, ma se le opinioni sono manipolabili resta solo una parola vuota.
.
Adesso è scientificamente dimostrato che le opinioni sono manipolabili.
.
Per una curiosa convergenza temporale negli ultimi mesi si sono succeduti due studi sulla possibilità di manipolare l’opinione pubblica mediante un’azione sui social network, ma in realtà si tratta di meccanismi validi anche al di là dell’ambito social. Il caso più noto riguarda lo studio condotto da Facebook su un campione di 155.000 utenti ignari di essere sottoposti ad un test per il quale è stato ritenuto sufficiente solo il generico consenso espresso da tutti gli utenti all’atto dell’apertura dell’account. Nulla sarebbe trapelato se lo studio non fosse stato pubblicato il 17 Giugno scorso su PNAS (Proceedings of the National Academy of Sciences) con il titolo “Experimental evidence of massive-scale emotional contagion through social networks“, dove un grafico mostra l’effetto sugli utenti della manipolazione dei feedback positivi/negativi:
Subito però si è passati dall’interesse alle proteste per la violazione dei diritti degli utenti del social, a fine Giugno la notizia varcava l’ambito accademico per approdare sulla stampa (vedi agenzia ANSA) e il 2 Luglio arrivavano delle poco convinte scuse, come documenta il Corriere della Sera, molto più critica verso l’atteggiamento della dirigenza di Facebook appare invece la CNN.
L’esperimento era in particolare teso a verificare la possibilità di condizionare gli utenti mediante l’esposizione a notizie filtrate, come riportato su Le Scienze:
Sui social network le emozioni, sia positive sia negative, passano efficacemente da un utente all’altro attraverso la semplice visualizzazione dei messaggi, influendo sul tono degli interventi successivi. E’ la prima volta che si riesce a dimostrare sperimentalmente che il fenomeno del contagio emotivo avviene anche attraverso il puro linguaggio scritto, privato delle sue componenti non verbali…
Per dare valenza sperimentale al loro studio, i ricercatori hanno agito sui filtri del News Feed di Facebook, ossia dell’algoritmo che seleziona i messaggi scritti dagli amici in base all’interesse individuale per certi contenuti, in modo che arrivino solo quelli presumibilmente più significativi. (Senza questi filtri un utente medio di Facebook sarebbe potenzialmente esposto a circa 1500 contenuti al giorno, mentre grazie a essi solo il 20 per cento circa dei messaggi finisce nella sua bacheca.) In questo modo Kramer e colleghi hanno potuto aumentare o diminuire il numero di messaggi positivi/negativi/neutri visualizzati da ciascun utente.
Che lo studio sia di interesse in campo politico e persino militare è ricavabile da una delle firme, Jeffrey T. Hancock della Cornell University già collaboratore della Minerva Initiative del Dipartimento della Difesa degli USA per il quale ha realizzato lo studio “Modeling Discourse and Social Dynamics in Authoritarian Regimes” (Modelli di discorsi e dinamiche sociali nei regimi autoritari). Dallo studio delle dinamiche sociali nei regimi autoritari alla verifica della possibilità di influenzare le dinamiche sociali in una direzione ritenuta desiderabile la distanza non è molta.
Inosservato era passato solo pochi mesi prima uno studio condotto sulle dinamiche di un altro importante social, in febbraio era stato infatti pubblicato sulla rivista Chaos e ripreso da Le Scienze uno studio condotto su Twitter:
L’opinione predominante, condivisa dalla maggioranza delle persone, emerge rapidamente su Twitter, qualunque sia l’argomento, e una volta stabilizzata difficilmente può cambiare. Lo ha scoperto una nuova analisi automatizzata, che potrebbe essere utilizzata per prevedere – ma forse anche per influenzare – come si orienterà l’opinione pubblica
Non solo l’opinione della maggioranza tende a convogliare ulteriori consensi, ma il dato più interessante è che basta un esiguo margine iniziale a favore per determinare grandi spostamenti di consensi, come riportato sempre su Le Scienze:
…sul lungo periodo, l’opinione che prevale è quella che all’inizio aveva un modesto vantaggio sulle altre. Questo fenomeno, tipico dei sistemi caotici, è denominato dipendenza sensibile dai dati iniziali o più volgarmente “effetto farfalla”, perché fu esemplificato da Edward Lorenz, pioniere della teoria del caos, in una celebre conferenza dal titolo “Il battito delle ali di una farfalla in Brasile può scatenare un tornado in Texas?”.
Graficamente la situazione è così riassunta:
Le dinamiche di maggioranza prevedono inoltre l’esistenza di uno “zoccolo duro” che non si uniformerà comunque all’opinione della maggioranza e che può essere accettato come un dato fisiologico che con la sua presenza ai livelli attesi potrebbe addirittura confermare il raggiungimento di una situazione di stabilità.
Le parole conclusive degli autori dell’esperimento, riferite alla fine dell’articolo su Le Scienze, non lasciano dubbi sul potenziale del meccanismo accertato:
Secondo i due ricercatori, il loro metodo di analisi potrebbe essere estremamente utile a politici e grandi società per analizzare le caratteristiche e gli schemi di evoluzione delle diverse opinioni, e quindi studiare come influenzare l’opinione pubblica a proprio favore.
Dopo i risultati degli esperimenti condotti su Facebook e Twitter, appare evidente il potenziale di controllo sociale esercitabile tramite semplici interventi effettuabili sui social network. Ma le dinamiche emerse confermano anche un meccanismo più generale secondo il quale l’opinione pubblica tende ad orientarsi nella direzione che ritiene essere quella della maggioranza, basta anche un margine iniziale minimo, e questo potrebbe valere anche nel caso dei sondaggi d’opinione o di una serie di articoli giornalistici che potrebbero generare l’opinione pubblica anziché misurarla o documentarla.
Si tratta quindi di un meccanismo di facile impiego e realizzazione, uno strumento che fornendo l’immagine desiderata degli orientamenti della maggioranza, potrebbe essere impiegato per creare quella stessa maggioranza che si vuole indicare come già esistente.
.
.
.
19 commenti
Cose che si erano dette,osservate,pensate,congetturate adesso hanno una base scientifica che le supporta.
Ma nulla di cui rallegrasrsi,era meglio aver preso una cantonata in questo caso..
Concordo Leonetto, sarebbe stato meglio sbagliarsi.
Ma adesso che la patologia è ufficiale è il momento di proporre qualche anticorpo.
Quello che un po’ mi sconvolge è che siamo già livelli di manipolazione tali per cui i diretti interessati possono rivelare candidamente e tranquillamente gli scopi della loro ricerca.
Certo, tanto su Facebook hanno detto che non c’è niente da preoccuparsi… 🙂
Prof. Pennetta,
ho capito l’esperimento su Twitter ma non quello su Facebook: non è tautologico verificare un cambiamento nei messaggi di un utente se gli vengono presentati solo post per lui “positivi” o “negativi”?
Come dice Leonetto in fondo si tratta di conferme a quanto già si poteva immaginare.
Orientare in modo ottimistico o pessimistico una massa di persone può essere utile in situazioni come la prossimità di elezioni o di discussioni parlamentari su provvedimenti impopolari.
Sapere che è davvero possibile però è diverso che immaginarlo, anche perché è la conferma di quello che i pubblicitari sanno da sempre, non contano i contenuti ma le emozioni.
Un anticorpo per il predominio dell’opinione della maggioranza: solo una crescita personale e interiore può crearlo. Principalmente perché l’individualismo moderno si riduce a reputare personali e proprie le opinioni condivise da tutti. La manipolazione sociale è esplicita non solo nei network come fecebook e similare. Un esempio:
Non è stato usato per i ragazzi, sequestrati e uccisi, d’Israele nemmeno la metà dell’inchiostro, caratteri e parole usati per trattare l’assassinato del ragazzo della Palestina. Perché è così? Perché un cadavere arabo serve al proselitismo politicamente conveniente, allineato alle milizie di opinione anti Israele che domina l’informazione occidentale. Un assassinato di un giudeo, specialmente se oriundo dal territorio occupato, diventa accettabile come si fosse un’azione compressibile della resistenza palestinese.
La libertà di spirito necessaria per individuare, in questa massa d’informazione, i fatti, non è cosa scontata. In questi tempi “al volgo non interessa essere libero, ma credersi tale”. (G.Davila)
Buongiorno Sig. D’amico,
condivido le considerazioni iniziali del suo intervento ma vorrei tenere il dibattito lontano da situazioni attualmente in corso e tragiche come quella israelo palestinese.
Al riguardo vorrei solo aggiungere che sull’esempio da lei portato da parte di molti osservatori l’asimmetria dell’informazione su quanto accade in Israele e Cisgiordania è vista esattamente in modo diametralmente opposto alla sua.
Pingback: Principi di manipolazione sociale | Lo Sai
le dinamiche emerse confermano anche un meccanismo più generale secondo il quale l’opinione pubblica tende ad orientarsi nella direzione che ritiene essere quella della maggioranza
Non vorrei essere interpretato come maleducato ma il principio sopra descritto è l’ABC di ogni spin-doctor.
L’esperimento di Asch, il conformismo
Secondo voi a chi è servito questo esperimento su facebook?
Meglio ancora, chi l’avrà mai commissionato?
Grazie per la segnalazione, l’esperimento di Ash ho visto che risale al 1956, all’epoca i mezzi per suscitare l’emulazione erano molto diversi.
Effettivamente i casi di Twitter e Facebook di cui abbiamo parlato sono delle conferme ottenute con i nuovi social.
Ma nell’esperimento ho visto anche dove potrebbero essere prodotti i possibili anticorpi di cui parlavo, se infatti basta la presenza di un altro parere simile al proprio per non uniformarsi alla massa, i numerosi mezzi di controinformazione presenti sulla rete potrebbero svolgere la stessa funzione favorendo il nascere e crescere di idee contrarie a quelle “mainstream”.
Forse passerò per matto ma, sono convinto che l’intelligenza umana vincerà su questi stupidi tentativi volti alla manipolazione mentale di massa , come da sempre avviene poi, e la storia mi da ragione ..in fondo non siamo automi come qualcuno sostiene.
Sono d’accordo con te Emanuel, la storia insegna che nessun meccanismo è perfetto, che l’essere umano non è prevedibile, credo che vinceremo contro questo totalitarismo tecnologico.
Ma la storia ci ha anche insegnato che queste vittorie hanno un caro prezzo, ed è quello che mi preoccupa.
Mi hai letto nel pensiero enzo , il problema è il prezzo da pagare per liberarsi da questa forme moderne di totalitarismo . Ti auguro una buona notte .
Grazie, ma prima segnalo questo articolo di oggi sul Guardian “US military studied how to influence Twitter users in Darpa-funded research” in cui si indica il DARPA (Defense Advanced Research Projects Agency ) dietro il tentativo di manipolare Twitter.
Qualcuno tenta un timido controllo sull’esperimento social.
Grazie per il link Luca.
Quello che però noto è che negli articoli di critica che ho finora letto al centro dell’attenzione c’è solo il fatto che Facebook non abbia avvisato gli utenti (cosa che del resto avrebbe reso non valido l’esperimento).
Ma in questo modo finiscono in secondo piano o sono del tutto evitate le discussioni sulle ricadute di possibili futuri impieghi di questa manipolazione dell’opinione pubblica in caso di tensioni sociali o altre emergenze o convenienze socio-politiche.
Pingback: La manipolazione sociale
Segnalo un articolo di Pierluigi Battista che sul Corriere fa un’apologia della manipolazione:
“Gli indignati della privacy“