Fenomenologia dei Big Data: cosa sono e perché stanno cambiando il mondo.

In viaggio tra economia, scienza e filosofia per scoprire i Big Data.

Informazioni, non m’importa come,
non m’importa dove le ottieni…
ottienile… tu mi devi stupire!
Gordon Gekko

gekoGekko, il super manager interpretato da Michael Douglas nel film di Oliver Stone, Wall Street (1987), sarebbe sicuramente stupito dalla quantità e della qualità dell’informazione disponibile oggigiorno.

Come lo sono i Facebook, i Google e i vari servizi istituzionali e non, che in tale stupore si perdono mentre si trovano a constatare la verità del celebre motto di Francesco Bacone: «la conoscenza è potere».
D’altronde quest’ultimo è un concetto particolarmente radicato nel comportamento umano: fin dagli albori dell’umanità ci sono sempre state caste, categorie e professioni che facevano in modo di essere le uniche ad avere accesso all’informazione.

Quando nel XVI secolo il movimento della Riforma mise in crisi la chiesa cattolica, poté farlo perché la stampa aveva iniziato a diffondersi ed a permettere un accesso sempre più generalizzato alle informazioni. Come abbiamo imparato dal magistrale lavoro di Harold Innis su Impero e Comunicazioni, ogni cambiamento del supporto materiale dell’informazione indica un mutamento di stato dell’informazione di cui è portatore, determinandone le modalità di accesso e condivisione.
Nel 2000, secondo i calcoli di Martin Hilbert, che insegna alla Annenberg School for Communication and Journalism dell’università della California del Sud, il 25% delle informazioni registrate nel mondo era in formato digitale, mentre il 75% era analogico, su carta, pellicola, plastica magnetizzata, e così via. Nel 2013, il 98% delle informazioni registrate nel mondo era in formato digitale, mentre i vari supporti analogici, dalla carta alla plastica, si dividevano solo il restante 2%.

Seppure difficilmente dimostrabili in modo assoluto, i calcoli di Hilbert sono probabilmente veritieri. È infatti evidente che i dati digitali abbiano nettamente sorpassato i dati analogici, facendolo tra l’altro ad una velocità straordinaria.
Ogni attività svolta online, consapevolmente o meno, da due miliardi e mezzo di persone lascia dunque tracce digitali.

Lo stesso avviene a chi va in macchina con il navigatore satellitare, a chi paga con le carte di credito, a chi segue la tv digitale o a che gira con lo smartphone, magari passeggiando davanti ad una telecamera, e così discorrendo. Tutto ciò, unito all’enorme massa di dati che l’IoT è pronta a fornire, restituisce una mole di informazioni abnorme.
Il “volume” di tali informazioni da solo non illustra però il concetto di Big Data.

La nuova era dell’analitica, in effetti, verte sulla varietà e sulla velocità dei dati che consentono di prendere decisioni importanti.
Il cambiamento non riguarda quindi solo il modo di comunicare, elaborare e immagazzinare le informazioni. Il cambiamento riguarda il concetto stesso di informazione.  I big data hanno infatti la capacità di disvelare l’intima natura informazionale della realtà fisica.

A ben vedere, costituiscono l’anello di congiunzione tra pshysis e techné. John Archibald Wheeler, eminente fisico, ha coniato l’espressione it from bit, per indicare che la natura ultima della realtà fisica, “ciò che è”, è di natura informazionale, proveniente dai bit. Ora non voglio alimentare la metafora, che pure è particolarmente dibattuta tra i matematici e i filosofi, dell’universo come sorta di grande computer digitale, caratterizzato da impellenti stati computazionali.matrix
Quello che voglio mettere in risalto è invece la possibilità insita nel big data che, sulla scorta del lavoro di Weiner e dello stesso Wheeler, ci permette di interpretare la realtà come costituita da entità strutturali, indipendenti dalla mente, che sono insiemi coerenti di dati, compresi a loro volta a posteriori come punti relazionali, in un modo che la mente e le analisi statistiche tradizionali non riuscirebbero a cogliere vista la loro mancanza di uniformità. La potenza algoritmica permette tale comprensione facendo emergere in superficie il battito del mondo e dell’individuo in quanto info-mondo e info-corpo. Naturalmente in questo vi è qualcosa di magico: i big data estrapolano attivamente i dati (sensoriali) processandoli in modo costruttivo.

Nessun consesso di matematici, sociologi e statistici, anche avendo per paradosso a disposizione il tempo e il materiale necessario, avrebbe la possibilità di eguagliare i risultati che i big data consentono.
Per una ragione abbastanza semplice, che Gregory Bateson aveva ben compreso: la natura cibernetica dell’io e del mondo tende ad essere non percepita dalla coscienza, in quanto i contenuti dello “schermo” della coscienza sono determinati da considerazioni di finalità. In pratica, il nostro campionamento cosciente di dati non ci paleserà circuiti completi, ma solo archi di circuiti, rescissi dalla loro matrice grazie alla nostra attenzione selettiva.
I Big Data pemettono invece l’emersione a livello cosciente di un insieme di dati che, per la loro stessa natura, sono inconsci, velati rispetto alla loro interpretazione cosciente. In questo contesto, algoritmi matematici che inseriscono coefficienti sconosciuti davanti a funzioni non lineari sono estremamente efficaci.

Tutto ciò sembra attualizzare quell’ambizione che il gran matematico Pierre-Simon Laplace manifestò già nel XVII secolo, secondo cui avrebbe potuto, se in possesso di tutti i “dati” sullo stato del mondo, predire ogni suo stato successivo.

crisGli entusiasti come Chris Anderson hanno parlato in tal senso di “fine della teoria”. La loro idea è che, se possiamo disporre di masse enormi di dati sull’universo di riferimento invece che di campioni, potremo limitarci a osservare la realtà invece di ipotizzare e teorizzare.

Bel modo alquanto superficiale e naïf per predire la fine della teoria proprio con una teoria!

In realtà l’inferenza da molti o pochi dati cambia il modo con il quale si arriva all’ipotesi e alla teoria, non cambia la sostanza ipotetica di ciò che impariamo dai dati.
Da un punto di vista sociologico, se è vero che il concetto stesso di “campionamento” viene superato, è evidente che i big data impongono domande nuove e nuove tecniche di interpretazione. Insomma, non ci troviamo di fronte a dati che parlano da soli, ma a dati che richiedono nuove forme di osservazione.
In tutto ciò c’è un rovesciamento del tradizionale modus operandi statistico, che cerca risposte a domande ben precise, basate su ipotesi aprioristiche. Con i big data avviene l’opposto: l’analisi dei dati fa emergere qualcosa che è già nella forma della risposta, una risposta che abbisogna solo di essere adottata dalla domanda più opportuna (e anche questa è teoria).

Basta cioè sviluppare un programma che sceglie configurazioni di dati competenti per estrarre un’informazione pertinente.
Che i big data abbiano allora una funzione predittiva capace di cogliere i cambiamenti stocastici a lungo termine, è quindi un’affermazione, per ora, troppo azzardata da sostenere.

Mi chiedo cosa ne penserebbe Weber, convinto anti-positivista, che riconosceva nella comprensione dei fenomeni sociali un’attività particolare che differenzierebbe la sociologia da ogni altra scienza. In particolare, Weber riteneva compito delle scienze sociali non fermarsi alla spiegazione, al trovare le cause, ma il procedere verso la comprensione, trovando cioè il significato. Un naturista può, ad esempio, sapere tutto di un albero ma, sicuramente, non come si sente. Questo è il lavoro del sociologo, capire gli oggetti di studio. Come possono i big data facilitare la comprensione del sociale?

Possono farlo, per rimanere a tema con l’esempio precedente, mostrandoci tutti gli “alberi” che ci interessano, senza distinzione. Possono anche, sezionandoli in modo inedito e inaccessibile all’osservatore umano, proporre delle possibilità di significato e di comprensione che l’occhio nudo, per quanto addestrato, non riconoscerebbe. Forse tra qualche anno ci guarderemo dal futuro e sorrideremo alle incertezze con cui stiamo accogliendo e trattando, probabilmente anche sbagliando, il fenomeno dei big data. I big data in tal senso conservano un potenziale capace di modificare in modo consistenze la concezione di intelligenza e il concetto stesso di epistème, passando dal “perché” (il τί έστι, il «cosa è?» socratico) al “come” e trovando nella modifica del concetto lineare e euclideo di inferenza una forte ragione di contrapposizione.
Quello che è certo è che, se pensiamo l’ambiente esterno come ecologia informazionale, ci troviamo nell’inedita possibilità di “fotografare” di volta in volta lo stato del mondo preso in quel determinato momento, e nell’opportunità di modificare in modo pertinente e in real time gli stessi sistemi informativi che sostengono l’ecologia informazionale che stiamo creando.

In tal senso, mi sembra rilevante un altro concetto proposto da De Kerckhove, quello della rete come sistema limbicoglobalizzazioneglobalizzato. In anatomia, il sistema limbico comprende alcune regioni del diencefalo e del telencefalo che coordinano le afferenze sensoriali con le reazioni corporee e le necessità viscerali, che rappresentano il luogo di origini delle emozioni.
Internet come ambiente cognitivo si caratterizzerebbe sempre più come spazio linguistico afferente alla sfera emozionale. In tal senso, anche la constatazione metodologica weberiana che abbiamo precedentemente ricordato, si arricchisce di nuovi orizzonti di senso. Se la persona reale si trasla sempre più nella persona virtuale, se gran parte della sua sfera identitaria e emozionale è rintracciabile online, possiamo continuare a studiare il comportamento umano basandoci solo su meccanismi lineari di inferenza e osservazione?

Evidentemente no.

La rete spezzetta, aumenta, sottrae al corpo porzioni identitarie e emozionali. Da questo punto di vista, i big data presentano, con le loro possibilità di ricostruzione di fenomeni di per sé magmatici, un’enorme opportunità per le scienze sociali.
Ma rappresentano anche possibilità inedite di controllo sociale. Rendono quantomeno plausibile quel panopticon profetizzato da Jeremy Bentham, ad uso e consumo di governi e multinazionali. Anche in questo caso ci troviamo di fronte ad evoluzioni tecnologiche che non portano in sé elementi definitori, ma che si caratterizzano invece per la loro natura di farmakon, che in greco significa sia “cura” che “veleno”. Come tali saranno di volta in volta utilizzati. Evidentemente, una nuova etica introdurrà nuovi elementi di problematizzazione.

Esemplare è il caso del Google Flu Trends che, analizzando il comportamento degli utenti, all’inizio riusciva a mappare la diffusione della sindrome influenzale meglio dei Centers for Disease Control and Prevention. All’improvviso, lo strumento iniziò ad avere margini di errore enormi, anche del 50%. Forse, tutto questo, è imputabile al cambiamento di abitus dell’utente stesso che, diventato sempre più consapevole dell’osservazione ricevuta, ha modificato il suo atteggiamento online. Senza contare che questa pretesa predittiva che si vuole per forza di cose affibbiare al big data, può generare un circolo virtuoso tale da limitarne la portata. Questa pretesa di attualizzazione del non-ancora del futuro può infatti generare quell’effetto che Merton e Walzlawick definirono profezia che si auto-adempie. Nel 2008, l’annus horribilis della crisi degli istituti di credito USA, Johan Bollen, professore di informatica presso la Indiana University, ha scoperto delle correlazioni tra i tweet e l’andamento di Wall Street. Analizzando una parte dei 300 milioni di tweet che ogni giorno vengono scambiati sulla piattaforma di microblogging, il team di Bollen elaborò tramite degli algoritmi le parole chiave più frequenti, ordinandole su una scala (calmo, preoccupato, sicuro, vitale, gentile e felice) che indicava lo stato d’animo prevalente in Rete. Successivamente, dimostrò che la borsa si adeguava agli umori virtuali nel giro di pochi giorni.
A trasformarla in una ricetta per fare soldi, ci ha pensato il consulente finanziario Paul Hawtin della Derwent Capital Markets, che ha finanziato gli sviluppi della ricerca di Bollen con un fondo di 30 milioni di euro, assicurandosi l’esclusiva commerciale del metodo d’analisi.
I risultati sono sorprendenti: l’umore espresso dai tweet, elaborato dai server dell’università e trasmesso alle sedi londinesi della società di Hawtin, corrisponde nel 90% dei casi all’andamento dell’indice Down Jones nelle 48-72 ore successive.
È evidente che non importa se i dati siano veritieri o meno, almeno fino a quando sono considerati tali dalla società di Hawtin.
Ipotizziamo infatti un’adesione massiva a questo modo di approcciare la finanza: se i dati così ottenuti risultano evidenziare un imminente crollo, gli investitori possono perdere fiducia e mettere in atto una serie di reazioni che possono causare realmente il crollo: appunto una profezia che si autoadempie.
Questo ragionamento è complementare a tutto ciò che riguarda il cosiddetto inconscio digitale. Probabilmente, nei prossimi anni assisteremo ad uno svilupparsi degli studi sui big data che porteranno ad una rivoluzione della psicologia sull’inconscio digitale paragonabile a quella freudiana sull’inconscio umano.
Quando saremo pronti a cogliere le implicazioni della nostra immersione nel nuovo mondo immateriale, queste considerazioni saranno pressoché risibili.

Allora il passaggio dal perché “alfabetizzato” al come “cibernetico” sarà compiuto e definitivo, e potremo addirittura contraddire il grande Weber.

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...