Alessandro Curioni è sempre di fretta. O forse semplicemente dà questa impressione. Una laurea in Chimica Teorica e un dottorato alla Scuola Normale di Pisa, nelle scorse settimane ha ricevuto la nomina di vice president e direttore del centro di ricerca di Zurigo, dove opera da 22 anni, succedendo così a Matthias Kaiserswerth, dal primo maggio managing director della Fondazione Hasler. Lui è l’uomo che ha portato l’high performing computing nell’industria rendendo la ricerca della potenza di calcolo un business. E’  uno dei padri del supercomputer Blue-Gene, sul suo tavolo dalla superbatteria ai big data sono passati tutti i dossier più caldi della computer science. L’ho incontrato prima della sua nomina a direttore del più importante polo di ricerca europeo di Big Blue.

Dentro la camicia a quadri (brutta) che indossava una urgenza insolita di mettere ordine alle cose. Insolita perché, a differenza di molti boss dei colossi tecnologici sedotti dal lato oscuro del marketing aziendale. Curioni, già incontrato precedentemente, resta il prototipo del ricercatore moderno. Uno che sa stare con un piede nelle tecnologie e uno nel business.  Per tutta la chiacchierata (della durata di un quarto d’ora) non ha mai cercato di vendermi se stesso o il centro in cui lavora.  Ha provato a mettere in ordine le cose, anche in una materia complessa come i big data.

“Ci sono diverse dimensioni dei big data: dimensione, complessità e tempo. Tutte queste coordinate sono connesse al tipo di informazioni che si vanno studiare ma sopratutto alle logiche di business”. In che senso? “E’ il business che determina i tempi di risposta. Se studio come cambia il clima non ho bisogno di incanalare grandi quantità di dati in poco tempo, posso lavorare con altri margini. Se invece ragiono come un motore di ricerca devo concentrarmi sulla velocità. Il compito dello scienziato è anche quello di tenere conto di queste variabili”. La dimensione più importante e discriminante è però quella legata alla complessità.  Un conto, mi spiega il nuovo direttore del centro di ricerca di Zurigo sono i dati che cattura un telescopio puntato verso lo Spazio. In questo caso la forma è quello vettoriale. Diverso è il discorso se si analizza un knowledge graph, un grafo di conoscenza che possiamo immaginare come una mappa di connessione a più dimensioni. “Sono oggetti grossi – spiega – che hanno una immensa complessità interna.  Se costruiti bene sono in grado di rivelarci correlazioni non evidenti”. Qualche esempio? “Beh, prendiamo la scienza dei nuovi materiali. Lo cito perché è uno dei campi nuovi del big data che stiamo scoprendo in questi giorni. Partiamo da un materiale, raccogliamo tutto quello che sappiamo di lui. Le proprietà, le caratteristiche, gli studi, le pubblicazioni e i brevetti. Aggiungiamo altri materiali che possono avere una relazione. A questo punto proviamo a cambiare l’ordine delle cose, aggiungiamo un nodo alle mappe di conoscenza, avanziamo delle domande. Le simulazioni ci consentono di vedere correlazioni non evidenti”. A ben vedere, gli scienziati non ipotizzano, si pongono delle domande e agiscono sulla simulazione. Per usare una immagine più chiara, osservando come cambia il grafo individuano nuovi spunti per formulare nuove domande. E’ un processo dinamico e senza precedenti, sostiene Curioni.  Anzi, si corregge lo scienziato, quello dei Big Data non è un metodo ma un approccio alla ricerca. Certo, sottolinea, servono le ontologie giuste, servono scienziati esperti in grado di costruire le mappe in modo da suggerire alcune dinamiche di base. Ma la qualità della ricerca prima che nella capacità di elaborare ipotesi si concretizza nella formulazione delle domande. Proprio per questo, i big data oggi sono prima di tutto un approccio alla consocenza.