A febbraio è uscita la notizia della nuova mappa epigenetica, pubblicata in 24 articoli sulle riviste del gruppo Nature. Lo studio non si limita infatti a guardare i geni, ma anche le istruzioni che li governano. Liberamente accessibile in un database online, è frutto del lavoro di un consorzio di biologi e informatici chiamato Roadmap dell’epigenetica, il più grande progetto nel campo della genetica da quando nel 2000 è stato decodificato il Dna, il libro della vita. Sei anni fa l’analisi completa del Dna costava qualcosa come 10omila dollari. Nel 2013 il prezzo è bruscamente sceso a 20mila dollari. A settembre dell’anno scorso la notizia di un sequenziatore del Dna da 1000 dollari. La medicina da laboratorio è convinta che non sia finita. E che i prezzi per l’analisi del propri geni scenderanno addirittura al di sotto dei 100 dollari. Anzi, a ben vedere ci sono non solo piccole startup che credono nel business dei test. Gene Plantet sta in Inghilterra e offre test genetici per 500 sterline circa. Dna Ancesty  per 99 dollari si limita a ricostruire l’albero genealogico per scoprire da dove viene la tua famiglia. Ma la più spavalda di tutte è 23andMe: per 199 dollari ti invia a casa un kit di lettura del Dna e sopo 15 giorni ricevi sequenza, diagnosi e l’accesso al tuo database. Oggi quella banca dati varrebbe 60 milioni di dollari.

“Il Presidente Barack Obama – ricorda Massimiliano Boggetti presidente di Assodiagnostici- ha lanciato negli Stati Uniti d’America, a gennaio, un progetto finanziato con 200 milioni di dollari per avviare una nuova iniziativa di ricerca sulla Medicina di Precisione (l’evoluzione ulteriore della Medicina Predittiva e della Farmacogenomica): il progetto mira ad analizzare i dati genetici di un milione di americani, oltre a raccogliere informazioni dettagliate sul loro stile di vita e sulla salute, per creare conoscenze specifiche sui legami tra geni, ambiente e malattie”.

“L’evoluzione verso la medicina predittiva – aggiunge – richiede tecniche di diagnostica molto più efficienti di quelle tradizionalmente in uso; entro il prossimo decennio saranno quindi disponibili nuove tecnologie basate anche sulle nanotecnologie, in grado di eseguire migliaia di esami molto rapidamente e di valutare la predisposizione all’insorgenza di patologie complesse. I pazienti accederanno a diagnosi e prescrizioni rapide, favorendo l’accettazione e la comprensione del valore dell’innovazione tecnologica”.

E’ chiaro che ad aumentare  in maniera esponenziale saranno anche i dati  a disposizione.  Tanto da spingere gli osservatori delle cose tecnologiche a ipotizzare per la genetica una sorta di legge di Moore. Paradossalmente però il collo di bottiglia non è nelle macchine o nei limiti dei materiali bensì nell’analisi dei Big data. “Possedere una foto chiara e dettaglia del proprio patrimonio genetico serve a poco – commenta Francesco Stellacci professore di scienza dei materiali e bioingegneria al Politecnico Federale di Losanna. “Il dna di una persona non è statico, molte malattie derivano da mutazioni. I sequenziamenti completi che vengono venduti pongono un problema di interpretazione”. Come dire, servono domande per analizzare i dati. Domande (informazioni epidemiologiche, per esempio) e dati da incrociare perché sono davvero poche le malattie che dipendono da un solo gene. “Il sequenziamento da solo non basta”, sottolinea Stellacci. Servono informazioni sull’incidenza delle malattie, sulle caratteristiche della popolazione di riferimento, sull’alimentazione e tutte le variabili che gli scienziati ritengono utili per valutare le probabilità legate all’insorgere di una patologia. Serve, per dirla in modo più largo il contesto che oggi può essere “sezionato” e  introdotto negli studi attraverso le analisi dei Big data.

Ed è proprio questo il limite. Soprattutto quando si lavora con dati sensibili come quelli della salute insorgono problemi legati non tanto e non solo alla privacy ma alla capacità di raccolta e standardizzazione del dato. Le strutture che dispongono di informazioni sulla salute (Ospedali, Università, laboratori ecc) non dispongono di strumenti di storage per raccogliere queste informazioni. Ma più che altro, non esiste un set di regole standard per poter incrociare queste informazioni. “Fuori dall’Italia molti dei sistemi sanitari si basano sulle assicurazioni. Occorre per esempio mettere in sicurezza i dati sensibili in modo che chi domani decide quanto dovrai pagare la polizza non abbia tutte le informazioni della tua famiglia. Ma il vero nodo, sottolinea Stellacci, sono gli standard. E qui il consiglio dello scienziato italiano è guardare ai giganti tecnologici che di mestiere stanno imparando a usare i Big data.