Tra qualche anno le reti neurali abiteranno i cellulari, rendendo possibili operazioni che oggi non sono alla portata dei dispositivi mobili. E’ ciò che promette una ricerca del Massachusetts Institute of Technology, dove Avishek Biswas e Anantha P. Chandrakasan hanno realizzato un chip che riduce drasticamente l’energia necessaria al funzionamento di una rete neurale, aprendo quindi le porte al suo utilizzo negli apparecchi elettronici portatili. I due autori del progetto hanno presentato il loro risultato durante l’ultima “International Solid State Circuits Conference” che si è tenuta a metà febbraio a San Francisco.

Le reti neurali sono utilizzate in una vasta gamma di applicazioni nelle quali risulta fondamentale servirsi di un processo di autoapprendimento che simula il comportamento del cervello. Tale processo di autoapprendimento si basa su approssimazioni successive e su calcoli in parallelo e permette, ad esempio, a una rete neurale di imparare a riconoscere il linguaggio parlato o interpretare correttamente foto e disegni.

In particolare, i due studiosi hanno lavorato sulle “reti neurali convoluzionali”, ossia su modelli di rete neurali ispirate proprio alla corteccia visiva e che sono utilizzate nel riconoscimento degli oggetti e delle immagini in generale. Queste reti hanno già dimostrato la loro efficacia in diverse applicazioni per il mondo reale, tra cui la realtà virtuale e quella aumentata. Il loro limite principale risiede tuttavia nell’enorme capacità computazionale richiesta a causa della necessità di elaborare grandi quantità di dati in parallelo.

Biswas e Chandrakasan sono invece riusciti a ridurre questo consumo energetico del 94-95 %, aumentando nel contempo la velocità di elaborazione fino a sette volte. Come ha spiegato Avishek Biswas al Sole 24 Ore, questo risultato si è basato fondamentalmente sull’idea di “implementare la computazione nella memoria”. In pratica, normalmente la memoria e il processore risiedono in due parti distinte del chip, e per effettuare i calcoli occorre “trasferire i dati avanti e indietro” tra questi due poli.

L’idea dei due ricercatori è stata quella di ridurre la computazione a una specifica operazione logica, il “dot product”, che è stata implementata direttamente nella parte del chip dove risiede la memoria, diminuendo quindi la necessità di muovere ingenti quantità di dati all’interno del medesimo chip.

Il dot product è la somma sui risultati delle moltiplicazioni provenienti da altri nodi che rappresentano gli input da elaborare. Il chip dei due ricercatori riesce a eseguire questa operazione su sedici nodi alla volta, evitando così di trasferire i dati avanti e indietro per elaborare ciascun singolo prodotto.

Il chip è stato testato attraverso il riconoscimento di cento diverse immagini, ottenendo un tasso di errore dell’1%. Il risultato, come chiarisce Biswas, è quello di avere un hardware “più veloce e a bassa potenza”. Uno strumento di questo tipo potrebbe essere utilizzato per utilizzare le reti neurali su strumenti che hanno precisi vincoli energetici, come gli smartphone o l’elettronica indossabile. Ad oggi, continua Biswas, “abbiamo già fabbricato un chip di test ed effettuato misure reali”, ma ciò che è stato ottenuto, dopo oltre un anno di lavoro, è solamente “una prova di concetto”, ossia che l’idea è realizzabile e funziona.

Anche per questo, racconta il ricercatore “attualmente non stiamo considerando la commercializzazione “ del chip, né è stata contattata alcuna azienda.

Il traguardo non è quindi dietro l’angolo, anche se la strada sembra tracciata. L’obiettivo è una generazione ancora più potente di dispositivi elettronici portatili, capaci davvero di riconoscere oggetti o persone, o ancora di tradurre istantaneamente lingue diverse.