Un robot che sa condire l’insalata è una cosa molto più seria di quanto possiamo immaginare. È infatti una delle ultime frontiere applicative di una branca dell’intelligenza artificiale- il deep learning (apprendimento approfondito)- che promette di avere grossi impatti in molti campi.

Finora il deep learning ha prodotti importanti sviluppi nel mondo di internet (nel riconoscimento vocale e delle immagini). Adesso comincia a mostrare applicazioni anche fuori dalla rete. Soprattutto con robot, proprio come quello che condisce l’insalata. Si chiama Julia e l’ha realizzato il mese scorso un team dell’università del Maryland. La particolarità è che il robot ha imparato la tecnica del condimento vedendo video di Youtube. E non è facile perché il robot non ha un buon sistema di feedback per capire se sta uscendo troppo olio e aceto o troppo poco. Anche togliere il tappo dalla bottiglia è stato un impresa. Ma forse la sfida maggiore è stato spremere il tubetto della maionese, ha fatto sapere il docente di computer science Yiannis Aloimonos, che ora mira a insegnare al robot a fare una insalata greca. Non è facile tagliare i pomodori e i cetrioli; manipolare oggetti morbidi e sbriciolabili come la feta e scivolosi come le olive.  Analogamente, in questi stessi giorni, l’università della California ha sviluppato un robot che con il deep learning può svitare i tappi di bottiglie e incastrare pezzi di Lego. Ha imparato da solo a esercitare la giusta pressione e a perfezionare l’angolo di movimento.

Ma è “un piccolo passo per il robot, un grande passo per l’umanità”, potremmo dire, poiché è la conferma che il deep learning funziona. Davvero riesce a condurre le intelligenze artificiali su un percorso di auto-apprendimento, simulando il funzionamento del cervello umano. La tecnica del deep learning sfrutta infatti strati di “reti neurali” in modo progressivo. Ogni strato apprende qualcosa sulla base di quanto appreso dal precedente, fino al risultato finale. Una delle prime applicazioni è stato il riconoscimento delle immagini: il primo strato apprende le caratteristiche base come il contorno e passa l’informazione al secondo strato, che aggiunge i dettagli e così via. Facebook utilizza già questo metodo per riconoscere i volti degli utenti. Google e Apple per il riconoscimento vocale. Microsoft per il servizio di traduzione di Skype.

«Il deep learning non è una novità, ma all’inizio era solo a una via. Il grosso passo avanti si è compiuto quando la comunicazione tra gli strati è diventata a due vie: l’informazione può anche tornare indietro allo strato precedente», dice Massimo Marchiori, matematico dell’università di Padova e uno dei padri dell’algoritmo alla base di Google.

Lui stesso sta svolgendo un progetto di ricerca deep learning per un motore di ricerca che sia in grado di dialogare con l’utente. «Tu cerchi un hotel a Parigi e quello ti dice: questi sono i prezzi migliori nella zona che hai scelto; ma puoi spendere di meno se vai qui, che però è più rumorosa», spiega. Due ricercatori di eBay hanno mostrato invece che con il deep learning è possibile taggare in automatico i prodotti, distinguendo con precisione i diversi tipi di scarpe.

Il deep learning continuerà quindi a sviluppare le proprie applicazioni internet, mentre si espande in altri campi. Al Dana-Farber Cancer Institute di Boston stanno analizzando la possibilità di usare il deep learning per prevedere l’esito di un tumore, in base alla sua immagine. L’Università del North Carolina applica questa tecnica per scovare molecole utili alla realizzazione di medicine. Il sistema arriva a prevedere come una molecola si può legare a un particolare gruppo di proteine.

Le potenzialità sembrano enormi e solo in parte esplorate. La previsione è che dal deep learning potrebbero emergere intelligenze artificiali in grado di assistere meglio l’uomo in alcuni compiti (in campo medico, per esempio) oppure sostituirlo del tutto in altri ambiti.

argomenti
Intelligenza artificiale