Non è una nuova falla nei sistemi di protezione informatica contro spam, intrusioni digitali e furti di password. E non è neppure una vulnerabilità del software o dei sistemi informati. E’ un hacking furbo e la dimostrazione che a volte, anzi spesso, l’anello debole dei sistemi di sicurezza è è l’uomo. E’ stato infatti sviluppato un computer che sa fingersi un essere umano riuscendo a ingannare alcuni dei test di sicurezza più diffusi nei siti Internet, ovvero i captcha, quei codici alfanumerici un po’ contorti che servono a distinguere gli utenti in carne ed ossa dai programmi automatici chiamati ‘bot’. Il risultato è pubblicato sulla rivista Science dai ricercatori della company californiana Vicarious AI, specializzata nel settore dell’intelligenza artificiale.

“Lo studio rivela con metodo scientifico una vulnerabilità che interessa anche colossi come Google, PayPal e Yahoo”, spiega Giovanni Ziccardi, docente di informatica giuridica all’Università di Milano. “Il pericolo è che i captcha attuali non riescano più a proteggere efficacemente i form di iscrizione ai servizi online, come la posta elettronica, e che non blocchino più i programmi automatici che fanno spam inondando blog e forum di messaggi pubblicitari inopportuni”.

Nati vent’anni fa per difendere i primi motori di ricerca sul web, i captcha si sono evoluti continuamente.  Facili da risolvere per le persone, sembravano dei rompicapo impossibili per gli algoritmi automatici. Almeno fino ad oggi. Il nuovo computer ‘hacker’, ispirato ai meccanismi di funzionamento del cervello umano, è infatti riuscito a violare i captcha più comuni con una percentuale di successo che arriva fino al 70%. Il dato più interessante però è questo. Confrontato con gli attuali approcci di deep learning per la lettura dei testi, il nuovo sistema ha una maggiore accuratezza, pur utilizzando un numero di immagini per l’addestramento che è 5.000 volte inferiore. La sfida per l’intelligenza artificiale associata alla sicurezza è quella di imparare più velocemente. Chi progetta oggi i sistemi di sicurezza dovrà inserire nell’equazione la simulazione dell’umano. Quello che invece potrebbe rivelarsi una frontiere è la simulazione dell’errore umano.