L’intelligenza artificiale potrebbe rimodellare la nostra società tanto profondamente quanto hanno fatto il motore a combustione o l’energia elettrica, anche se è molto più di un insieme di tecnologie che, una volta mature, possiamo pensare di regolare come una utility. Partendo da questa riflessione, un anno fa ho contribuito a lanciare AI4People, una collaborazione scientifica con altri undici esperti, sostenuta da Atomium, European Institute for Science Media and Democracy. Il risultato è stato la recente pubblicazione di cinque principi etici fondamentali e 20 raccomandazioni applicative per una “Good AI Society” europea, affinché l’Ia sostenga lo sviluppo umano, sociale, e ambientale. Il lavoro si inserisce in uno scenario che vede l’Europa all’avanguardia. Pochi giorni fa il Gruppo di Alto Livello nominato dalla Commissione Ue (di cui l’autore fa parte, ndr) ha pubblicato la prima bozza di codice etico per l’Ia. Alcuni mesi fa il Consiglio d’Europa ha prodotto un parere molto interessante sul suo impatto. La Gran Bretagna ha da poco inaugurato il Centre for Data Ethics and Innovation (di cui l’autore è membro, ndr), prima struttura al mondo dedicata a sostenere le decisioni di un governo su etica e innovazione digitale. L’Europa sta perciò dimostrando leadership in un settore cruciale, nel quale né gli Stati Uniti né la Cina hanno per ora preso iniziative significative.

Tra le raccomandazioni elaborate da AI4People, pubblicate online in formato aperto nel numero di dicembre di Minds and Machines e ampiamente riprese nel codice etico, tre meritano particolare attenzione. La prima è lo sviluppo di meccanismi di risarcimento e compensazione per i danni provocati dai sistemi intelligenti come già avviene in altri settori. Nel caso dell’Ia le tipologie di danno variano dalla discriminazione di un utente nell’accedere a un servizio di credito o di assistenza sanitaria al danno fisico provocato da un incidente con un veicolo autonomo. Un’autorità europea potrebbe gestire l’audit di applicazioni inique della tecnologia, un processo guidato per inoltrare una contestazione, analogamente a ciò che già avviene per le richieste di accesso alle informazioni pubbliche, e meccanismi di responsabilità e assicurazione obbligatori per alcune classi di sistemi intelligenti. Il presupposto di questi strumenti è la “spiegabilità” dei sistemi intelligenti incaricati di decisioni socialmente rilevanti.

Un secondo punto cruciale è la creazione di un’agenzia europea per la protezione del bene pubblico, in grado di valutare e supervisionare i nuovi prodotti come sistemi intelligenti, software e servizi, sulla scorta di quanto già fa in ambito biomedico l’Ema, l’Agenzia europea del farmaco.

Il terzo punto riguarda la necessità di investire in educazione, formazione e divulgazione. Ciò non significa insegnare ai nostri alunni a scrivere codice, idea molto di moda oggi, quanto piuttosto dare a nostri ragazzi gli strumenti per comprendere come dati, connettività e sistemi intelligenti funzionano e l’impatto che possono avere sulle nostre capacità o libertà. Capire, disegnare, migliorare, controllare e gestire al meglio il digitale: questo deve essere parte della formazione oggi. Queste azioni vanno articolate su più livelli: dalla formazione nelle scuole sulle conoscenze scientifiche di base e l’impatto sociale dell’Ia, ai moduli ad hoc di etica e diritto per i professionisti che sviluppano nuovi sistemi, dalla formazione permanente per chi deve interagire con sistemi intelligenti, a programmi di informazione per giornalisti e cittadini, fino ad arrivare al coinvolgimento di associazioni della società civile impegnate sul fronte dei diritti umani e digitali.

Le 20 raccomandazioni contengono molto di più, ma sono solo un punto di inizio. Spero che verranno discusse, migliorate, e adottate, ma l’agenda è più ampia. La cronaca delle ultime settimane, che ha visto l’arresto della direttrice finanziaria di Huawei, Meng Wanzhou, ci ricorda che sull’Ia si gioca anche una grande partita geopolitica, nella quale si intrecciano economia e sicurezza nazionale, come già avviene per l’energia, e che non possiamo trascurare. Il governo del digitale è la nuova sfida, e le politiche del digitale richiederanno molta attenzione, anche strategica.

L’intelligenza artificiale potrebbe rimodellare la nostra società tanto profondamente quanto hanno fatto il motore a combustione o l’energia elettrica, anche se è molto più di un insieme di tecnologie che, una volta mature, possiamo pensare di regolare come una utility. Partendo da questa riflessione, un anno fa ho contribuito a lanciare AI4People, una collaborazione scientifica con altri undici esperti, sostenuta da Atomium, European Institute for Science Media and Democracy. Il risultato è stato la recente pubblicazione di cinque principi etici fondamentali e 20 raccomandazioni applicative per una “Good AI Society” europea, affinché l’Ia sostenga lo sviluppo umano, sociale, e ambientale.

Il lavoro si inserisce in uno scenario che vede l’Europa all’avanguardia. Pochi giorni fa il Gruppo di Alto Livello nominato dalla Commissione Ue (di cui l’autore fa parte, ndr) ha pubblicato la prima bozza di codice etico per l’Ia. Alcuni mesi fa il Consiglio d’Europa ha prodotto un parere molto interessante sul suo impatto. La Gran Bretagna ha da poco inaugurato il Centre for Data Ethics and Innovation (di cui l’autore è membro, ndr), prima struttura al mondo dedicata a sostenere le decisioni di un governo su etica e innovazione digitale. L’Europa sta perciò dimostrando leadership in un settore cruciale, nel quale né gli Stati Uniti né la Cina hanno per ora preso iniziative significative.

Tra le raccomandazioni elaborate da AI4People, pubblicate online in formato aperto nel numero di dicembre di Minds and Machines e ampiamente riprese nel codice etico, tre meritano particolare attenzione. La prima è lo sviluppo di meccanismi di risarcimento e compensazione per i danni provocati dai sistemi intelligenti come già avviene in altri settori. Nel caso dell’Ia le tipologie di danno variano dalla discriminazione di un utente nell’accedere a un servizio di credito o di assistenza sanitaria al danno fisico provocato da un incidente con un veicolo autonomo. Un’autorità europea potrebbe gestire l’audit di applicazioni inique della tecnologia, un processo guidato per inoltrare una contestazione, analogamente a ciò che già avviene per le richieste di accesso alle informazioni pubbliche, e meccanismi di responsabilità e assicurazione obbligatori per alcune classi di sistemi intelligenti. Il presupposto di questi strumenti è la “spiegabilità” dei sistemi intelligenti incaricati di decisioni socialmente rilevanti.

Un secondo punto cruciale è la creazione di un’agenzia europea per la protezione del bene pubblico, in grado di valutare e supervisionare i nuovi prodotti come sistemi intelligenti, software e servizi, sulla scorta di quanto già fa in ambito biomedico l’Ema, l’Agenzia europea del farmaco.

Il terzo punto riguarda la necessità di investire in educazione, formazione e divulgazione. Ciò non significa insegnare ai nostri alunni a scrivere codice, idea molto di moda oggi, quanto piuttosto dare a nostri ragazzi gli strumenti per comprendere come dati, connettività e sistemi intelligenti funzionano e l’impatto che possono avere sulle nostre capacità o libertà. Capire, disegnare, migliorare, controllare e gestire al meglio il digitale: questo deve essere parte della formazione oggi. Queste azioni vanno articolate su più livelli: dalla formazione nelle scuole sulle conoscenze scientifiche di base e l’impatto sociale dell’Ia, ai moduli ad hoc di etica e diritto per i professionisti che sviluppano nuovi sistemi, dalla formazione permanente per chi deve interagire con sistemi intelligenti, a programmi di informazione per giornalisti e cittadini, fino ad arrivare al coinvolgimento di associazioni della società civile impegnate sul fronte dei diritti umani e digitali.

Le 20 raccomandazioni contengono molto di più, ma sono solo un punto di inizio. Spero che verranno discusse, migliorate, e adottate, ma l’agenda è più ampia. La cronaca delle ultime settimane, che ha visto l’arresto della direttrice finanziaria di Huawei, Meng Wanzhou, ci ricorda che sull’Ia si gioca anche una grande partita geopolitica, nella quale si intrecciano economia e sicurezza nazionale, come già avviene per l’energia, e che non possiamo trascurare. Il governo del digitale è la nuova sfida, e le politiche del digitale richiederanno molta attenzione, anche strategica.