Ultimamente, i manager delle grandi aziende tecnologiche hanno scoperto un interesse comune: l’artificial intelligence ethics, l’etica applicata all’intelligenza artificiale. Il Ceo di Microsoft Satya Nadella l’ha tirata in ballo dal palco della Build, il convegno di sviluppatori che si è chiuso mercoledì a Seattle. Il suo omologo di Google Sundai Pichar si è lanciato in appelli di fronte al pubblico della I/O, la conferenza equivalente di Big G in Silicon Valley. Qualche settimana prima era toccato al più giovane e al più esposto dei tre, Mark Zuckerberg, assicurare che gli algoritmi di Facebook sarebbero stati maneggiati «con responsabilità». Il perché di tanto afflato è presto detto.

Il settore sta investendo pesantemente sul machine learning, la branca dell’intelligenza artificiale che insegna alle macchine come apprendere in maniera automatica. Il machine learning ha bisogno di moli crescenti di dati per raffinarsi e istruire meglio i software. Ma i dati appartengono a chi li genera: gli utenti. E sono loro a dover essere convinti a cedere informazioni, la materia prima che fa funzionare la macchina degli algoritmi e le ambizioni di crescita dei giganti web.

Microsoft sta spingendo in maniera massiccia sull’intelligent cloud, l’archiviazione di dati (cloud) potenziate dall’intelligenza artificiale. All’ultima Build il machine learning si è infilato praticamente in tutti gli annunci, dai nuovi kit di sviluppo per Windows ai software conversazionali, i chatbot che abbiamo imparato a conoscere quando avviamo il computer e chiediamo aiuto a Cortana. Alla I/O di Google, organizzata tra l’altro in contemporanea, Big G ha alzato ancora di più il tiro spaziando fra batterie «adattive» che calibrano i consumi energetici sullo smartphone a seconda delle nostre abitudini e assistenti virtuali che parlano in gergo, arrivando a raggirare gli interlocutori umani. A proposito di etica.

A inizio mese Facebook, nel suo appuntamento F/8, ha cavalcato l’onda dell’esposizione mediatica celebrando il ruolo dell’Ia nella repressione delle fake news e il potenziale tutto da esprimere in tecnologie come il riconoscimento facciale. Una forma di apprendimento che si sposa benissimo, non a caso, con Instagram, il social di sole immagini che sta assorbendo l’utenza più giovane – e i ricavi futuri – della galassia digitale di Zuckerberg.

Detto questo, resta da capire se il ragionamento vale anche al contrario. I grandi gruppi hanno bisogno di informazioni che ci riguardano per inondare di dati i propri sviluppatori e produrre algoritmi sempre più sofisticati. Ma gli utenti che interesse hanno nell’offrire il proprio patrimonio informativo? Una domanda che potrebbe tradursi in un crollo di fiducia, anche se l’entità del colpo dipende dal modello di business sottostante. Aziende come Microsoft si considerano più al sicuro perché hanno scelto di insistere sul mondo B2B. L’intelligenza artificiale studiata da Redmond, per capirsi, è quella che permette a un’azienda di organizzare meglio i numeri su un foglio Excel o tagliare i costi del customer care con dei servizi di risposta automatici. Eppure l’urgenza di mantenere il consenso dei clienti resta un’ansia diffusa per tutti, dai motori di ricerca alle imprese che producono software aziendali. Qualunque ne sia l’uso finale, le tecnologie di intelligenza artificiale stanno assumendo forme sempre più pervasive, con impatti anche emotivi sui presunti beneficiari delle sue estensioni. Ad esempio la realtà aumentata, quella che mischia virtuale e reale, permette di ricavare dati su una persona inquadrandola dallo schermo di un visore. «In fondo abbiamo sempre cercato di vendere servizi. Prima i software, ora l’intelligenza artificiale. L’importante è che ci sia fiducia nei clienti» dice al Sole 24 Ore Dave Forstrom, direttore di una divisione di Microsoft che si occupa di ricerche in materia. La parola “datagate” non affiora quasi mai, anche se chiaro che lo scandalo esploso su Facebook ha costretto a una presa di coscienza più rapida del previsto. L’intelligenza artificiale è un business che serve e servirà sempre di più alle aziende. Ma ora ha bisogno di rispolverare la sua immagine, giustificandosi agli occhi della sua utenza. Anche gli algoritmi hanno un’etica. Soprattutto per chi li produce.

Ultimamente, i manager delle grandi aziende tecnologiche hanno scoperto un interesse comune: l’artificial intelligence ethics, l’etica applicata all’intelligenza artificiale. Il Ceo di Microsoft Satya Nadella l’ha tirata in ballo dal palco della Build, il convegno di sviluppatori che si è chiuso mercoledì a Seattle. Il suo omologo di Google Sundai Pichar si è lanciato in appelli di fronte al pubblico della I/O, la conferenza equivalente di Big G in Silicon Valley. Qualche settimana prima era toccato al più giovane e al più esposto dei tre, Mark Zuckerberg, assicurare che gli algoritmi di Facebook sarebbero stati maneggiati «con responsabilità». Il perché di tanto afflato è presto detto.

Il settore sta investendo pesantemente sul machine learning, la branca dell’intelligenza artificiale che insegna alle macchine come apprendere in maniera automatica. Il machine learning ha bisogno di moli crescenti di dati per raffinarsi e istruire meglio i software. Ma i dati appartengono a chi li genera: gli utenti. E sono loro a dover essere convinti a cedere informazioni, la materia prima che fa funzionare la macchina degli algoritmi e le ambizioni di crescita dei giganti web.

Microsoft sta spingendo in maniera massiccia sull’intelligent cloud, l’archiviazione di dati (cloud) potenziate dall’intelligenza artificiale. All’ultima Build il machine learning si è infilato praticamente in tutti gli annunci, dai nuovi kit di sviluppo per Windows ai software conversazionali, i chatbot che abbiamo imparato a conoscere quando avviamo il computer e chiediamo aiuto a Cortana. Alla I/O di Google, organizzata tra l’altro in contemporanea, Big G ha alzato ancora di più il tiro spaziando fra batterie «adattive» che calibrano i consumi energetici sullo smartphone a seconda delle nostre abitudini e assistenti virtuali che parlano in gergo, arrivando a raggirare gli interlocutori umani. A proposito di etica.

A inizio mese Facebook, nel suo appuntamento F/8, ha cavalcato l’onda dell’esposizione mediatica celebrando il ruolo dell’Ia nella repressione delle fake news e il potenziale tutto da esprimere in tecnologie come il riconoscimento facciale. Una forma di apprendimento che si sposa benissimo, non a caso, con Instagram, il social di sole immagini che sta assorbendo l’utenza più giovane – e i ricavi futuri – della galassia digitale di Zuckerberg.

Detto questo, resta da capire se il ragionamento vale anche al contrario. I grandi gruppi hanno bisogno di informazioni che ci riguardano per inondare di dati i propri sviluppatori e produrre algoritmi sempre più sofisticati. Ma gli utenti che interesse hanno nell’offrire il proprio patrimonio informativo? Una domanda che potrebbe tradursi in un crollo di fiducia, anche se l’entità del colpo dipende dal modello di business sottostante. Aziende come Microsoft si considerano più al sicuro perché hanno scelto di insistere sul mondo B2B. L’intelligenza artificiale studiata da Redmond, per capirsi, è quella che permette a un’azienda di organizzare meglio i numeri su un foglio Excel o tagliare i costi del customer care con dei servizi di risposta automatici. Eppure l’urgenza di mantenere il consenso dei clienti resta un’ansia diffusa per tutti, dai motori di ricerca alle imprese che producono software aziendali. Qualunque ne sia l’uso finale, le tecnologie di intelligenza artificiale stanno assumendo forme sempre più pervasive, con impatti anche emotivi sui presunti beneficiari delle sue estensioni. Ad esempio la realtà aumentata, quella che mischia virtuale e reale, permette di ricavare dati su una persona inquadrandola dallo schermo di un visore. «In fondo abbiamo sempre cercato di vendere servizi. Prima i software, ora l’intelligenza artificiale. L’importante è che ci sia fiducia nei clienti» dice al Sole 24 Ore Dave Forstrom, direttore di una divisione di Microsoft che si occupa di ricerche in materia. La parola “datagate” non affiora quasi mai, anche se chiaro che lo scandalo esploso su Facebook ha costretto a una presa di coscienza più rapida del previsto. L’intelligenza artificiale è un business che serve e servirà sempre di più alle aziende. Ma ora ha bisogno di rispolverare la sua immagine, giustificandosi agli occhi della sua utenza. Anche gli algoritmi hanno un’etica. Soprattutto per chi li produce.