Si chiama kit Fairness 360è analizzerà anche i segni di bias, i pegiudizi, gli errori in cui può cadere l’Ai. Lo farà in tempo reale e raccomanderà aggiustamenti.È questo uno degli annunci più interessanti di oggi di Ibm che ha lanciato una suite di strumenti per “guardare” dentro all’operato dell’Ai. Il software basato su cloud IBM sarà open source e funzionerà con una varietà di framework comunemente usati per la costruzione di algoritmi.Gli utente, le aziende, saranno in grado di vedere, tramite una dashboard visiva, come i loro algoritmi stanno prendendo decisioni e quali fattori vengono utilizzati per formulare le raccomandazioni finali.

Cosa sono i bias. Le macchine esistenti, e che esisteranno nel prossimo futuro, sono programmate da esseri umani che hanno un determinato background, determinate idee e posture intellettuali e da cui può dipendere l’esito di questo processo. Ognuno di noi pensa e agisce secondo stereotipi e pregiudizi che, in qualche modo, orientano le nostre azioni. In Inglese vengono definiti Bias, e la stessa parola viene utilizzata nelle discipline informatiche per indicare gli errori in cui può cadere l’Intelligenza artificiale

Perché è diventata strategica la trasparenza nelle scatole nere degli algoritmi. Il clima verso l’Ai nonostante il potentissimo marketing mediato non è di completa fiducia. Mentre l’82% delle imprese sta considerando le implementazioni AI, il 60% teme problemi di responsabilità e il 63% non ha il talento interno per gestire con sicurezza la tecnologia. «Ibm vuole generare fiducia e trasparenza per lo sviluppo di nuove tecnologie di intelligenza artificiale», ha dichiarato David Kenny, vicepresidente senior di Cognitive Solutions. «È tempo di tradurre i principi in pratica. Stiamo dando nuova trasparenza e controllo alle aziende che usano l’intelligenza artificiale e affrontano il maggior rischio potenziale da qualsiasi decisione sbagliata.»

Come funzionano i tool di Ibm. Le nuove funzionalità di Ibm su IBM Cloud funzionano con modelli basati su un’ampia gamma di framework di machine learning come Watson, Tensorflow, SparkML, AWS SageMaker e AzureML. .Il servizio di software completamente automatizzato intende monitorare il processo decisionale e rilevare il bias nei modelli di IA in fase di esecuzione – a mano a mano che vengono prese le decisioni – selezionando ed evidenziando i risultati potenzialmente ingiusti nel momento in cui si verificano.