Il Dipartimento per gli Alloggi e lo Sviluppo Urbano degli Stati Uniti (HUD) ha recentemente accusato Facebook di infrangere la legge per quanto riguarda la gestione degli annunci immobiliari “incoraggiando, abilitando e provocando” discriminazioni attraverso la sua piattaforma pubblicitaria.

L’accusa mossa dal Governo americano è che Facebook consentirebbe ai potenziali inserzionisti di tracciare una “linea rossa” attorno a determinati quartieri, nei cui non hanno interesse a fare pubblicità. Inoltre, gli inserzionisti su Facebook hanno l’opportunità di scegliere di non fare pubblicità verso utenti che hanno determinati interessi, come chi viene etichettato dall’algoritmo di Facebook come interessato alle categorie di “Hijab fashion” o “Cultura ispanica”. In altre parole Facebook estrarrebbe anche dati sensibili sugli utenti, usandoli per determinare chi visualizzerà gli annunci. Facebook da parte sua ha dichiarato di essere “sorpreso” da questa accusa, ma ha reagito promettendo di impedire entro la fine del 2019 la pubblicazione di annunci di abitazioni, posti di lavoro o annunci di credito in base alla località, all’età, all’etnia o al sesso.

Proprio in questi giorni è stata pubblicata nuova ricerca condotta da Muhammad Ali e Piotr Sapiezynski della Northeastern University, che ha evidenziato come l’algoritmo di Facebook decida automaticamente chi visualizza un dato annuncio al di là della targetizzazione dell’inserzionista, che può scegliere luogo, età e sesso del suo pubblico. In altre parole, non importa se come inserzionista sei ben intenzionato: meccanismi interni all’algoritmo di Facebook possono portare a un annuncio pubblicitario potenzialmente discriminatorio, anche quando gli inserzionisti impostano i propri parametri di targeting in modo altamente inclusivo.

I ricercatori hanno pubblicato su Facebook una serie di annunci identici con leggere variazioni nel budget, nel titolo, nel testo o nell’immagine disponibili,scoprendo che tali sottili ritocchi hanno avuto un impatto significativo sul pubblico raggiunto da ciascun annuncio, in particolare quando gli annunci erano destinati a specifiche professioni o se riguardavano la vendita o l’affitto di immobili. Per esempio, gli annunci per insegnanti e segretari sono stati mostrati a una percentuale più alta di donne, mentre le pubblicazioni per bidelli e tassisti sono state mostrate a una percentuale più elevata di minoranze etniche. Gli annunci di case in vendita venivano mostrati a più utenti bianchi, mentre quelli relativi ad affitti a persone appartenenti a minoranze etniche.

Non dovremmo essere molto sorpresi. Già nel 2013 i “pregiudizi” all’interno degli algoritmi dei social media erano stati ben evidenziati. Latanya Sweeney, docente di Harvard, aveva pubblicato un documento che mostrava l’implicita discriminazione etnica dell’algoritmo di pubblicazione degli annunci di Google.

La buona notizia – commenta MIT Review – è che potrebbero esserci modi per affrontare questo problema, anche se non sarà facile. Molti ricercatori che lavorano nel campo dell’intelligenza artificiale stanno ora perseguendo correzioni tecniche per pregiudizi di apprendimento automatico che potrebbero creare modelli di pubblicità online più equilibrati. Un recente studio della Yale University e dell’Indian Institute of Technology, suggerisce  per esempio che potrebbe essere possibile limitare gli algoritmi per ridurre al minimo i comportamenti discriminatori, solo con un piccolo costo per le entrate pubblicitarie.

Ma è evidente che che servirà una precisa presa di posizione da parte dei governi se le piattaforme dovranno iniziare a investire in tali correzioni dei propri algoritmi.

L’articolo Cosa fare quando l’algoritmo discrimina sia per genere che per etnia? sembra essere il primo su Info Data.

Leggi su infodata blog