Pericolosa associazione di Facebook: il NY Times ha scoperto come associare persone di colore ai primati

Un episodio increscioso finito addirittura sulle prestigiose colonne del New York Times, ha prodotto le immediate scuse di Facebook, che ha rischiato pesantissime accuse di razzismo a causa di un algoritmo completamente sbagliato, con il quale si associavano le persone di colore alle scimmie.

Facebook, un'impresa statunitense che controlla i servizi di rete social anche di Instagram (Adobe Stock)
Facebook, un’impresa statunitense che controlla i servizi di rete social anche di Instagram (Adobe Stock)

Galeotto quell’algoritmo, dunque. Il vespaio di polemiche nasce subito dopo un video mostrato dal tabloid britannico Daily Mail, risalente a più di un anno fa, nel quale Facebook ha chiesto ai suoi utenti se volevano vedere altri “video di primati”: il problema è che il “l’invito”, scritto sotto il filmato dal titolo “L’uomo bianco chiama i poliziotti contro gli uomini di colore al porto turistico”, non riguardava persone, ma scimmie.

Un errore inaccettabile. Facebook si cosperge il capo di cenere

Facebook è solo un caso. Algoritmi pericolosi anche per altri social (Adobe Stock)
Facebook è solo un caso. Algoritmi pericolosi anche per altri social (Adobe Stock)

“Un errore chiaramente inaccettabile”. Un portavoce di Facebook si cosparge immediatamente il capo di cenere, commentando subito l’increscioso episodio e affermando che il software di raccomandazione coinvolto è stato messo offline. “Ci scusiamo con chiunque abbia visto queste raccomandazioni offensive – si legge nella nota ufficiale – abbiamo disabilitato l’intera funzione di raccomandazione dell’argomento non appena ci siamo resi conto che stava accadendo in modo da poter indagare sulla causa e impedire che ciò accada di nuovo”. Darci Groves, un ex responsabile del design dei contenuti di Facebook, ha affermato che è stato un amico a girargli l’accaduto, secondo quanto riportato dal New York Times, in seguito postato su Twitter e condiviso su un forum di feedback sui prodotti per gli attuali (ed ex) dipendenti di Facebook. Da qui la reazione a catena: un product manager per Facebook Watch ha risposto dicendo che la società stava esaminando la causa principale, Groves ha detto che il prompt era stato “orribile ed eclatante”, quindi le scuse con tanto di rimozione del software in questione per il serio rischio di essere accusati di razzismo.

LEGGI ANCHE >>> inchiodati TikTok, YouTube e Facebook: sui loro canali milioni di visualizzazioni per crudeltà sugli animali, è ora che assumano responsabilità

Non è la prima volta, comunque, che i Big Tech vengono presi di mira per possibili pregiudizi dati da un software figlio dell’Intelligenza Artificiale.  L’anno scorso, Twitter esaminò la possibilità che il suo strumento automatizzato che seleziona quale parte di un’immagine visualizzare in anteprima nei tweet, poteva diventare un pregiudizio razziale contro i neri, come ha riferito Isobel Asher Hamilton di Insider. Ad agosto, la società ha annunciato che avrebbe offerto una ricompensa di 3.500 dollari alle persone che possono aiutare a risolvere il problema.

LEGGI ANCHE >>> Prodigio italiano: i nostri ricercatori scoprono nuove proprietà della fibra ottica che potrebbero rivoluzionarne l’uso

Nel 2015, un algoritmo di Google ha etichettato i volti di due persone di colore alla parola “gorilla”: stesso iter, immediate scuse, “tanto dispiacere per l’accaduto, rimozione del software. Tanti episodi simili, con un unico comun denominatore: il punto di partenza è il modo preponderante di foto e video prevalentemente bianche, con la pericolosa conseguenza che il riconoscimento di tutti gli altri individui risulta meno preciso.

Impostazioni privacy