DailyMail.com ha vinto le scuse di Facebook per un fallimento dell’intelligenza artificiale che ha descritto il video di notizie del sito Web di uomini di colore molestati e arrestati come “scimmie”.
- Facebook sabato ha rilasciato scuse pubbliche a DailyMail.com e MailOnline
- Amnesty International di Facebook etichetta un video di notizie che mostra uomini di colore come correlato a “primati”
- Gli utenti hanno reagito con orrore all’etichetta altamente offensiva creata da Facebook
- “Questo era un errore dell’algoritmo su Facebook e non rifletteva il contenuto del post del Daily Mail”, ha detto un portavoce di Facebook scusandosi umilmente.
Facebook si è scusato pubblicamente con DailyMail.com e MailOnline per aver aggiunto un’etichetta di “primati” generata dall’intelligenza artificiale a un video di notizie dal sito Web che mostra uomini di colore.
Un portavoce di Facebook ha ammesso che l’errore era “inaccettabile” sabato, dicendo a DailyMail.com: “Ci scusiamo con chiunque possa aver visto queste raccomandazioni offensive e con il Daily Mail per il suo contenuto”.
“Si trattava di un errore dell’algoritmo su Facebook e non rifletteva il contenuto del post del Daily Mail”, ha ammesso la società.
L’oggetto della controversia è un video di notizie pubblicato su Facebook da The Mail il 27 giugno 2020, che raffigura un uomo bianco che sembra molestare un uomo di colore e chiamare la polizia.
Facebook si è pubblicamente scusato con DailyMail.com e MailOnline per aver aggiunto un’etichetta generata dall’intelligenza artificiale che fa riferimento ai “primati” a questo video di notizie che raffigura uomini di colore.
L’oggetto della controversia è un video di notizie pubblicato su Facebook da DailyMail.com il 27 giugno, che raffigura un uomo bianco che sembra molestare un uomo di colore. Il CEO di Facebook Mark Zuckerberg è visto sopra
Sebbene il video non abbia nulla a che fare con scimmie o altri primati, l’intelligenza artificiale creata da Facebook ha chiesto agli spettatori se avrebbero voluto “continuare a guardare i video dei primati”, creando orrore e abusi per gli utenti del social network.
Inizialmente, Facebook non è riuscito a notificare a Mail il suo errore fatale quando è stato individuato da Il New York TimesLa dichiarazione del colosso dei social media al The Times non ha specificato in modo definitivo che Facebook avesse aggiunto l’etichetta offensiva al post di Mail.
Facebook ha ora disabilitato l’algoritmo di falsa raccomandazione.
“Questo è chiaramente un bug inaccettabile su Facebook e abbiamo disabilitato completamente la funzione di raccomandazione dell’argomento non appena ci siamo resi conto che stava accadendo in modo da poter indagare sulla causa e impedire che ciò accada di nuovo”, ha detto un portavoce di Facebook a DailyMail.com.
“Come abbiamo detto, mentre abbiamo apportato miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e abbiamo ulteriori progressi da fare”, ha aggiunto la società.
Facebook è stato in passato criticato per i suoi sistemi di intelligenza artificiale e per presunti pregiudizi nei confronti delle persone di colore.
Gli studi dimostrano che i sistemi di riconoscimento facciale hanno più difficoltà a riconoscerli, portando a incidenti in cui le persone di colore vengono discriminate o arrestate a causa di algoritmi di intelligenza artificiale distorti.
L’etichetta offensiva applicata dagli algoritmi di intelligenza artificiale di Facebook al video di Mail ha scatenato un forte contraccolpo, con molti che hanno criticato la società di social media per non aver monitorato la sua tecnologia automatizzata.
Charles Onyango-Obo, giornalista ed ex direttore del Mail & Guardian Africa di Johannesburg, ha twittato: “Questo **** deve davvero finire”.
Ogni giorno vediamo i limiti, i pregiudizi e la pura stupidità di affidarsi esclusivamente all’intelligenza artificiale. Tuttavia, ci permettiamo ancora di essere cavie”, ha twittato la corrispondente per la sicurezza informatica del New York Times Nicole Perlroth.
Kate Conger, giornalista tecnologica del New York Times, ha scritto: “Il fatto che questo sia successo in molte delle grandi aziende tecnologiche dice qualcosa sul modo in cui viene costruita l’intelligenza artificiale”.
Un’altra persona ha scritto su Twitter: “Facebook è in reset permanente per ‘il numero di giorni da quando abbiamo fatto qualcosa di razzista’ a zero”.
L’avvocato Sean C. Griffiths scrive che l’IA “generalmente ha molti problemi e le aziende tecnologiche spesso non rilevano problemi legati alla razza perché impiegano così poche persone di colore”.
“Ad esempio, è possibile che lo sviluppatore di Black #AI l’abbia scoperto”, ha osservato.
Annunci
“Guru professionista del caffè. Giocatore tipico. Difensore degli alcolici. Fanatico del bacon. Organizzatore.”