En direct
A suivre

Facebook : un algorithme confond des personnes noires avec des singes

«C’est clairement une erreur inacceptable», a réagi une porte-parole de Facebook. [CHRIS DELMAS / AFP].

Une affaire très gênante pour le géant des réseaux sociaux. L’un des algorithmes de recommandation de Facebook a demandé à des utilisateurs s’ils souhaitaient voir d’autres «vidéos sur les primates» sous une vidéo diffusée par un journal britannique montrant des personnes noires, a révélé le New York Times ce vendredi 3 septembre.

Le point de départ de cette affaire remonte à plus d'un an lorsque le Daily Mail, un tabloïd britannique, avait diffusé sur Facebook une vidéo intitulée «un homme blanc appelle les flics contre des hommes noirs à la marina».

Cette vidéo ne montrait que des personnes, pas de singes. Sauf qu'en dessous, la question : «voir plus de vidéos sur les primates ?», accompagnée des options «Oui / Rejeter» s'est affichée sur l'écran de certains utilisateurs, comme le montre une capture d'écran diffusée sur Twitter au départ par Darci Groves, une ancienne designer qui travaillait elle-même pour Facebook.

«C'est scandaleux», a-t-elle commenté, appelant ses ex-collègues de Facebook à faire remonter l'affaire.

«C’est clairement une erreur inacceptable», a réagi une porte-parole de Facebook, sollicitée par l’Agence France-Presse.

Facebook a présenté ses excuses

«Nous présentons nos excuses à quiconque a vu ces recommandations insultantes», a-t-elle ajouté. L’entreprise californienne a désactivé l’outil de recommandation sur ce sujet «dès que nous nous sommes aperçus de ce qui se passait afin d’enquêter sur les causes du problème et empêcher que cela ne se reproduise», a-t-elle encore précisé. «Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire», a-t-elle continué.

L'affaire souligne en effet les limites des technologies d'intelligence artificielle (IA), régulièrement mise en avant par la plate-forme dans ses efforts pour construire un fil personnalisé à chacun de ses près de 3 milliards d'utilisateurs mensuels.

La firme de Mark Zuckerberg se sert aussi beaucoup de l'IA dans la modération des contenus, pour identifier et bloquer des messages et images problématiques avant même qu'ils ne soient vus. Mais Facebook, comme ses concurrents, est régulièrement accusé de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations.

En novembre 2019, une douzaine d'employés, actuels ou passés, de Facebook avaient par ailleurs dénoncé dans un article une «culture hostile où tous ceux qui ne sont pas blancs» au sein de l'entreprise américaine.

Le sujet suscite d'autant plus de tensions que de nombreuses organisations de la société civile accusent les réseaux sociaux et leurs algorithmes de contribuer à la division de la société américaine, dans le contexte des manifestations du mouvement «black Lives Matter» (les vies noires comptent).

À suivre aussi

Ailleurs sur le web

Dernières actualités