Facebook a supprimé 8,7 millions d'images pédopornographiques

C'est une intelligence artificielle qui a notamment permis cette modération de grande ampleur[MANDEL NGAN / AFP]

Facebook a acquis un nouvel outil pour repérer et supprimer les contenus pédopornographiques circulant sur sa plate-forme. Le réseau social a ainsi pu neutraliser 8,7 millions d'images de pédopornographie ou bafouant ses règles sur la nudité des enfants sur le dernier trimestre. 

C'est ce que la firme de Mark Zuckerberg a annoncé mercredi dans un communiqué. C'est une intelligence artificielle qui a notamment permis cette modération de grande ampleur.   

«En plus de cette technologie de correspondance de photos (un outil utilisé jusqu'à présent afin de bloquer les photos pédopornographiques déjà repérées par le passé, ndlr), nous utilisons une intelligence artificielle pour détecter la nudité d’enfants et des contenus à caractère pédopornographiques inconnus de nos services au moment de son téléchargement», indique le réseau social dans son communiqué.

Des «photos anodines d’enfants dans le bain» modérées

Les signalements de la part des utilisateurs représentaient également un levier de modération des contenus pédopornographiques jusqu'alors. Mais sur la modération du dernier trimestre, ce n'est pas ce qui a pesé dans la balance.

Sur les 8,7 millions de contenus sensibles retirés pendant le dernier trimestre, «99% ont été supprimés avant que quelqu'un ne les signalent», précise Facebook, signe de l'efficacité et de la rapidité de cette nouvelle technologie.

La politique de modération de Facebook s'étend également à des images plus banales comme l'entreprise l'explique dans son communiqué : «(...) nous agissons également sur le contenu non sexuel, comme des photos anodines d’enfants dans le bain.»

Enfin, Facebook a également affirmé collaborer avec le Centre national pour enfants disparus et exploités (NCMEC) et des associations de luttes contre l’exploitation des enfants. 

À suivre aussi

Ailleurs sur le web

Derniers articles