Facebook supprime 3,2 milliards de faux comptes et des millions de messages pédosexuels

Facebook a supprimé 3,2 milliards de faux comptes et des millions de messages sur la maltraitance d’enfants et le suicide entre avril et septembre de cette année. C’est le double par rapport à la même période l’année dernière.

Facebook a supprimé 3,2 milliards de faux comptes et des millions de messages sur la maltraitance d’enfants et le suicide entre avril et septembre de cette année. C’est le double par rapport à la même période l’année dernière.

Des faux profils Facebook, on en a tous déjà été victimes. Mais oui, souvenez-vous du message de cette Lindsay aux 5 amis, 3 photos et habitant au Botswana, vous demandant de l’argent sinon vous seriez frappé de malheurs. Des Lindsay, il y en a beaucoup on s’en doutait bien, mais peut-être pas autant.

Instagram, la nouvelle menace

3,2 milliards de faux comptes précisément ont été supprimés par Facebook, entre avril et septembre 2019. C’est plus du double que le chiffre de l’année précédente pendant la même période, où 1,55 milliards « seulement » ont été retirés.

Mais Facebook n’est plus le seul terrain de jeu des faux comptes. Instagram a ainsi été identifié comme un domaine de plus en plus préoccupant au sujet des fake news par les chercheurs en désinformation. Sauf que la détection proactive de ces contenus est plus faible sur Instagram que sur Facebook. Il faudra désormais évoluer pour s’adapter aux menaces grandissantes sur Instagram.

11,6 millions de messages pédosexuels retirés

Les chiffres le démontrent clairement. L’entreprise a déclaré qu’elle avait détecté de manière proactive des contenus affiliés à des organisations terroristes 98,5 % du temps sur Facebook et 92,2 % du temps sur Instagram. La tendance s’accentue lorsque l’on regarde au contenu décrivant la nudité et l’exploitation sexuelle des enfants : plus de 11,6 millions d’éléments ont été retirés sur Facebook, pour 754 000 éléments sur Instagram.

Un nouveau domaine censuré fait aussi son arrivée dans les outils de détection sur Facebook : le contenu sur l’automutilation. Une preuve supplémentaire des efforts fournis par l’entreprise de Zuckerberg pour limiter l’idéalisation du suicide sur ses réseaux sociaux. Pour la première fois, Facebook a supprimé environ 2,5 millions de messages décrivant ou encourageant le suicide ou l’automutilation. Du positif, non ? On essaye de s’en convaincre…