Facebook a annoncé cette semaine adopter une définition plus large de ce qu’est une organisation terroriste, ce qui a pour conséquence d’exclure de sa plateforme quelque 200 groupes prônant la suprématie blanche. Cette redéfinition intervient après le massacre de Christchurch en Nouvelle-Zélande, où une personne proche de cette idéologie raciste avait attaqué une mosquée et pu streamer pendant 17 minutes sur Facebook, le 15 mars dernier, l’assassinat de 51 personnes auquel elle s’était livrée. 4 000 personnes avaient pu visionner ces images avant qu’elles ne soient retirées.
Cette décision répond à l’« Appel de Christchurch », lancé le 15 mai à la suite de cet acte par la première ministre néo-zélandaise Jacinda Ardern et le président français Emmanuel Macron « pour supprimer les contenus en ligne terroristes et extrémistes violents en ligne ».
« Alors que notre définition précédente sur des actes de violence destinés à atteindre un objectif politique ou idéologique, notre nouvelle définition précise plus clairement que des tentatives d’actes violents, en particulier lorsqu’ils sont dirigés contre des civils avec pour but de les soumettre à des exactions ou de les intimider, relèvent aussi de cette définition », a précisé Facebook, qualifiant le massacre de Christchurch d’« attaque terroriste ».
Dans ce domaine, Facebook s’était jusqu’ici surtout attaché à retirer des contenus relevant de Daesh ou d’Al Qaeda. Utilisant conjointement intelligence artificielle et modération humaine, Facebook a selon ses propres indications supprimé quelque 26 millions de contenus relevant de ces deux groupes au cours des deux dernières années, dans 99 pour cent des cas avant même qu’ils ne soient signalés par des utilisateurs.
Facebook n’est pas la seule plateforme à donner suite à l’appel de Christchurch. Dès le 15 mai, plusieurs des plus grands groupes de technologie s’étaient engagées à le mettre en pratique, dont Twitter, Google, Microsoft et Amazon.
L’annonce de Facebook est intervenue un jour avant que l’entreprise ne participe, en même temps que Google et Twitter, à une audition devant la Commission du commerce du Sénat américain précisément sur la façon dont les grands groupes technologiques traitent les contenus violents. Peu après la première annonce, faite sur un de ses blogs, Facebook a envoyé une lettre à la présidente d’une sous-commission de la Chambre des représentants indiquant empêcher dorénavant la publication sur sa plateforme de liens des sites 8chan et 4chan, connus pour servir de repaire à des mouvances racistes. En complément, le groupe a ensuite précisé vouloir mettre en place un Conseil de surveillance de onze membres pour évaluer et superviser les décisions relatives à des contenus. À noter que les États-Unis ont refusé de se joindre à l’Appel de Christchurch, mais ont assuré « soutenir ses objectifs généraux ».
Clairement, les efforts en cours vont bien au-delà de chercher à éviter que des images de violence ne soient propagées par les réseaux sociaux : l’enjeu est aussi de s’assurer que ceux-ci ne servent plus à l’avenir à incuber le racisme et la haine. On sait désormais que les réseaux sociaux sont naturellement enclins à favoriser la radicalisation simplement du fait de leurs algorithmes et du goût des utilisateurs pour des contenus extrêmes. Facebook a lancé en mars un programme qui fournit des ressources et du support à ceux qui veulent quitter des groupes incitant à la haine. Ce programme, qui selon ses propres indications s’appuie sur une équipe de 350 personnes « versées dans des sujets allant de l’application des lois aux questions de sécurité nationale, du renseignement contre-terroriste aux études académiques sur la radicalisation », va être étendu. Des utilisateurs fréquentant les mouvances prônant la suprématie blanche ont ainsi été orientés vers un groupe appelé « Life after Hate ». Pour savoir si ces réformes vont avoir l’impact souhaité, indique une experte citée par le New York Times, il va cependant falloir attendre les comptes-rendus périodiques de Facebook en la matière pour vérifier que ceux-ci ne font pas que de la « simulation de transparence » et comportent suffisamment de contexte et d’information pour être significatifs.