Est-il encore possible de réformer Facebook ? Après l’annus horribilis vécu par le réseau social aux deux milliards d’utilisateurs, au cours duquel il a été exposé à un feu roulant de révélations atterrantes, la question est légitime et la réponse que donnent un certain nombre d’experts et de législateurs à travers le monde est un « non » retentissant. Les jeunes se détournent en masse d’une plateforme qui a démontré qu’elle est incapable de respecter ses utilisateurs et qu’ils considèrent comme ringarde ; ses jours, ou du moins son rôle dominant, sont donc comptés, suggèrent-ils. Des universitaires d’Oxford et de Stanford qui ont planché sur le sujet énoncent pour leur part, dans un rapport publié cette semaine, neuf recommandations détaillées pour réformer la plateforme.
En résumé, Facebook devrait offrir davantage de transparence à ses utilisateurs et plus de contrôle sur les contenus qu’ils voient. Le réseau devrait aussi transformer en profondeur ses structures et processus de gouvernance pour rendre ses décisions relatives aux contenus plus transparentes, notamment en permettant à davantage d’experts extérieurs à la firme de peser sur celles-ci.
Le rapport, publié sous la direction de Timothy Garton Ash, professeur d’études européennes à Oxford, est intitulé : « Glasnost! Nine Ways Facebook Can Make Itself a Better Forum for Free Speech and Democracy » et examine en détail la question de l’impact de Facebook sur la démocratie, la liberté d’expression et les droits de l’Homme. Les chercheurs n’y vont pas par quatre chemins : « Faire de Facebook un forum meilleur en terme de liberté d’expression et de démocratie est une part significative d’une lutte plus étendue pour défendre ces valeurs dans le monde entier », concluent-ils. On en est donc là : pour préserver ces valeurs qui servent habituellement à caractériser les sociétés occidentales, il est désormais essentiel d’influencer une entreprise transnationale cotée en bourse.
Le catalogue des mesures recommandées est une liste de ce que Facebook a omis de faire, malgré des alertes répétées, ou a promis de faire mais n’a pas fait. Cela commence par les discours de haine, pour lesquels les normes devraient être resserrées : les règles actuelles étant formulées de manière trop vague et menant à des suppressions de contenus « erratiques, incohérentes et souvent sans prise en compte du contexte ». Pour ce faire, il faut que Facebook recrute non seulement davantage de modérateurs ou réviseurs, mais surtout qu’ils soient plus versés dans les domaines très divers sur lesquels ils sont amenés à travailler, car l’intelligence artificielle à elle seule ne va pas résoudre ces problèmes, fait valoir le rapport.
Mais la plateforme doit aussi devenir plus transparente dans ses procédures, en rendant public le détail de cas spécifiques susceptibles de mieux éclairer les utilisateurs et de faciliter les appels sur des décisions considérées comme contestables. Les procédures d’appel doivent, elles aussi, être réformées, en intégrant davantage les contextes et en publiant des statistiques à leur sujet. « Une image de l’holocauste a une signification très différente si elle est publiée par un survivant de l’holocauste ou par un néo-nazi », note le rapport. Les utilisateurs doivent pouvoir mieux contrôler ce qu’ils voient, les moyens leur étant offerts aujourd’hui étant « complètement inadéquats », assènent les universitaires. Ils devraient aussi disposer d’outils de mise en contexte et de vérification des faits. Facebook devrait aussi mettre en place des mécanismes d’audit, notamment sur les questions relatives aux droits de l’Homme, et créer un groupe de conseillers extérieurs sur les sujets de nature politique, comprenant des représentants de la société civile, des universitaires et des journalistes.
Au vu du comportement de la firme de Mark Zuckerberg ces dernières années, on se permettra d’être sceptique sur l’impact potentiel de ce rapport. Mais au moins la société civile et les décideurs disposent-ils d’une feuille de route experte et détaillée pour s’attaquer au problème.