Skip to main content
Presse et médias

TRIBUNE DE BENOIT HUET DANS LE MONDE : FACEBOOK SE DOTE DE SON PROPRE TRIBUNAL

par 19 décembre 2018décembre 16th, 2020Aucun commentaire

Dans une tribune pour « Le Monde » daté du 20 décembre, Benoit Huet revient sur l’annonce par Facebook de sa nouvelle politique de modération des contenus et de la création de son propre « Tribunal ». Quelle loi appliquera Facebook pour trancher les litiges relatifs à la liberté d’expression ? 

 

*   *    *

LE MONDE | 19.12.2018 à 07h00 • Mis à jour le 19.12.2018 à 07h56

« Mark Zuckerberg impose ses lois à 2,2 milliards d’individus »

Au début, le rôle des plates-formes numériques était de publier les contenus transmis par les utilisateurs. Cette neutralité devenue inacceptable aux yeux du public, un filtrage systématique s’est progressivement imposé, raconte l’avocat Benoît Huet.

Tribune. Le fondateur de Facebook, Mark Zuckerberg, a annoncé, le 15 novembre, qu’il avait formé une équipe de 30 000 modérateurs pour écarter du réseau social les contenus les plus polémiques, et qu’il allait constituer, d’ici à fin 2019, une « cour d’appel » devant laquelle les utilisateurs pourront exercer un recours lorsqu’une de leurs publications est supprimée. Cette annonce est passée relativement inaperçue en France, alors qu’elle marque un revirement majeur dans la façon dont la liberté d’expression est appréhendée sur Internet.

Le paradigme initial des plates-formes numériques était en effet de publier, sans les revoir, les contenus transmis par les utilisateurs (texte, image, vidéo). Seules les publications signalées comme nuisibles par les utilisateurs étaient éventuellement retirées. Cette neutralité des plates-formes est toutefois devenue inacceptable aux yeux du public, et on a notamment pu s’interroger sur le maintien, pendant des mois, de pages Facebook appelant au massacre des Rohingya en Birmanie.

Un filtrage systématique des contenus s’est donc progressivement imposé, s’appuyant d’une part sur des machines programmées pour apprendre (intelligence artificielle), et d’autre part sur des êtres humains. Facebook admet supprimer à un rythme de 2 millions par jour les publications considérées comme trompeuses, violentes, ou contenant de la nudité.

Ses propres règles

La plate-forme a également reconnu programmer ses algorithmes pour rendre moins visibles certaines publications, qui sont licites, mais que le réseau préfère écarter (borderline content). Facebook, qui se rapproche de plus en plus d’un média, retire donc de la vue des utilisateurs des contenus qui ne sont interdits par aucune loi. Tout citoyen a dès lors le droit de s’interroger sur les choix qui sont faits par la plate-forme pour déterminer ce que l’être humain doit voir et ne doit pas voir.

Les démocraties résolvent généralement cette question par l’application d’une loi préalablement débattue au Parlement : on peut donner à voir tout ce que la loi ne prohibe pas. Facebook, qui opère dans plus de 100 pays, a choisi de ne se référer à la loi d’aucun d’entre eux et de fabriquer, seul, ses propres règles, les community standards. Ce texte est remarquable en ce qu’il est une des normes juridiques qui s’appliquent au plus d’êtres humains dans le monde (2,2 milliards).

Si on comprend la simplicité qu’offre le choix d’une règle universelle, on ne peut que regretter l’uniformisation qu’il induit. La « cour d’appel » Facebook aura, par exemple, le plus grand mal à rendre une décision sur un sujet comme l’avortement. En France, la loi punit d’une peine d’emprisonnement le fait d’induire les femmes en erreur sur les conséquences médicales d’une interruption volontaire de grossesse. Aux Etats-Unis, les mouvements dits « pro-life » diffusent en toute légalité ces mêmes messages.

200 000 publications effacées quotidiennement

Jusqu’à présent, la plate-forme a choisi de faire accomplir le travail de modération par des sous-traitants vivant généralement très loin des utilisateurs. Aucune loi ne contraint en effet à ce jour Facebook, Twitter ou YouTube à modérer le contenu dans le pays où il est produit. Les plates-formes ont donc choisi des pays où les salaires sont faibles, appliquant la logique de la délocalisation à un secteur – la liberté d’expression – qui ne s’y prête pourtant pas.

Le documentaire Les Nettoyeurs du Web, de Hans Block et Moritz Riesewieck, diffusé le 28 août sur Arte) montre ainsi des modérateurs philippins jugeant depuis Manille si telle photo parodiant Donald Trump est, ou non, un contenu approprié pour un Américain. La déférence vis-à-vis des institutions ou le rapport à la nudité sont pourtant des notions appréhendées de manière très variable d’un pays à l’autre.

Au final, Mark Zuckerberg reconnaît que ses modérateurs suppriment 1 contenu sur 10 par erreur, soit la bagatelle de 200 000 publications effacées quotidiennement sans raison valable. Ce chiffre fait de Facebook un des plus puissants organes de censure au monde et montre que l’objectif d’offrir un réseau « sécurisé » est atteint au prix de violations majeures de la liberté d’expression et d’opinion.

Un tribunal arbitral

Conscient du caractère arbitraire de ce grand nettoyage, Mark Zuckerberg souhaite désormais proposer un recours aux utilisateurs. L’initiative doit être saluée, mais le défi à relever est de taille. Mark Zuckerberg l’a compris, et il promet que l’utilisateur pourra saisir « un organe indépendant dont les décisions seront à la fois transparentes et contraignantes ».

Il s’agit ainsi d’instituer ce que les juristes appellent un tribunal arbitral, et de garantir un procès équitable, c’est-à-dire des juges impartiaux, une procédure contradictoire, ou encore des droits pour la défense. Cette juridiction indépendante ne pourra dépendre, directement ou indirectement, ni de la plate-forme ni de ses revenus. Si on ne doute pas que Facebook cherchera à créer l’apparence d’une indépendance, par exemple en interposant une fondation pour rémunérer ses « juges », on peut s’interroger sur les garanties qui seront offertes contre des pressions extérieures, notamment des annonceurs.

L’effort de transparence devra par ailleurs être immense. Les débats, les décisions, et l’identité des juges devront bien sûr être publics. Mais la transparence devra aussi porter sur les algorithmes qui trient les contenus et relèguent certaines publications loin de notre vue sans que nous le sachions. Facebook est jusqu’à présent resté très opaque sur ce sujet, pourtant essentiel.

Un tournant majeur semble ainsi avoir été engagé par les plates-formes. En quelques années, Facebook, Twitter et YouTube, qui se présentaient comme de simples « hébergeurs », sont devenus des médias choisissant les contenus qu’ils estiment pertinent de donner à voir. L’influence de ces plates-formes sur le processus politique est telle qu’il est urgent qu’elles rendent publics les critères de tri et de suppression des contenus. La « cour d’appel » de Facebook sera un excellent lieu pour en débattre, à condition que son fonctionnement garantisse une réelle indépendance des juges.

Par Benoit Huet (Avocat au barreau de Paris et enseignant en droit des affaires et de l’entrepreneuriat à l’Essec)