Washington, Etats-Unis | AFP | jeudi 28/01/2021 - Le conseil de surveillance de Facebook a rendu ses premières décisions sur la très controversée politique de modération du réseau social, mais des interrogations subsistent sur la portée réelle de ce conseil des sages au-delà d'une poignée de contentieux.
L'instance indépendante a jugé "vagues" certaines règles de la plateforme et annulé quatre décisions de supprimer des contenus d'utilisateurs, sur cinq cas examinés.
Elle a par exemple demandé à Facebook de remettre la photo d'un sein (publiée dans le cadre d'une campagne sur le dépistage du cancer), selon un communiqué publié jeudi.
Elle a aussi tranché en faveur d'un utilisateur français qui évoquait un prétendu scandale à l'Agence nationale du médicament, le régulateur du secteur de la santé, et jugeait que l'hydroxychloroquine pouvait sauver des vies, dans un groupe consacré au Covid-19.
Pour Facebook, cette publication présentait "un risque imminent (...) de danger physique", mais pour le conseil de surveillance, le règlement du site sur la désinformation et le danger physique imminent étaient "indûment vagues".
Les membres du conseil de surveillance - des personnalités de la société civile - sont chargés d'évaluer des décisions de la plateforme sur certains contenus jugés problématiques. Leurs décisions sont contraignantes et ils espèrent, à travers leurs recommandations, faire jurisprudence sur les questions majeures qui taraudent le réseau.
Facebook est tiraillé depuis des années entre respect de la liberté d'expression et nécessité de protéger les individus des incitations à la violence, harcèlement en ligne et autres publications qui peuvent rendre la plateforme infréquentable pour certains utilisateurs, et donc pour les annonceurs.
"Portée limitée"
La poignée de premiers cas dont s'est saisi le conseil concerne quatre continents - Europe, Amérique du Nord, Asie et Amérique du Sud - et des situations géopolitiques comme les tensions politiques en Birmanie ou le conflit entre l'Azerbaïdjan et l'Arménie. Il s'agit de contenus publiés en octobre et novembre, supprimés par Facebook pour avoir enfreint ses règles sur les discours de haine, les organisations dangereuses ou encore la nudité.
Le groupe californien a indiqué dans un communiqué avoir déjà rétabli trois contenus.
"Le conseil soulève des préoccupations légitimes quand il dit que nous pourrions être plus transparents sur nos règles concernant la désinformation et le Covid-19", a admis Monika Bickert, une vice-présidente de Facebook.
Elle a déclaré que les recommandations auraient un "impact durable", mais a aussi précisé que l'approche du réseau sur la nécessité de fournir des informations correctes sur le coronavirus, approuvées par les organisations de santé, "ne changerait pas".
Le fondateur et patron de Facebook, Mark Zuckerberg, avait annoncé fin 2019 ce projet d'une sorte de "Cour suprême", ayant le dernier mot sur les contenus controversés sur Facebook et Instagram. Elle a vu le jour fin 2020, mais beaucoup d'observateurs estiment que son influence réelle sera limitée.
"Aucun conseil ne peut remplacer un contrôle véritablement indépendant, ancré dans l'Etat de droit. Ne nous laissons pas distraire par un petit nombre de cas triés sur le volet et à portée limitée", a tweeté Marietje Schaake, une directrice du centre de recherche sur les technologies et la gouvernance de l'université Stanford.
Droits humains
"C'est de la surveillance de pacotille", a renchéri une association anti-Facebook, ironiquement baptisée "Real Facebook Oversight Board" ("Véritable Conseil de surveillance de Facebook").
Le conseil "ne va pas s'attaquer de façon significative aux très nombreux torts facilités par Facebook", a-t-elle assuré dans un communiqué, où elle évoque la présence sur Facebook de groupes d'extrême droite violents, décidés à en découdre avec le gouvernement américain.
La plateforme se voit régulièrement reprocher son manque de réactivité contre certains appels à la violence, des massacres de Rohingyas en Birmanie en 2017 aux émeutes pro-Donald Trump qui ont interrompu le Congrès le 6 janvier dernier, et fait cinq morts.
Ces derniers événements ont conduit Facebook à prendre des mesures plus radicales contre des groupes extrémistes, et même à suspendre indéfiniment le compte de l'ex-président américain, qui a encouragé ses fans à se rendre au Capitole.
Le conseil de surveillance doit d'ailleurs décider si le milliardaire peut revenir ou pas.
Les décisions présentées jeudi "touchent à des sujets fondamentaux", et "montrent clairement que le conseil n'entend pas servir de simple point de ravitaillement à Facebook dans son voyage pour connecter le monde", a analysé Evelyn Douek, professeure de droit à Harvard, dans un billet de blog.
Mais les sages ne se sont pour l'instant pas confrontés "à la question de savoir ce qui se passe si les règles de Facebook contredisent les lois internationales sur les droits humains", a-t-elle ajouté.
L'instance indépendante a jugé "vagues" certaines règles de la plateforme et annulé quatre décisions de supprimer des contenus d'utilisateurs, sur cinq cas examinés.
Elle a par exemple demandé à Facebook de remettre la photo d'un sein (publiée dans le cadre d'une campagne sur le dépistage du cancer), selon un communiqué publié jeudi.
Elle a aussi tranché en faveur d'un utilisateur français qui évoquait un prétendu scandale à l'Agence nationale du médicament, le régulateur du secteur de la santé, et jugeait que l'hydroxychloroquine pouvait sauver des vies, dans un groupe consacré au Covid-19.
Pour Facebook, cette publication présentait "un risque imminent (...) de danger physique", mais pour le conseil de surveillance, le règlement du site sur la désinformation et le danger physique imminent étaient "indûment vagues".
Les membres du conseil de surveillance - des personnalités de la société civile - sont chargés d'évaluer des décisions de la plateforme sur certains contenus jugés problématiques. Leurs décisions sont contraignantes et ils espèrent, à travers leurs recommandations, faire jurisprudence sur les questions majeures qui taraudent le réseau.
Facebook est tiraillé depuis des années entre respect de la liberté d'expression et nécessité de protéger les individus des incitations à la violence, harcèlement en ligne et autres publications qui peuvent rendre la plateforme infréquentable pour certains utilisateurs, et donc pour les annonceurs.
"Portée limitée"
La poignée de premiers cas dont s'est saisi le conseil concerne quatre continents - Europe, Amérique du Nord, Asie et Amérique du Sud - et des situations géopolitiques comme les tensions politiques en Birmanie ou le conflit entre l'Azerbaïdjan et l'Arménie. Il s'agit de contenus publiés en octobre et novembre, supprimés par Facebook pour avoir enfreint ses règles sur les discours de haine, les organisations dangereuses ou encore la nudité.
Le groupe californien a indiqué dans un communiqué avoir déjà rétabli trois contenus.
"Le conseil soulève des préoccupations légitimes quand il dit que nous pourrions être plus transparents sur nos règles concernant la désinformation et le Covid-19", a admis Monika Bickert, une vice-présidente de Facebook.
Elle a déclaré que les recommandations auraient un "impact durable", mais a aussi précisé que l'approche du réseau sur la nécessité de fournir des informations correctes sur le coronavirus, approuvées par les organisations de santé, "ne changerait pas".
Le fondateur et patron de Facebook, Mark Zuckerberg, avait annoncé fin 2019 ce projet d'une sorte de "Cour suprême", ayant le dernier mot sur les contenus controversés sur Facebook et Instagram. Elle a vu le jour fin 2020, mais beaucoup d'observateurs estiment que son influence réelle sera limitée.
"Aucun conseil ne peut remplacer un contrôle véritablement indépendant, ancré dans l'Etat de droit. Ne nous laissons pas distraire par un petit nombre de cas triés sur le volet et à portée limitée", a tweeté Marietje Schaake, une directrice du centre de recherche sur les technologies et la gouvernance de l'université Stanford.
Droits humains
"C'est de la surveillance de pacotille", a renchéri une association anti-Facebook, ironiquement baptisée "Real Facebook Oversight Board" ("Véritable Conseil de surveillance de Facebook").
Le conseil "ne va pas s'attaquer de façon significative aux très nombreux torts facilités par Facebook", a-t-elle assuré dans un communiqué, où elle évoque la présence sur Facebook de groupes d'extrême droite violents, décidés à en découdre avec le gouvernement américain.
La plateforme se voit régulièrement reprocher son manque de réactivité contre certains appels à la violence, des massacres de Rohingyas en Birmanie en 2017 aux émeutes pro-Donald Trump qui ont interrompu le Congrès le 6 janvier dernier, et fait cinq morts.
Ces derniers événements ont conduit Facebook à prendre des mesures plus radicales contre des groupes extrémistes, et même à suspendre indéfiniment le compte de l'ex-président américain, qui a encouragé ses fans à se rendre au Capitole.
Le conseil de surveillance doit d'ailleurs décider si le milliardaire peut revenir ou pas.
Les décisions présentées jeudi "touchent à des sujets fondamentaux", et "montrent clairement que le conseil n'entend pas servir de simple point de ravitaillement à Facebook dans son voyage pour connecter le monde", a analysé Evelyn Douek, professeure de droit à Harvard, dans un billet de blog.
Mais les sages ne se sont pour l'instant pas confrontés "à la question de savoir ce qui se passe si les règles de Facebook contredisent les lois internationales sur les droits humains", a-t-elle ajouté.