France World

Facebook : sur la modération, « on nous reproche une chose et son contraire »

Le vice-président de Facebook chargé des affaires extérieures, Nick Clegg, lors d’un discours à la Hertie School of Governance, à Berlin, le 24 juin 2019. Le vice-président de Facebook chargé des affaires extérieures, Nick Clegg, lors d’un discours à la Hertie School of Governance, à Berlin, le 24 juin 2019.

Facebook a beaucoup été critiqué après avoir suspendu le compte du président américain Donald Trump, au lendemain de l’invasion violente du Capitole. Son responsable des affaires publiques, Nick Clegg, ancien président du parti britannique des Libéraux-démocrates, défend la décision du réseau social. Ce dernier a demandé jeudi 21 janvier son avis à sa « cour suprême », une entité extérieure qu’il a créée.

La décision de suspendre le compte de Donald Trump n’est-elle pas trop tardive ? N’aurait-il pas fallu le modérer plus strictement et plus tôt, dès avant son élection ?

Avant le 6 janvier, nous avons modéré le compte de Donald Trump et ceux de ses soutiens, sur des messages précis ou des publicités politiques. C’est ce que nous faisons pour tous les leaders politiques, dans le monde entier. Nous avons ajouté des avertissements sur des messages trompeurs ou supprimé certains messages publiés par le président brésilien Jair Bolsonaro, par exemple. Je ne pense pas, par principe, que ce soit le rôle d’une entreprise privée de décider, ligne par ligne, de la véracité de tous les discours des politiques. C’est pour cela que nous les excluons de notre réseau de « fact-checking » des informations. Mais nous avons des règles strictes sur les incitations à la violence, et elles ont été violées le 6 janvier.

Lire aussi Suspension du compte de Donald Trump : Facebook demande à sa « cour suprême » de se prononcer

On nous reproche une chose et son contraire : on nous accuse d’une part d’avoir fait trop peu, et trop tard ; et de l’autre, de nous être arrogé trop de pouvoir. Mais quand il y a un discours qui peut entraîner des violences dans le monde réel de manière imminente, nous devons agir. Il n’y a pas d’exception pour les élus quand ils incitent à la violence.

N’est-il pas hypocrite de suspendre M. Trump au moment où il perd son pouvoir et quitte la Maison Blanche ?

Il y a un élément qu’il ne faut pas perdre de vue, c’est le caractère exceptionnel des événements qui se sont déroulés le 6 janvier. Cinq personnes sont mortes. Des manifestants ont envahi le Capitole avec, pour certaines, le projet d’enlever le vice-président des Etats-Unis ! C’est avant tout pour cela que Facebook – comme Twitter, YouTube et d’autres plates-formes de contenus – a agi très vite. Même des entreprises comme Amazon Web Services, qui sont davantage des intermédiaires techniques, ont pris des mesures. Devaient-elles le faire ? C’est un autre débat. Mais cela illustre le caractère exceptionnel de ce moment.

Facebook va-t-il supprimer les comptes des dictateurs ou d’autres chefs d’Etat qui incitent à la violence ?

Nous supprimons déjà les messages qui ne respectent pas nos règles. Bien sûr, il y a des cas de figure très différents d’un pays à l’autre mais nous essayons d’appliquer nos règles de manière cohérente dans un monde qui ne l’est pas.

Article réservé à nos abonnés Lire aussi La suspension des comptes de Donald Trump et le débat sur la régulation des réseaux sociaux

Votre « cour suprême » va se pencher sur cette décision, mais cela reste un organisme privé, sans responsabilité à l’égard des autorités publiques…

Nous avons créé une entité indépendante justement parce qu’il n’y avait pas de règles fixées démocratiquement dictant comment nous devions agir dans ce genre de cas. Bien sûr que ce serait mieux si les entreprises privées prenaient des décisions sur les contenus dans un encadrement fixé par les autorités politiques… Mais un tel cadre n’existe pas. Et nous devons faire des choix chaque jour, dans le monde réel. Le conseil de surveillance (le nom officiel de la « cour suprême » de Facebook) est une innovation importante. Personne n’avait fait cela avant. Il est composé de personnalités de haut niveau, juristes, ex-responsables politiques…

La classe politique parle beaucoup de responsabilité des réseaux sociaux mais, jusqu’ici, n’a pas fait grand-chose dans ce domaine. Depuis deux ans, nous avons plaidé, plus qu’aucune autre entreprise de la Silicon Valley, pour de nouvelles régulations. Alors entendre les gens qui sont censés voter les lois se plaindre, c’est pour le moins tautologique… Le conseil de surveillance est la structure la plus aboutie en matière de modération de contenus. Nous sommes d’accord que le pouvoir des grandes entreprises de la tech appelle des responsabilités, mais nous n’avons pas le luxe de rester à un niveau abstrait.

Lire sur le sujet : « Trop, c’est trop » : l’heure de vérité pour Twitter, Facebook et YouTube face aux comptes de Donald Trump

Le commissaire européen Thierry Breton a parlé d’un « 11 Septembre de l’espace informationnel », appelant justement les réseaux sociaux à faire face à leurs responsabilités, notamment dans le Digital Services Act (DSA) : avez-vous des objections sur ce projet de règlement ?

Nous sommes d’accord avec les objectifs du DSA. Ils sont louables et sensés. C’est un texte plutôt bien réfléchi. Il prévoit l’obligation d’être transparent sur les actions de modération, d’offrir aux utilisateurs des voies de recours contre les décisions, de rendre les données sur la modération accessibles… Nous sommes la seule entreprise qui publie tous les trois mois un rapport de transparence sur les contenus dépubliés. Et nous venons même d’annoncer que nous soumettrons ces chiffres à des audits extérieurs. Je pense que les arrangements institutionnels du DSA, entre la Commission européenne, les Etats membres et les régulateurs nationaux, sont très complexes. Mais ils seront examinés dans les débats avec le Parlement européen. Globalement, le texte va dans le bon sens.

Source

L’article Facebook : sur la modération, « on nous reproche une chose et son contraire » est apparu en premier sur zimo news.