Accueil>Florence G'sell : “Nous sommes les premiers responsables de nos agissements sur les réseaux sociaux"
17.03.2021
Florence G'sell : “Nous sommes les premiers responsables de nos agissements sur les réseaux sociaux"
À l'occasion du Safer internet day 2021, Florence G’sell, co-directrice de la Chaire Digital, Gouvernance et souveraineté de l’École d’Affaires publiques de Sciences Po, revient à cette occasion sur la place des GAFA dans la vie politique, et la manière dont les grandes puissances adaptent leur arsenal législatif face à ces nouveaux acteurs de la vie publique.
Pourriez-vous nous présenter la Chaire Digital, Gouvernance et souveraineté, que vous co-dirigez depuis un an ?
Florence G’sell : Cette Chaire existe depuis 4 ans mais a été rebaptisée il y a un an pour pouvoir prendre en compte toutes les questions qui touchent à la souveraineté numérique. Ces questions sont majeures. Les “GAFAM” sont des entreprises transnationales à la force de frappe inédite, qui évoluent dans une logique hégémonique telle qu’elles paraissent concurrencer les États. Les réguler de manière efficace est difficile, d’autant que nous sommes très largement dépendants, en Europe, sur le plan technologique : à l’heure actuelle, il est difficile d’envisager le stockage de données sans faire appel au cloud d'Amazon, de Google ou de Microsoft. L’objet de cette Chaire est donc d’envisager les difficultés soulevées par cet état de fait et de proposer des éléments de solution.
Le 9 février c’est Safer Internet Day. Que signifierait un internet plus “sûr” ? Qu’est-ce qui est le plus en danger sur le web ? La démocratie ? la vérité ? la liberté d’expression ?
F.G. : Je crois que si l’on veut envisager internet de manière globale, il faut se souvenir de ses origines. Il s’agissait d’un réseau conçu par des chercheurs, soutenu par l’administration américaine, mais surtout, qui n’avait pas de vocation commerciale. Il devait permettre de nouveaux types d’échanges, et réduire des formes d’asymétrie dans l’accès au savoir. Pour les pionniers de l’internet, ceux qui ont œuvré à sa démocratisation, la Toile devait libérer de la tutelle des États grâce à la décentralisation et au pair-à-pair.
Dans les années 90, des chercheurs comme Lawrence Lessig et Tim Wu, ont soutenu qu'internet pouvait faire l'objet d'une régulation. Ils également prédit ce qu'allait devenir l'internet des années 2010 et vu arriver ce mouvement de centralisation très important que nous connaissons aujourd’hui. De l’internet libre des débuts, nous sommes passés à une domination par quelques plateformes très puissantes, organisées de façon verticale avec des chefs d’entreprise emblématiques (Jeff Bezos, Mark Zuckerberg, Jack Dorsey…), qui peuvent prendre des décisions aux conséquences majeures comme la suspension du compte de Donald Trump par Twitter ou le refus par Amazon d’héberger le réseau social Parler. C’est une situation qui n’est satisfaisante ni pour les États, ni pour les citoyens qui n’ont pas la maîtrise de l’univers virtuel dans lequel ils évoluent quotidiennnement.
Les acteurs numériques sont-ils en train de changer du statut de “pur” hébergeur sans responsabilité sur le contenu à celui d’éditeur ? Ou faut-il inventer un statut d’un nouveau genre pour eux ?
F.G. : Ma réponse à la première question est négative. Pour ce qui concerne l’Union Européenne, il y a une nouvelle proposition de réglement relatif aux services numériques publiée le 15 décembre dernier qui ne revient pas sur les principes établis dans la directive e-commerce de 2000. Celle-ci prévoit que les plateformes, en tant qu’hébergeurs, ne sont pas responsables des contenus postés par les tiers en ligne. L’hébergeur n’engage sa responsabilité que lorsqu’il a connaissance d’un contenu illicite et qu’il ne fait pas le nécessaire pour le retirer. En France, la loi Avia prévoyait d’imposer aux plateformes des obligations renforcées de retrait de contenus illicites par les plateformes, mais cette loi a été censurée par le Conseil Constitutionnel sur le fondement de la liberté d’expression, principalement parce qu’elle imposait aux plateformes d’apprécier seules le caractère licite ou non des contenus à retirer.
Aux États-Unis, la législation garantit aux plateformes une immunité totale. Elles peuvent modérer à leur discrétion les contenus postés en ligne. Cela dit, la situation pourrait évoluer car il est très sérieusement envisagé de réformer la section 230 du Communications Decency Act qui régit les plateformes. Certains proposent qu’elles engagent leur responsabilité si elles ne prennent pas des “mesures raisonnables” pour empêcher la propagation de contenus illicites ou toxiques.
Ce changement semble un mouvement plutôt spontané. Mais les acteurs sont-ils capables de se réguler eux-mêmes ? Doivent-ils être poussés à le faire par le régulateur étatique ? Par les citoyens ?
F.G. : Le place exacte revenant à l’État et à l’institution judiciaire dans la modération des contenus en ligne fait débat en France et aux États-Unis. Pour ce qui est du rôle de l'État, se pose la question de l’autorité de régulation. En France, le CSA est déjà investi de certaines missions à ce niveau, mais on pourrait s’interroger sur l’opportunité de créer une véritable autorité de régulation à l’échelle européenne.
Aux États-Unis, la création d’une autorité spécialisée n’est exclue non plus. Il existe plusieurs propositions d’universitaires de créer une agence fédérale chargée de réguler les plateformes. Elle pourrait contrôler, entre autres choses, les algorithmes utilisés par les plateformes, afin de s’assurer notamment que ces algorithmes ne poussent pas les contenus toxiques, dont nous savons qu’ils sont générateurs d’engagement.
Concernant le rôle du juge, il existe plusieurs points de vue. En France, certains considèrent que le retrait d’un contenu ne peut se faire sans la décision d’un juge. Je ne suis pas de ceux-là. Il faudrait un système plus souple dans lequel la justice interviendrait dans un second temps.
Aux États-Unis, la question du rôle du juge est liée au point de savoir s’il faut soumettre les réseaux sociaux au Premier amendement à la Constitution qui protège la liberté d’expression. Si on venait à l’admettre, ce qui est loin d’être acquis, alors la question du retrait des contenus pourrait faire l'objet de contestations portées devant les tribunaux. L’institution judiciaire deviendrait, par exemple, donc l’arbitre : c’est devant elle que devrait être tranchée la question de savoir si le compte Twitter de Donald Trump doit être suspendu.
Face à ces difficultés, Facebook a créé de sa propre initiative une entité indépendante, le conseil de surveillance, chargé de trancher les recours des utilisateurs. Elle vient d’ailleurs de rendre ses premières décisions, et devra se prononcer prochainement sur la question de la suspension du compte de Donald Trump. Cette décision sera un bon aperçu de ce qu’est capable de faire une instance de cette nature.
Avez-vous des exemples de régulation ou de projet de régulation par le législateur qui montrent la voie pour un internet plus sûr ?
F.G. : Plutôt que parler d’internet plus sûr, je parlerais, pour ce qui me concerne, d’un internet plus sain. Il y a d’abord la proposition de Règlement de la Commission Européenne sur les services numériques, le Digital Services Act, qui vise précisément à faire en sorte que les plateformes assurent une modération plus efficace, dans une plus grande transparence. Ce texte donnerait en même temps des garanties plus importantes, en exigeant qu’elles justifient auprès des utilisateurs leurs décisions de modération, et que ces derniers aient la possibilité de contester la décision. En cas de vrai désaccord, les utilisateurs devraient se voir offrir la possibilité de recourir à une instance tierce, comme une plateforme de médiation en ligne. Le texte, s’il est adopté, pourrait conduire les plateformes à être plus cohérentes dans la manière dont elles élaborent, modifient et appliquent leurs conditions générales.
Peut-on mettre tous les Gafa dans le même panier, ont-ils des visions différentes de leur responsabilité ? Y a-t-il des modèles plus vertueux que d’autres en la matière ?
F.G. : Il faut noter la différence d’approche entre Twitter et Facebook. Le patron de Twitter, Jack Dorsey, paraît rejeter la perspective d’une régulation étatique lorsqu’il se prononce en faveur d’un modèle totalement décentralisé, sur le modèle de la plateforme Bitcoin. Jack Dorsey met en avant l'idée que l’utilisateur peut quitter à sa guise la plateforme s’il n’est pas satisfait des conditions d’utilisation, et qu'il suffit de laisser jouer la concurrence. Tout ceci est, selon moi, irréaliste.
Facebook, de son côté, a beaucoup appelé à une régulation, et s’est lancé dans l’expérience de la création du "Conseil de Surveillance". Cela montre que la plateforme a compris l’intérêt de recourir à un tiers neutre en matière de modération. Indépendant, le "Conseil de Surveillance" rend ses décisions en se référant au droit international, aux droits de l’Homme. Je ne sais pas si on peut parler de modèle vertueux, mais il y a ici une prise en compte des droits des utilisateurs.
Quelles recommandations pourriez-vous donner à nos étudiants qui évoluent sur les réseaux sociaux ?
F.G. : Je leur suggérerais d’être prudents dans ce qu’ils postent et partagent sur les réseaux sociaux. Même si nous ne nous en rendons pas toujours compte, nous pouvons être amenés à poster ou partager des contenus illicites ou toxiques (fake news, complotisme, etc..). Lorsque c’est le cas, nous engageons notre responsabilité. Celle des plateformes est un sujet important, mais il ne faut jamais oublier que nous sommes les premiers responsables de nos agissements et de nos propos sur les réseaux sociaux.
En savoir plus :
La chaire digital, gouvernance et souveraineté
La conférence Territoires et souveraineté à l'ère du numérique, avec Florence G'Sell