Les changements de gouvernance qui pourraient advenir dans les mois qui viennent sont peu reliés à l’épidémie de coronavirus. Le seul changement notable de politique fut celui de Twitter disqualifiant les tweets de Trump et de Bolsonaro lorsqu’ils étaient scientifiquement infondés ou trompeurs, alors que Facebook décidait de maintenir sa règle de non intervention dans les publications politiques.
Mais il faut dire aussi que la période de crise a été favorable à une activité de science totalement ouverte au public qui a engendré des fake news mais a aussi mis en scène les controverses normales qui font tout l’intérêt du débat scientifique. Les fake news en tant que telles n’ont pas été plus abondantes, les vidéos d’horreur comme celles que les terroristes diffusaient (de Daesh au massacre d’Auckland) se sont même faites plus rares, une calamité chasse l’autre, dans notre capacité d’attention tout au moins. Car notre attention collective a été captée par une version assez traumatisante de l’avenir à travers les compteurs permanents de décès, les vidéos de malades entassés dans les couloirs italiens, le choc du confinement total en Chine, etc. Les médias sociaux ainsi que les médias de masse ont engendré des émotions fortes permanentes et de ce fait, il devient difficile de produire des saillances alternatives, à part sur Bill Gates, par exemple. Nous étions plutôt dans une machine à laver médiatique, revenant sans cesse aux mêmes chiffres, aux mêmes drames, aux mêmes polémiques.
Même l’histoire de l’origine du virus était en fait une controverse légitime : certes, il a été démontré qu’il n’avait pas été fabriqué par une intervention humaine mais certaines autorités ont donné crédit à la possibilité d’un accident dans le laboratoire de Wuhan. Comme la Chine ne partage pas ses informations sur un sujet aussi sensible, et que l’enquête de l’OMS n’est pas prête de répondre à ces questions, toutes les hypothèses sont donc encore sur la table. Il devient donc difficile pour les réseaux sociaux comme pour les gouvernements d’appliquer une règle de traque et de dénonciation des sources non fiables, comme le veut la loi Avia votée en pleine crise du Covid en France, car toutes les sources peuvent se disqualifier les unes les autres. En France, la précipitation à qualifier Didier Raoult de fake news a paradoxalement provoqué sa popularité, selon un effet Streisand bien connu. De même, les masques ont donné lieu à tant d’anticipations, d’informations et de promesses qui se sont révélées fausses qu’il devenait difficile de mettre en cause les sources.
La leçon à retenir est plutôt celle d’une inadaptation totale des politiques de contrôle des sources lorsque la situation est incertaine et controversée, jusque dans la communauté scientifique. Cela devrait guider les nouvelles politiques de lutte contre le réchauffement médiatique que je préconise (ouvrage à paraitre en octobre chez Le passeur éditeur).
La politique de ciblage des sources non fiables est partagée par les gouvernements comme par les plates-formes de médias sociaux, voire aussi par les mass medias et leurs systèmes de checknews ou de décodeurs. Or, ce principe a montré son inefficacité dans le cadre des controverses durant la crise du Covid (comme il l’avait fait auparavant). La sélection a priori des sources relève d’un modèle d’ancien régime des médiateurs à forte autorité. Or, lorsque ces médiateurs ne sont pas d’accord entre eux (comme pour les recommandations des scientifiques durant la crise du Covid), et dans un climat de défiance généralisée vis-à-vis des autorités, il est totalement contre-productif de prétendre leur redonner un statut crédible au nom d’une autorité encore plus contestée que les autres, les plates-formes, même équipées d’un Oversight Board.
Ce que ne veulent pas voir ces plates-formes ni les gouvernements, c’est que le problème des fake news est non seulement un problème de sources plus ou moins malintentionnées et qui continueront à proliférer hors la loi, mais aussi un problème de propagation , et même d’architecture de propagation qui à lui seul amplifie le problème au point de le rendre insoluble. En effet, Twitter, Facebook , YouTube et les autres médias sociaux sont construits pour générer de l’engagement, c’est-à-dire de la réactivité, pour attirer le plus possible de placements publicitaires. Or, ce qui attire l’attention et surtout qui génère des réactions sans réflexion, ce sont les infos et les vidéos choquantes, incroyables, ridicules, scandaleuses ou violentes. Vosoughi a montré (Science, 2018) que leur propagation était plus profonde, plus large et plus durable que les autres news. Si l’on ne parvient pas à réguler cette propagation, qui est un équivalent d’un excès de vitesse mentale provoqué par les contenus mais encouragé par les infrastructures des plates-formes, toute régulation des contenus sera vouée à l’échec.
Il faut casser la chaine de contagion comme on l’a fait pour le virus, alors même que l’on sait qu’il y a et qu’il y aura toujours de nouveaux virus et toujours de nouvelles fake news. Je prône donc un ralentissement systématique de la haute fréquence de notre réactivité en limitant le nombre de retweets, de partages, de likes etc. par jour et par compte, au même titre qu’on a régulé la vitesse sur les routes pour des raisons de sécurité collective, même s’il s’agit de sécurité mentale ici. Mais on voit que même la volonté politique forte d’un gouvernement se heurtera au modèle économique publicitaire fondé sur l’engagement et qu’il faudra donc être tout aussi ferme avec les plates-formes qu’on l’a été avec les lobbies automobiles (et encore, différemment selon les pays, cf. l’Allemagne).
J’ai annoncé en Mars 2018 que Facebook était en phase de construction d’un quasi État lorsqu’il s’est doté d’un budget de recherche qu’il assignait aux chercheurs qui lui convenaient à des fins non seulement de connaissances mais de pilotage de politiques publiques. De même, lorsque Facebook a réussi à contraindre tous les utilisateurs à déclarer leur véritable identité, c’est à-dire celle établie par l’état-civil de chaque État, il devenait capable de se substituer à toutes les autorités qui délivrent des autorisations d’accès en les garantissant grâce à son compte Facebook. Facebook est ainsi devenu l’état civil de substitution, en compétition avec Google et son empire Android/ drive/ gmail.
Pour renforcer encore cette identification mais à un niveau calculable nettement plus puissant, Facebook utilise 614 « features » de base pour profiler les comptes à partir de traces infimes de comportement parfois. Ce que S. Zuboff appelle le « capitalisme de surveillance » vit en effet des « produits prédictifs » que la firme vend aux marques et qu’elle obtient à partir des corrélations entre toutes ces traces élémentaires de comportement. Le quasi État Facebook est ainsi l’entité qui sait et qui apprend le plus sur les comportements sociaux et qui ne partage pas ces savoirs puisqu’il faut au contraire s’en servir en exclusivité pour générer plus de captation du public, des marques et des revenus. Cette vision empirique est aussi appuyée sur la théorie de Alain Supiot sur la suzeraineté que se construisent les plates-formes, sans les inconvénients et obligation des souverains, mais avec les avantages qui leur permettent de faire de chaque État un obligé (pour des raisons assez chimériques d’emploi notamment).
La mise en place d’un Oversight Board est une pierre de plus dans cet édifice de quasi-État. Il équivaut à une cour suprême ou à un cour constitutionnelle qui existe dans tous les pays. Le garant suprême ne pouvait pas être la firme, qui pourtant décide tout et profite de tout mais devait avoir les apparence d’un corps indépendant supposé transmettre un supplément de légitimité. Sa composition savamment dosée (et toujours en cours, avec acceptation des suggestions des possesseurs d’un compte Facebook ; donc très participative) doit lui éviter toute critique a priori alors que c’est le principe même qui devrait être discuté.
Pourquoi la loi des pays concernés devrait –elle passer au filtre des jugements d’une instance totalement ad hoc et sans corps de doctrine, sans récapitulation du droit, puisque précisément elle se situe d’emblée à un niveau global (et non pas international comme les instances de normalisation technique , type ITU, ou comme les instances multilatérales du type de celles associées à l’ONU). Cette invention qui vient compléter la construction d’un quasi État de niveau global ne reprend même pas les principes qui régulent l’internet (IETF, ICANN, W3C, etc.) qui fonctionnent, elles, sur la base du « rough consensus and running code », avec toutes les dérives que cela engendre. Facebook n’a même pas tenté de créer une instance multipartite entre toutes les plates-formes de médias sociaux : il EST à lui seul le régulateur de son réseau social et par là de tous les médias sociaux qu’il a écrasés ou absorbés un par un depuis 15 ans. Ce monopole est le problème, cette impossibilité de rendre compte devant des instances légales, et donc élues, est le problème.
Le prétexte des fake news est saisi habilement dans un contexte de suspicion générale de la firme depuis l’affaire ,Cambridge Analytica, la seule qui a touché vraiment les politiques et les a donc obligés enfin à réagir. Le Oversight Board est donc à la fois une stratégie de défense mais aussi une attaque en profitant de l’occasion pour compléter encore le dispositif de quasi-Etat que Facebook met en place progressivement. Ses chances d’inflexion de la prolifération de fake news sont à peu près nulles, puisque la machine à réplication que sont les partages et les likes notamment n’est en rien affectée. Mais l’opération se situe à un métaniveau d’institutionnalisation de la plate-forme, qui n’a que peu à avoir avec la modération des contenus.
Vous pouvez en savoir plus sur les travaux de Dominique sur sa page de recherche Sciences Po et son site personnel.