[ESSAI D’ÉTUDIANT] Comment la loi américaine FOSTA-SESTA a « involontairement » fondé la censure de l’utilisation des réseaux sociaux par les travailleurs du sexe
29 juin 2023
[ESSAI D’ÉTUDIANT] Combler le fossé du pouvoir de négociation : protéger les médias d’information à l’ère numérique
4 juillet 2023

[ESSAI D’ÉTUDIANT] Quel est l’impact des bulles de filtres sur les réseaux sociaux ?

Par Giovanna Hajdu Hungria da Custódia


« La personnalisation de la communication permet de mieux rentabiliser l’investissement politique.« 

Eli Pariser, The Filter Bubble (2011)


La Chaire Numérique, Gouvernance et Souveraineté publie désormais régulièrement les meilleurs essais et articles rédigés par les étudiants de Sciences Po dans le cadre de leurs études.

Ce billet présente l’essai rédigé par une étudiante en deuxième année à Sciences Po (campus de Reims), dans le cadre du cours enseigné par Rachel Griffin et intitulé « The Law & Politics of Social Media » (Le droit et la politique des médias sociaux).


Bien que l’ampleur du rôle de Cambridge Analytica dans l’élection de Donald Trump reste toujours sans réponse, il ne fait guère de doute que le scandale qui a suivi en 2018 au sein de la tristement célèbre société de conseil a mis en lumière, dans l’opinion publique, le dangereux pouvoir de la personnalisation et l’énorme impact qu’elle peut engendrer dans le monde réel. Ce sont précisément ces conséquences politiques et sociétales qui sont abordées dans le livre d’Eli Pariser, The Filter Bubble, paru en 2011. Il est important de noter que ce livre fournit la première analyse complète du phénomène titré inventé par Pariser. Selon la définition de Pariser, les bulles de filtres sont des « univers uniques d’informations » conçus par les algorithmes et les recommandeurs d’Internet pour créer un monde spécifiquement adapté aux goûts et aux dégoûts, aux préférences de chaque individu sur la base de ses comportements antérieurs. Ce processus est également ce que Pariser appelle la personnalisation, dont les bulles de filtres sont le produit.

Pariser conçoit les bulles filtrantes comme uniques en ce qu’elles englobent une dynamique tripartite jamais rencontrée auparavant dans notre interaction avec les médias. Premièrement, chaque bulle de filtre est unique ; il n’y en a pas deux pareilles et chaque individu est seul dans sa bulle. Deuxièmement, les bulles de filtres sont invisibles, car les agendas utilisés par les différentes plateformes sont opaques, et nous ne sommes donc pas conscients de faire partie d’une bulle, car nous ne connaissons pas les critères utilisés pour la créer. Troisièmement, le rôle d’une personne dans une bulle de filtre est involontaire : il s’agit d’un sous-produit inévitable de l’inscription dans un écosystème de médias sociaux particulier.

Pour les besoins de ce billet de blog, ma compréhension des bulles de filtres, bien que fondée sur la définition de Pariser, sera élargie de manière à prendre en compte le phénomène plus large qui englobe l’effet de rétrécissement que les plateformes de médias sociaux ont, de par leur conception, sur le discours public. Ainsi, je m’intéresserai non seulement au fonctionnement et aux conséquences des bulles algorithmiques telles que les conçoit Pariser, mais aussi à l’impact plus général de la conception globale des plateformes de médias sociaux, orchestrée autour de la « capacité des utilisateurs à suivre des individus partageant les mêmes idées ».

            Dans une section traitant du fonctionnement et des conséquences des publicités politiques ciblées sur les campagnes, Pariser affirme que « le problème politique le plus grave posé par les bulles de filtres est qu’elles rendent de plus en plus difficile l’expression d’un argument public ». Il est important de comprendre que la critique de Pariser sur les bulles de filtres est une critique de la personnalisation. Je soutiendrai que ces deux facteurs représentent un risque indéniable pour la pluralité du discours et qu’en tant que tels, ils appauvrissent et menacent notre capacité à mener des débats publics essentiels.

Cependant, je pense que la meilleure analyse de la valeur normative de l’argument de Pariser n’implique pas une compréhension binaire. Un meilleur point de départ consiste à se demander pourquoi les bulles de filtres ont cet impact appauvrissant et inhibant, et à prendre en compte les contre-arguments qui viennent valablement contredire l’affirmation de Pariser. Le plus notable d’entre eux est la compréhension de plus en plus populaire des bulles de filtres (selon ma définition, pas celle de Pariser) comme des moyens de protection de la construction de la communauté qui permettent aux individus, et en particulier aux membres de groupes sociaux marginalisés, de créer des espaces sûrs peuplés uniquement de personnes et de contenus qui partagent leurs valeurs. Dans la mesure où elles sont fondées sur cette même notion de construction communautaire par l’utilisateur, il est à son tour important de s’attaquer aux défis que les plateformes de réseaux sociaux décentralisées posent au maintien d’espaces de pluralité et de discussion intellectuelles et normatives, alors qu’elles sont conçues pour faciliter exactement le contraire. 

Bulles de filtres et dangers publics de la personnalisation

« Passer d’un état à un peuple »

            La personnalisation est le processus de manipulation et d’application des données de l’utilisateur qui permet de créer des univers d’information individuels et uniques. En d’autres termes, c’est le processus qui génère les bulles de filtres. Pariser affirme que la menace politique des bulles de filtres découle de leur nature personnalisée, en particulier dans le contexte de l’accès des électeurs à l’information pendant les campagnes politiques. Le microciblage et les annonces de campagne personnalisées se concentrent exclusivement sur les individus (et non les groupes d’individus) que les militants considèrent comme « persuadables », ces électeurs communément appelés « swing-voters » dans le jargon politique traditionnel. Le danger de ce type de publicité ciblée est qu’il génère des écarts importants entre les individus en termes d’accès à la connaissance des candidats et de la campagne.

Pour illustrer l’ampleur de ce problème, Pariser va jusqu’à affirmer que dans un monde entièrement personnalisé, les « non-persuadables » pourraient être tellement privés de publicité et d’accès aux informations relatives à la campagne qu’ils ne seraient même pas conscients de l’existence d’une campagne. Bien qu’elle soit ouvertement exagérée, l’affirmation de Pariser soulève des points importants qui méritent d’être contestés. Ce n’est un secret pour personne que l’absence ou la réduction de la connaissance généralisée des campagnes est évidemment dangereuse pour la durabilité de l’argumentation publique, notamment parce qu’elle favorise la création de diverses réalités individuelles qui dépendent des informations et des faits que les algorithmes des plateformes choisissent de mettre à la disposition de chacun d’entre nous.

La personnalisation facilite également la diffusion de fausses informations en empêchant les journalistes d’exercer leur rôle de garants de la responsabilité publique en les excluant des connaissances sur les candidats, les hommes politiques et la dynamique de la campagne elle-même. En effet, si les journalistes ne correspondent pas au profil des « persuadables », l’algorithme pourrait les priver de publicités et d’informations sur la campagne. En outre, la personnalisation pourrait permettre aux candidats de manipuler les algorithmes de manière à exclure délibérément la classe journalistique de la campagne. Il est évident que cela a des implications majeures pour la responsabilité, étant donné que les médias éditoriaux (c’est-à-dire les médias qui vérifient les faits) ont traditionnellement la responsabilité de diffuser des informations vérifiées qui permettent au public de prendre des décisions politiques en connaissance de cause et de demander des comptes à leurs dirigeants et à leurs institutions. Ainsi, en l’absence de contribution journalistique, la personnalisation est susceptible d’entraîner une augmentation de la diffusion de fausses informations.

            Un autre problème posé par la personnalisation ne concerne pas la qualité ou la quantité de l’information proposée et rendue accessible aux utilisateurs, mais plutôt l’objet de l’information elle-même. Par définition, la personnalisation signifie qu’il n’y a pas une campagne générale, mais des milliers de messages de campagne individualisés visant à convaincre chacun de ces individus de soutenir le produit en question, le candidat. Comme le veut la nature de la personnalisation, les messages cibleront les électeurs potentiels par des moyens qui les intéressent. La personnalisation joue sur la tendance psychologique au « raisonnement motivé par la direction », c’est-à-dire notre tendance à croire et à être sensible aux informations qui valident nos croyances et nos préjugés antérieurs. Par exemple, si un utilisateur ou un électeur potentiel aime beaucoup les articles « féministes » ou a récemment acheté un livre sur Amazon en rapport avec le « féminisme », son message de campagne personnalisé sera probablement axé sur le soutien du candidat au droit à l’avortement ou au renforcement de la protection contre les violences familiales (des sujets politiques traditionnellement « féministes »), et rien d’autre.

Cela appauvrit la qualité du discours politique et de la vie publique en empêchant les individus d’obtenir une vue d’ensemble de leurs dirigeants et futurs dirigeants, de leurs valeurs et de leurs propositions politiques. Cela peut également s’avérer un facteur de polarisation dans la mesure où la personnalisation et le raisonnement orienté existent dans les deux sens. En d’autres termes, tout comme les utilisateurs se verront présenter des publicités basées sur un comportement ciblé, l’exposition à ces publicités et à leur noyau d’information sélectionné renforcera les inclinaisons des utilisateurs à l’égard de ce comportement, les poussant – du moins en théorie – de plus en plus loin vers leur extrême.

Des bulles protectrices ?

            Alors que Pariser affirme que l’implication personnelle de l’utilisateur générée par les bulles de filtre inhibe la communication et le discours, l’universitaire chinois Longxuan Zhao remet en question ce cadrage négatif et suggère dans la foulée que, du moins pour certains, les bulles de filtre ne sont pas des barrières mais des vecteurs de communication et d’acquisition d’informations. Dans une étude publiée par Zhao au début de cette année, il a mené une enquête par entretiens sur les perceptions qu’ont les hommes chinois homosexuels de la plateforme de médias sociaux chinoise Zhihu, ce qui semble confirmer son hypothèse.

Équivalent chinois de Quora, Zhihu est une plateforme de médias sociaux basée sur un forum et structurée autour d’un format de questions-réponses dans lequel des chats sont créés pour débattre des questions posées par les utilisateurs. Le contenu et les forums sont recommandés aux utilisateurs selon le modèle de personnalisation. Le fondement de l’étude de Zhao repose sur le pouvoir social qu’il attribue à ce qu’Eslami et al. définissent comme des « théories populaires algorithmiques », un terme qui fait référence aux perceptions qu’ont les individus des algorithmes des plateformes et aux récits qu’ils leur associent (négatifs, positifs, etc.). Le pouvoir social de ces théories populaires découle de la manière dont les perceptions des algorithmes par les utilisateurs modifient la façon dont ils interagissent avec eux par la suite. Comme les algorithmes prédictifs réagissent au comportement des utilisateurs, ceux-ci peuvent influencer les algorithmes de la même manière qu’ils sont influencés par eux.

Dans le cadre de son étude, Zhao a découvert qu’une proportion importante des utilisateurs masculins queer de Zhihu interrogés avaient une vision positive des algorithmes de Zhihu. Ces utilisateurs considèrent les algorithmes comme des vecteurs de création de « réseaux exclusifs » et de barrières à l’information – plus communément appelées « bulles de filtres » – qui permettent aux individus traditionnellement marginalisés d’accéder à diverses communautés réservées aux homosexuels qui les protègent des intrus hétérosexuels potentiellement inamicaux ou dangereux.

Ce cadre remet en question le point de vue traditionnel de Pariser et d’autres qui considèrent les barrières d’information et les bulles de filtre comme des obstacles à l’interaction et à la « circulation des opinions » entre les personnes. Il conteste également le point de vue selon lequel les utilisateurs sont passifs dans leurs interactions avec les algorithmes. En fait, Zhao affirme que les hommes qui ont participé à son étude se sont engagés dans ce qu’il appelle un processus de domestication vis-à-vis des algorithmes de Zhihu, qu’ils réalisent grâce à des interactions actives et intentionnelles avec le contenu LGBTQ+ sur une base quotidienne à long terme afin de laisser des « indices repérables pour les algorithmes » dans une tentative perceptible de manipuler le résultat de leurs curations algorithmiques personnalisées. En fin de compte, le point de vue qui considère les algorithmes comme des protecteurs et des sources de force communautaire est un défi direct au point de vue de Pariser qui déclare que la pluralité est la pierre angulaire de la vie publique – un luxe hétéronormatif dont de nombreux chercheurs queer diraient qu’il n’est malheureusement pas accordé à la communauté LGBTQ+, en raison des dangers que la pluralité représente souvent pour les marginalisés. 

Les médias sociaux décentralisés et le phénomène de la bulle de filtre

            À la suite d’une prise de conscience et d’une inquiétude croissantes du public concernant la confidentialité des données et la manipulation algorithmique, de nombreux utilisateurs de plateformes de médias sociaux centralisées ont progressivement migré vers des plateformes décentralisées de plus en plus populaires. Les plateformes de médias sociaux décentralisées sont des réseaux de serveurs interconnectés qui fonctionnent sur le principe de l’interopérabilité, ce qui permet aux utilisateurs de communiquer entre eux bien qu’ils utilisent des serveurs indépendants.

Le principal argument de vente de ces plateformes est qu’elles n’abritent pas de forum unique et centralisé pour la modération/curation. Au contraire, elles sont orchestrées autour de l’intention de rendre le pouvoir aux utilisateurs en leur permettant de rejoindre des serveurs qui correspondent à leurs valeurs – chaque serveur fonctionne selon ses propres critères de modération. Cela peut signifier qu’ils seront exposés presque exclusivement à des utilisateurs et à des contenus qui correspondent à leurs croyances, à leurs comportements et à leurs inclinations. Quelques exemples notables sont Mastodon (l’équivalent décentralisé de Twitter), Peertube (YouTube) et diaspora* (Facebook).

Selon moi, les réseaux sociaux décentralisés peuvent être considérés comme une institutionnalisation de la théorie de Zhao sur la domestication des bulles de filtre, dans laquelle, au lieu de devoir manipuler l’algorithme afin de contrôler le résultat du processus de personnalisation, les utilisateurs se voient offrir un cadre direct par la plateforme, grâce auquel ils peuvent créer leurs propres bulles de filtres. Il est difficile de dire si Pariser considérerait même les expériences des utilisateurs de médias sociaux décentralisés comme des bulles de filtre en soi, étant donné qu’un élément intrinsèque de sa définition est que les bulles de filtre sont involontaires et invisibles. D’un autre côté, la personnalisation décentralisée menée par les utilisateurs pourrait avoir exactement les mêmes effets sur le discours que la personnalisation algorithmique centralisée. En effet, compte tenu de la propension humaine au raisonnement directionnel, il est peu probable que les utilisateurs se lancent intentionnellement dans la création d’une curation personnelle pluraliste qui les exposerait à des opinions, des utilisateurs ou des comportements qui s’éloignent trop des leurs. Je crains donc que la décentralisation, bien que plus démocratique dans sa marge de choix, ne finisse par appauvrir le discours public de la même manière que la personnalisation algorithmique, en nous incitant à exister dans des bulles intellectuellement stériles et artificielles que nous aurions créées nous-mêmes.

Conclusion

Je suis d’accord avec Eli Pariser lorsqu’il évalue les bulles de filtres comme une menace pour le discours politique et la vie publique, et lorsqu’il identifie la pluralité comme la pierre angulaire de toute société démocratique saine. En outre, bien que je sois sensible aux expériences et aux préoccupations des communautés queer et que je reconnaisse la nécessité de maintenir certains espaces exclusifs pour les groupes marginalisés, je propose que nos efforts en tant qu’êtres humains et décideurs politiques soient orientés vers la promotion d’une société dans laquelle tous les individus sont accueillis et où les personnes marginalisées se sentent en sécurité pour participer à la vie publique.

En tant que tel, je suggère humblement qu’une voie potentielle de médiation entre toutes les questions et préoccupations discutées ici est l’adoption accrue de recommandeurs basés sur la diversité dans le cadre de la modération centralisée des réseaux sociaux. Tout comme les algorithmes peuvent être codés pour nous montrer des contenus conformes à notre comportement antérieur, ils peuvent également être chargés de nous exposer à des contenus qui divergent – à des degrés divers – de nos points de vue. Grâce à une mise en œuvre partielle de ces recommandeurs, les plateformes pourraient maintenir leur modèle populaire de personnalisation – qui leur est propre et qui est apparemment préféré par les utilisateurs eux-mêmes – tout en contribuant à la sauvegarde de la pluralité, qui doit être considérée comme une valeur publique de la plus haute importance. 


Giovanna Hajdu Hungria da Custódia est étudiante en deuxième année au Collège universitaire de Sciences Po, où elle étudie la Politique et la Gouvernance et suit une mineure en droit. Giovanna s’intéresse aux politiques de modération des contenus des réseaux sociaux et en particulier à l’influence qu’elles exercent sur les processus de construction narrative et la consommation d’informations dans l’économie de l’information actuelle. Elle étudiera l’année prochaine les politiques publiques à King’s College, à Londres.