[INTERVIEW] La souveraineté numérique russe en 5 questions avec Kevin Limonier
18 octobre 2022
[ARTICLE] Le rapport de la mission exploratoire sur les métavers : quelle stratégie pour la France ?
15 novembre 2022

[ARTICLE] A quels défis juridiques Elon Musk va-t-il être confronté ?

par Florence G’sell

Le 28 octobre 2022, Elon Musk a effectivement pris le contrôle de Twitter, licenciant sur le champ le Président (CEO), le directeur financier et la directrice juridique, celle-là même qui était à l’origine de la suspension de Donald Trump. Ayant, dans la foulée, dissous le conseil d’administration, Musk est désormais seul maître à bord et libre de mettre en œuvre un programme libertarien annoncé de longue date. 

Dès l’annonce, le 25 avril dernier, de l’acquisition de Twitter par Musk, les intentions de celui-ci étaient claires: modifier en profondeur la politique de modération de Twitter, qu’il jugeait imprégnée de biais anti-conservateurs et progressistes. Se présentant comme un partisan de la liberté d’expression, Musk a très tôt déclaré vouloir faire de Twitter un espace de liberté « politiquement neutre », dans lequel les seules limites à la liberté de s’exprimer en ligne découleraient de la loi. « By “free speech”, I simply mean that which matches the law. I am against censorship that goes far beyond the law. If people want less free speech, they will ask government to pass laws to that effect. Therefore, going beyond the law is contrary to the will of the people” (Tweet du 26 avril 2022). Elon Musk a récemment rappelé sa position, tout en la nuançant : « Twitter obviously cannot become a free-for-all hellscape, where anything can besaid with no consequences! In addition to adhering to the laws of the land, our platform must be warm and welcoming to all” (“Twitter ne peut évidemment pas devenir un paysage d’enfer où tout peut être dit sans conséquences. En plus de respecter les lois nationales, notre plateforme doit être chaleureuse et accueillante pour tous ») (Tweet du 27 octobre 2022).

De leur côté, les autorités européennes n’ont cessé de rappeler à Musk qu’il doit gérer la plateforme dans le respect des textes européens. Dès le 25 avril, Thierry Breton, le commissaire de l’Union européenne au marché intérieur, l’a mis en garde avant de se rendre au siège de Tesla à Austin (Texas) afin d’avoir un échange de vive voix.  Dans une vidéo dont certains ont dit qu’elle ressemblait à une « vidéo de prise d’otage », Musk affirme qu’il est en accord avec les obligations prévues par le Digital Services Act et assure à Thierry Breton : « je suis d’accord avec tout ce que vous avez dit, vraiment ».  Ces derniers jours, les autorités européennes ont à nouveau insisté sur le respect du Digital Services Act. Après que Musk a tweeté « l’oiseau est libéré » le 28 octobre, Thierry Breton a répondu qu’en Europe, l’oiseau volera selon les règles de l’UE. Pour sa part, Margerethe Vestager a insisté sur les sanctions très lourdes prévues par le Digital Services Act et déclaré qu’Elon Musk pourrait être longtemps hanté par les conséquences d’un non-respect du droit de l’Union Européenne. En France, nombreux sont ceux qui ont exprimé leur inquiétude depuis l’annonce de l’opération, à l’image des signataires d’une tribune parue dans le Monde soulignant que le nouveau propriétaire de Twitter devra, quelles que soient ses idées sur la liberté d’expression, se conformer à la loi française. Le texte rappelle ainsi que le droit français sanctionne pénalement les discours racistes, antisémites, sexistes, anti-LGBT et tout ce qui est, de manière générale, attentatoire à la dignité humaine. 

Il y a peut-être un certain paradoxe à voir les Français, et plus largement les Européens, ainsi insister sur le respect de la loi alors que Musk, tout libertarien qu’il est, n’a jamais annoncé rien d’autre : la loi, et rien que la loi. Il est vrai, toutefois, que Musk s’exprime dans un contexte nord-américain qui fait la part belle à la liberté d’expression et réduit les contraintes de plateformes à leur plus simple expression. Il risque donc de découvrir qu’agir en conformité avec les règles européennes se révèlera plus complexe et contraignant qu’il ne le pense. 

  1. Elon Musk aura-t-il des difficultés à se conformer aux textes européens ? 

D’un certain point de vue, les textes européens imposent précisément aux réseaux sociaux ce que Musk a annoncé vouloir faire. Le Règlement Digital Services Act, publié au Journal Officiel de l’UE le 27 octobre 2022, a été présenté comme consacrant avant tout le principe selon lequel « ce qui est illicite hors ligne est aussi illicite en ligne ». Le DSA comporte, pour cette raison, des dispositions destinées à garantir une lutte effective contre les contenus contraire à la loi, avec lesquelles Musk a déclaré être en accord. Cependant, le Règlement prévoit également des obligations allant bien au-delà de la modération des contenus illicites, ce qui pourrait être plus difficile à un entrepreneur se posant en garant de la liberté d’expression.  

  • Ce que Musk pourrait respecter sans soulever d’objection

Le DSA maintient, tout en le réécrivant dans son article 6, le principe d’exonération de responsabilité figurant depuis plus de 20 ans dans la Directive E-Commerce pour tous les prestataires hébergeant des contenus ou activités illicites qui n’ont pas une connaissance effective de leur caractère illicite. Cette exonération vaut dès lors que lesdits hébergeurs agissent « promptement » pour supprimer l’accès à de tels contenus lorsqu’ils en en connaissance. Le DSA maintient également l’absence d’obligation générale de surveillance des contenus hébergés. Tout ceci était déjà bien connu. 

S’y ajoutent désormais des obligations destinées à garantir une lutte effective contre les contenus illicites avec lesquelles on peut imaginer qu’Elon Musk devrait être en accord puisqu’il convient de la nécessité de respecter la loi. Le DSA fonde la lutte contre les contenus illicite sur la mise en place de mécanismes de signalement effectifs: les hébergeurs doivent proposer des mécanismes accessibles pour signaler les contenus douteux (article 16) et les signalements émanant de tiers de confiance doivent être traités en priorité. Le Règlement prévoit, à cet égard, qu’un hébergeur est réputé avoir une connaissance effective du caractère illicite d’une activité ou d’une information dès lors que celle-ci a été signalée et que son caractère illégal ressort sans qu’il soit besoin de se livrer à un examen juridique détaillé. On peut, en outre, espérer que Musk respectera la règle selon laquelle les hébergeurs doivent collaborer avec les autorités, dont ils doivent respecter les instructions, et qu’ils doivent informer rapidement de la présence de contenus pouvant laisser suspecter la commission d’infractions pénales représentant une menace pour la vie ou la sécurité des personnes.

Dans le même temps, Elon Musk devrait se féliciter de la nouvelle règle du « Bon Samaritain » introduite dans le DSA (article 7) à la demande des plateformes, qui prévoit que celles-ci ne perdent pas le bénéfice de l’exonération de responsabilité lorsqu’elles se livrent, de bonne foi et de manière diligente, à des investigations en vue d’identifier et supprimer les contenus illicites.  Il faudra, bien évidemment, déterminer ce qu’est une modération exercée de bonne foi et de manière diligente, mais l’on peut supposer qu’il s’agit là de pratiques exercées dans le respect des droits fondamentaux des utilisateurs, à commencer par leur liberté d’expression. Musk, s’il est cohérent, ne devrait pas avoir d’objection de principe à faire en sorte que les conditions générales de Twitter précisent clairement les restrictions imposées par la plateforme à la liberté d’expression (article 14 du DSA) : on sait, du reste, que Musk souhaite seulement sanctionner les activités et contenus contraires à la loi, à l’exclusion des autres. Dans ce cadre, Musk devrait accepter de faire bénéficier les utilisateurs d’un « exposé des motifs clair et spécifique » des décisions de modération (article 17) et de la possibilité d’exercer des recours à l’encontre desdites décisions (article 20). Il ne devrait pas avoir non plus de difficulté à demander aux équipes de Twitter d’agir « de manière diligente, objective et proportionnée », en tenant compte des droits et des intérêts légitimes de toutes les parties concernées (article 14). Reste à savoir s’il serait d’accord pour informer les utilisateurs du caractère automatisé de certaines méthodes de modération et pour adopter des mesures raisonnables de nature à garantir que  la technologie est « suffisamment fiable pour limiter au maximum le taux d’erreurs » donc de contenus supprimés sans raison valable (Considérant 26).

  • Ce que Musk devrait avoir des difficultés à respecter

Divers aspects du Digital Services Act ne devraient pas aller sans difficulté pour le Twitter d’Elon Musk.  En premier lieu, le Règlement ne définit pas lui-même les contenus illicites et doit être articulé avec les législations de chaque Etat membre, qui varient dans leur définition des contenus illicites. Certes, les plateformes sont déjà accoutumées à cette variété des législations, mais elles ont toujours eu des difficultés à en tenir compte.

En deuxième lieu, Musk, qui a répété ne pas vouloir aller, dans la modération, au-delà de la stricte lutte contre les contenus illicites, ne devrait être guère à l’aise avec la notion de « risques systémiques » dont l’article 34 du DSA prévoit que les très grandes plateformes de plus de 45 millions d’utilisateurs actifs (ce qu’est Twitter) doivent les évaluer afin de les limiter. Ces « risques systémiques » résultent de la diffusion de contenus illicites, mais aussi de celle de contenus légaux mais toxiques (« lawful but awful »), car ils ont un « effet négatif réel ou prévisible » sur l’exercice des droits fondamentaux » (dignité humaine, respect de la vie privée et familiale, droits de l’enfant etc), sur « le discours civique, les processus électoraux et la sécurité publique », sur « les violences sexistes, la protection de la santé publique, et des mineurs », le « bien-être physique et mental des personnes ». Cette définition très large des risques systémiques permet de demander aux plateformes d’intervenir bien au-delà de la modération des seuls contenus illicites et recouvre un très grand nombre d’informations et de discours en ligne. Il est donc peu probable qu’un partisan affiché de la liberté d’expression tel qu’Elon Musk aborde de bonne grâce cette catégorie des risques systémiques, et ce d’autant que les autorités européennes et nationales pourront adresser aux très grandes plateformes des lignes directrices (article 35) sur la manière de réduire ces risques.  On peut, en effet, imaginer que les régulateurs préconisent, ce faisant, de pratiquer une modération des contenus allant bien au-delà de la seule suppression des contenus illicites, ce à quoi Musk se refuse. 

Enfin, il reste à voir jusqu’à quel point une plateforme comme Twitter se soumettra aux obligations de transparence prévues par le Règlement, qui impose notamment la publication de rapports recensant les pratiques de modération (actions de modération, nombre et compétences des employés chargés de la modération, signalements reçus, instructions de suppression reçues des autorités, suppressions et suspensions réalisées, nombre de recours des utilisateurs). Twitter devra notamment, en tant que très grande plateforme, se plier à un certain nombre d’obligations de conformité, publier des informations précises sur les paramètres des algorithmes utilisés et même donner accès à un certain nombre de données aux autorités européennes et nationales ainsi qu’aux chercheurs agréés. 

Elon Musk, en tant que partisan de la liberté d’expression, sera-t-il, pour finir, enclin à se plier au mécanisme de crise que la Commission peut enclencher et qui lui permet de d’exiger des plus grandes plateformes qu’elles agissent conformément à ses instructions en présence de circonstances graves (guerre, crise sanitaire) ?

2. Sera-t-il difficile pour Musk de se conformer au droit français ? 

Bien qu’ayant annoncé qu’il compte respecter la loi, Elon Musk devrait rapidement réaliser que les législations des pays étrangers comportent parfois des obligations, des interdictions et des incriminations bien plus strictes qu’aux Etats-Unis. Il devra par exemple, sauf à agir en justice comme Twitter a pu le faire par le passése conformer aux règles établies par gouvernement indien, qui fait régulièrement pression sur les plateformes pour obtenir la suppression de certaines publications et vient de décider la nomination d’un comité chargé d’examiner les recours contre les décisions de modération prises par les plateformes, dont les décisions s’imposeront à celles-ci. Il devra également, comme l’a souligné Evelyn Douek, prendre connaissance du projet de loi canadien C-11 porté par Justin Trudeau, qui assimile les « entreprises en ligne » aux entreprises de radio-diffusion. Il devra, enfin, respecter, afin de se conformer au Digital Services Act, les diverses législations des Etats membres de l’Union Européenne qui proscrivent, pour un certain nombre d’entre elles, les discours de haine et comportent des textes spécifiques applicables aux réseaux sociaux. 

En France, Elon Musk et ses équipes devront être conscients que Twitter engage sa responsabilité dès lors que la plateforme n’a pas retiré promptement un contenu manifestement illicite qui lui a été signalé. Ils devront notamment être en mesure de tenir compte des divers textes d’incrimination prévus par le droit français, à commencer par les dispositions de la loi du 29 juillet 1881, qui réprime la diffamation (article 29 L. 1881), l’injure (article 33 L. 1881), l’incitation à la discrimination, la haine ou la violence (article 24 L. 1881) ou la contestation de l’existence des crimes contre l’humanité (article 24 bis L. 1881). Ils devront également être conscients que le droit français punit la provocation ou l’apologie du terrorisme (article 421-2-5 du code pénal) sans oublier que le Règlement européen 2021/784 du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne prévoit que les hébergeurs doivent retirer dans le délai d’une heure, sur demande des autorités compétentes, les contenus à caractère terroriste. Et que le Code pénal réprime les menaces de mort (article 222-17 du Code pénal), le « revenge porn » (article 226-2-1 du code pénal), la diffusion de vidéos montrant des violences subies par une personne physique ou « happy slapping » (article 222-33-3 du Code pénal) et le cyber-harcèlement (article 222-33-2-2 du Code pénal). 

Les nouveaux dirigeants de Twitter devront en outre comprendre qu’en droit français, les fausses informations peuvent parfois donner lieu à des sanctions. Certes la loi pénale ne punit que la diffusion, de mauvaise foi, de fausses nouvelles « ayant troublé la paix publique ou étant susceptible de la troubler » ou « de nature à ébranler la discipline ou le moral des armées ou à entraver l’effort de guerre de la Nation » (article 27 de la loi de 1881).  Mais la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information permet, en présence de fausses informations diffusées en période électorale et pouvant peser sur la sincérité du scrutin, d’agir en référé, dans les trois mois précédant le scrutin, pour faire cesser la diffusion de fausses informations (article L. 163-2 du code électoral). 

Dans ce contexte, les équipes d’Elon Musk devront améliorer les performances de la plateforme dans la lutte effective contre les contenus illicites. Or le manque d’efficacité de Twitter sur ce plan a déjà été relevé, en France et ailleurs. La plateforme a fait l’objet de poursuites pour son manque de coopération avec les autorités judiciaires dans la lutte contre la haine en ligne. Elle a, d’ailleurs, été condamnée par le Tribunal Judiciaire de Paris, le 6 juillet 2021, à divulguer des informations relatives aux moyens matériels et humains mis en œuvre pour lutter contre la diffusion de diverses infractions (apologie de crimes contre l’humanité, incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle, incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, atteintes à la dignité humaine). Elle a dû, en particulier, communiquer un certain nombre d’éléments relatifs aux personnes affectées par Twitter au traitement des signalements, notamment concernant l’apologie des crimes contre l’humanité et l’incitation à la haine raciale.

3. A quelle situation Musk est-il confronté aux Etats-Unis ? 

On peut supposer qu’Elon Musk est attaché, comme beaucoup aux Etats-Unis, à la célèbre section 230 du Communications Decency Act (v. F. G’sell, « Les réseaux sociaux, entre encadrement et autorégulation », 2021) qui a donné, depuis 1996, une marge de manœuvre très importante aux plateformes en les exonérant de toute responsabilité pour leurs décisions en matière de modération du contenu. La section 230 est renforcée par des garanties constitutionnelles : on estime généralement que les plateformes disposent d’un droit constitutionnellement protégé de modérer à leur discrétion les contenus qu’elles hébergent, qui participe de leur propre liberté d’expression. Cependant, nombreux sont ceux qui souhaitent revenir sur cette immunité. Diverses propositions de loi ont été déposées au Congrès en vue de réformer la section 230, et Joe Biden lui-même a récemment réitéré son souhait de voir cette disposition abrogée. 

Surtout, la Cour Suprême fédérale a accepté, il y a quelques semaines, d’examiner deux affaires dont la solution pourrait avoir des conséquences très importantes sur l’interprétation de la section 230. Dans l’affaire, Gonzalez v. Google, les parents d’un étudiant américain tué lors des attentats terroristes survenus à Paris en 2015 ont intenté une action en responsabilité à l’encontre de Google en vertu d’une loi antiterroriste américaine (18 U.S.C. §2333), qui permet d’obtenir des dommages et intérêts pour des actes de terrorisme international. Ils soutiennent que Google engage sa responsabilité au motif que YouTube (propriété de Google) a permis à l’Etat islamique de diffuser des messages à caractère terroriste. Ils affirment notamment que YouTube faisait « partie intégrante du programme terroriste » de l’Etat islamique et que les algorithmes de la plateforme recommandaient ses vidéos, ce qui l’aidait à diffuser son message. Ils allèguent également que Google, bien qu’informé de la présence de ces contenus, n’a pas déployé d’efforts suffisants pour les supprimer. Dans l’ensemble, ils soutiennent que la section 230, adoptée en 1996, visait originellement les fonctions de modération traditionnelles des plateformes mais ne s’applique pas aux outils algorithmiques très sophistiqués aujourd’hui utilisés pour gérer les contenus.  La cour d’appel du Neuvième Circuit ayant rejeté la demande en réparation sur le fondement de l’immunité prévue par la section 230, la Cour Suprême devra répondre à la question de savoir si ce texte s’applique lorsque la plateforme prend l’initiative de recommander des contenus grâce à des algorithmes ciblant les utilisateurs. En cas de réponse négative, les principaux réseaux sociaux, dont Twitter fait partie, pourraient se trouver responsables du fait des contenus illicites poussés par leurs algorithmes, ce qui constituerait un changement considérable. 

Dans une autre affaire soumise à la Cour Suprême, Twitter v. Taamneh, la Cour devra décider si le fait que des contenus à caractère terroriste apparaissent sur la plateforme permet de considérer que celle-ci a aidé et encouragé le terrorisme. En l’espèce, un membre de l’organisation Etat Islamique avait tué 39 personnes dans une boîte de nuit d’Istanbul, en Turquie. Les proches de l’une des victimes ont poursuivi Twitter, Google et Facebook au motif que ces plateformes auraient joué un rôle essentiel dans le développement de l’Etat islamique, en lui permettant de diffuser de la propagande.  La question est donc de savoir si ces plateformes peuvent être considérée comme ayant sciemment fourni une aide substantielle à des actes de terrorisme international parce qu’elles auraient pu prendre des mesures plus « significatives » ou « agressives » pour empêcher la diffusion de la propagande. Elle est également de déterminer si ces plateformes pourraient engager leur responsabilité même lorsque leurs services n’ont pas été utilisés dans le cadre de l’acte spécifique de terrorisme ayant affecté les demandeurs. Là encore, la solution donnée à cette affaire devrait être lourde de conséquences pour la responsabilité des plateformes et leurs stratégies de gestion des contenus.  

Parallèlement au contentieux relatif à la section 230, Musk devra s’adapter aux législations étatiques et tenir compte du contentieux relatif aux lois adoptées en Floride et en Texas. En effet, dans la foulée de la « déplateformisation » de Donald Trump, plusieurs Etats républicains ont adoptés des lois étatiques à l’encontre de pratiques de modération qu’ils jugent biaisées à l’encontre des plus conservateurs. Ces lois font des réseaux sociaux des « common carriers » (opérateurs publics) ce qui justifie de leur part de respecter une forme de neutralité quant aux contenus, comme les services téléphoniques (voir sur ce point les explications très claires de Daphne Keller). C’est ainsi que la loi HB20, adoptée au Texas en 2021, interdit aux réseaux sociaux de plus de 50 millions d’utilisateurs actifs aux Etats-Unis de supprimer ou déclasser des publications sur le seul fondement des points de vue qu’elles expriment (à l’exception des publications illicites),  oblige les plateformes à communiquer sur les pratiques de modération et les contraint à notifier les décisions de modération, à les expliquer, et à permettre aux utilisateurs d’exercer un recours. Quant à la loi de Floride S.B. 7072, elle empêche les plateformes de supprimer ou limiter les publications de la presse sur le fondement de leur contenu, leur interdit de bannir les candidats aux élections, les oblige à notifier et expliquer leurs décisions de modération, et impose de modérer les contenus « de manière cohérente » et transparente.

Alors que la cour d’appel du Cinquième Circuit (NetChoice v. Paxton) a jugé la loi texane conforme à la Constitution, la cour d’appel du Onzième Circuit censuré la majeure partie de la loi de Floride (NetChoice v. Moody) au motif que celle-ci est incompatible avec le Premier Amendement. Dans ces circonstances, l’Attorney General de Floride a saisi la Cour Suprême de la question de savoir si le Premier Amendement permet ou non de contraindre les plateformes à héberger des contenus dont elles ne veulent pas. Il reviendra donc, dans ce contexte, à la cour Suprême (si elle accepte d’examiner l’affaire), de répondre à cette question et de décider si la loi S.B. 7072 est conforme au Premier amendement. Une décision de la Cour Suprême favorable aux législations adoptées au Texas et en Floride pourrait conduire d’autres Etats américains à légiférer et davantage contraindre l’activité des plateformes. 

4. Quelle stratégie pour Twitter désormais? 

Elon Musk, qui vient de licencier une bonne partie du personnel de Twitter, a fait de nombreuses déclarations sur son intention de modifier la façon dont la plateforme modère les contenus. Dès l’annonce de l’acquisition, Musk s’est présenté comme un hérault de la liberté d’expression, nostalgique des débuts des réseaux sociaux. Il a dénoncé la politique de modération de Twitter, qui pratiquerait une « censure qui va bien au-delà de la loi » (« censorship that goes far beyond the law ») et dont il veut corriger le « fort parti pris de gauche » (“strong left-wing bias”). L’ambition la plus régulièrement exprimée par Musk est de faire fonctionner Twitter comme une « place publique numérique » (“digital town square”) offrant un forum de libre expression où chacun est bienvenu. Musk n’exclut pas de suspendre certains comptes lorsque c’est nécessaire, mais estime que les suspensions doivent rester temporaires. Il avait été choqué par la suspension, en 2020, de l’article que le New York Post avait consacré à Hunter Biden, et a jugé la suspension de Trump « moralement erronée et carrément mauvaise » (« morally wrong and flat out stupid »). Les conservateurs dont le compte a été suspendu pour non-respect des conditions d’utilisation seraient ainsi autorisés à revenir sur Twitter. Donald Trump pourrait récupérer son compte, ainsi qu’un grand nombre de conservateurs, d’activistes ou de militants du mouvement conspirationniste QAnon. Chose encore plus inquiétante, les contenus à caractère raciste semblent avoir proliféré depuis la prise de contrôle de Musk. 

Par ailleurs, dès le 28 octobre, Musk a annoncé par un tweet vouloir créer un conseil chargé de trancher les questions de modération, dont l’avis sera indispensable pour prendre les décisions de modération les plus importantes et notamment pour se prononcer sur la réintégration des utilisateurs suspendus. Il est possible qu’en formulant cette proposition, Musk pense à une instance calquée sur le modèle de l’Oversight Board de Facebook/ Meta, qui examine le recours formés à l’encontre des décisions de modération et rend des décisions que l’entreprise s’est engagée à respecter. De fait,  Twitter consulte déjà, depuis 2016, un « Trust and Safety Council » qui l’aide à élaborer sa stratégie, mais dont le rôle est différent car il intervient à titre strictement consultatif. Ce conseil était initialement composé d’une quarantaine d’organisations et d’experts. En 2020, Twitter a élargi le groupe et créé des sous-groupes dédiés à des sujets spécifiques, tels la sécurité et le harcèlement en ligne, les droits numériques, l’exploitation sexuelle des enfants et la prévention du suicide. 

Elon Musk a également annoncé d’autres objectifs. Certains font consensus comme une lutte plus efficace contre les bots, même si cet objectif peut se révéler difficile à atteindre. La diffusion de l’algorithme en open source sur GitHub a également été annoncée. La publication de l’algorithme de classement pourrait aider à identifier les biais, même si certains le contestent au motif que ces biais peuvent provenir d’autres sources comme les données ou les interactions présentes sur la plateforme. Les biais sont, de fait, bien présents et identifiés: des chercheurs de Twitter ont déclaré que l’année dernière, aux États-Unis et dans plusieurs autres pays, les comptes des utilisateurs de droite ont été  davantage poussés par l’algorithme que les comptes des utilisateurs de gauche.

Musk a, par ailleurs, déclaré qu’il modifierait le modèle économique de Twitter, qui dépend fortement de la publicité. Le New York Times a rapporté en mai que, lors d’une présentation aux investisseurs, Musk a affirmé qu’il réduirait la part de la publicité dans les revenus de l’entreprise d’environ 90 %  à moins de 50 %. Il prévoit, dans le même temps, d’augmenter les revenus tirés des abonnements, en élargissant la possibilité d’opter pour la version payante de Twitter (Twitter Blue), qui ne comportait, jusqu’à présent, aucun contenu publicitaire. Ce développement de Twitter Blue est conçu pour délivrer Twitter de la nécessité de maximiser l’engagement des utilisateurs par la promotion des contenus les plus clivants. De fait, une nouvelle version de Twitter Blue vient de voir le jour, dans laquelle, pour $7.99 par mois, les utilisateurs peuvent disposer d’une certification autrefois réservée aux comptes ayant fait l’objet d’une vérification gratuite par Twitter. Cette nouvelle option offre également un volume de publicités réduit de moitié et des publicités restante plus pertinentes, ainsi que la possibilité de publier des vidéos plus longues.

La stratégie d’Elon Musk fait bien évidemment l’objet de critiques. Certains soulignent que la plateforme risque de perdre des utilisateurs et de voir fondre les revenus publicitaires si elle laisse en ligne les contenus racistes, sexistes ou homophobes (qui ne sont pas illégaux aux États-Unis). De fait, nombreux sont les utilisateurs de Twitter qui choisissent à présent de s’inscrire sur Mastodon, même si dans le même temps, la plateforme voit arriver en nombre de nouveaux utilisateurs. Dans le même temps, les autorités européennes ont lancé au printemps deux projets pilotes de réseaux sociaux qui doivent servir d’alternative à YouTube et Twitter : EU Voice  and EU Video. Ces plateformes gratuites sont administrées par des logiciels en open source, ne pratiquent pas le profilage et ne comportent pas de publicité.  


Florence G’sell est agrégée de droit privé, professeur à l’Université de Lorraine et titulaire de la Chaire Digital, Gouvernance et Souveraineté.