Sciences Po Chaire digital, gouvernance et souveraineté https://www.sciencespo.fr/public/chaire-numerique Tue, 26 Nov 2024 19:47:19 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.2.8 [ANALYSE] Digital Fairness Act : le prochain projet de l’UE pour garantir un environnement numérique plus équitable aux consommateurs https://www.sciencespo.fr/public/chaire-numerique/2024/11/26/analyse-digital-fairness-act-le-prochain-projet-de-lue-pour-garantir-un-environnement-numerique-plus-equitable-aux-consommateurs/ https://www.sciencespo.fr/public/chaire-numerique/2024/11/26/analyse-digital-fairness-act-le-prochain-projet-de-lue-pour-garantir-un-environnement-numerique-plus-equitable-aux-consommateurs/#respond Tue, 26 Nov 2024 12:21:18 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7936 […]]]> Par Fabien Lechevalier

Avec le Digital Services Act (DSA) et l’arrivée prochaine du Digital Fairness Act (DFA), l’Union européenne renforce ses efforts pour garantir un numérique plus équitable et transparent. Basé sur les conclusions récentes du « Digital Fairness Check », le DFA ambitionne de protéger les consommateurs contre les pratiques en ligne inéquitables, comme les dark patterns (interfaces trompeuses et manipulatrices) et le marketing d’influence. 

À mesure que les expériences numériques deviennent centrales dans nos vies, l’Union européenne s’engage à bâtir un environnement en ligne plus équitable et transparent. Avec l’entrée en vigueur du Digital Services Act (DSA), elle a amorcé un tournant vers une responsabilité numérique accrue. Le 3 octobre dernier, la Commission européenne a également publié les résultats de son “Digital Fairness Check”, une évaluation visant à déterminer si les règles actuelles de protection des consommateurs sont encore adaptées à l’évolution des pratiques en ligne. Ce rapport identifie plusieurs pratiques inéquitables, notamment les « dark patterns », les interfaces addictives et les procédures d’annulation d’abonnement complexes. Ces analyses guideront probablement la préparation du futur “Digital Fairness Act (DFA)”. Le texte qui sera porté par le nouveau Commissaire européen à la Démocratie, à la Justice et à l’État de droit vise, dans l’ensemble, à renforcer les droits des consommateurs, tout en ajoutant une couche supplémentaire à un paysage réglementaire déjà très dense. Pour les entreprises opérant dans l’UE et au-delà, ces nouvelles régulations constituent une opportunité unique de démontrer un engagement concret envers des pratiques véritablement centrées sur l’utilisateur.

10 mois après, quel est l’impact du Digital Services Act sur la transparence et l’équité en ligne ? 

Le Digital Services Act (DSA), entré en vigueur en février 2024, représente un changement majeur dans le fonctionnement des plateformes en ligne. De nombreuses entreprises, en particulier les Très Grandes Plateformes en Ligne (Very Large Online Platforms, ou VLOPs), ont été incitées à adapter leurs pratiques pour se conformer aux nouvelles réglementations. La phase initiale s’est concentrée sur la transparence, la modération des contenus et l’autonomisation des utilisateurs. Les plateformes doivent désormais fournir des informations plus claires sur leurs pratiques publicitaires et leurs recommandations algorithmiques.

Un des objectifs principaux du DSA est de renforcer l’autonomie des utilisateurs, et nous commençons à en voir les premiers résultats. Les utilisateurs disposent désormais de canaux plus directs pour signaler des contenus illégaux. Ce changement vise à créer un environnement plus ergonomique ou “convivial” encourageant les consommateurs à jouer un rôle actif dans leurs expériences en ligne. La Commission européenne a également commencé à mettre en place les cadres nécessaires pour surveiller la conformité. Cela inclut la nomination d’autorités dédiées pour superviser la mise en œuvre du DSA et veiller à ce que les plateformes respectent leurs nouvelles obligations. 

Des actions ont déjà été entreprises contre certaines entreprises, démontrant l’engagement de l’UE à tenir les fournisseurs de services numériques responsables. Ainsi, Meta fait l’objet d’une enquête pour pratiques publicitaires trompeuses et gestion de contenus politiques, visant à protéger les processus démocratiques ; TikTok a déjà été impliqué dans deux enquêtes, l’une en février et l’autre en avril, pour non-respect des standards de protection de la vie privée et transparence, en particulier pour les mineurs ; Google est sous surveillance de l’autorité italienne de la concurrence pour pratiques de consentement ambiguës concernant les données personnelles ; X (anciennement Twitter) fait également l’objet d’une enquête pour la diffusion de contenus illégaux ; Amazon est visé par une action collective en lien avec un changement de son abonnement Prime, jugé trompeur ; enfin, la Commission européenne a lancé fin octobre une enquête sur la conformité de Temu au DSA, portant sur les listings de produits illégaux, les fonctionnalités addictives, la transparence des algorithmes de recommandation et l’accès restreint aux données pour les chercheurs. Cette série d’enquêtes souligne la détermination de l’UE à appliquer le DSA en faveur des droits des consommateurs.

Le Digital Fairness Check, quelle évaluation faire des réglementations mises en place pour protéger le libre choix du consommateur numérique?

En 2022, la Commission européenne a lancé une consultation publique appelée le Fitness Check, visant à évaluer l’efficacité des réglementations préexistantes au DSA pour protéger les consommateurs en ligne. Cette évaluation a porté plus précisément sur l’efficacité de trois directives européennes clés, à savoir la Directive sur les pratiques commerciales déloyales, la Directive sur les droits des consommateurs et la Directive sur les clauses abusives. Le 3 octobre, la Commission a publié son rapport tant attendu

Ce rapport met principalement en lumière les pratiques de tromperies, de manipulation et addictives, qualifiées de “dark patterns” – pratiques déloyales dans la conception d’interfaces numériques qui incitent les consommateurs à des décisions qu’ils n’auraient pas prises autrement. L’impact de ces pratiques, intensifié par la personnalisation fondée sur des données comportementales, pose un enjeu majeur pour la protection des consommateurs en ligne.

Bien que ces pratiques ne soient pas nouvelles, leur prévalence et leur efficacité se sont amplifiées, suscitant une inquiétude, notamment aux États-Unis, au Royaume-Uni ou encore en Corée du Sud. Ces inquiétudes se sont généralisées pour finalement devenir une source de préoccupation mondiale. L’OCDE y a d’ailleurs consacré plusieurs rapports. En Europe, de très nombreux textes sont applicables à ces dark patterns, en tant que pratiques déloyales, certes, mais aussi contraires au droit de la protection des données personnelles, ou encore à la prohibition des abus de domination. Face aux risques importants de préjudices, la Commission a néanmoins jugé essentiel de les interdire plus expressément avec le DSA (1). 

D’ailleurs, le récent rapport rappelle les principaux préjudices associés aux dark patterns : perte d’autonomie et de vie privée, surcharge cognitive, dommages mentaux, et diminution du bien-être collectif à travers des effets néfastes sur la concurrence et la transparence des prix. Fait marquant, la Commission évalue les coûts pour les consommateurs trompés en ligne à 7 milliards d’euros en 2023, comparés aux coûts de mise en conformité des entreprises, estimés entre 511 et 737 millions d’euros – ce qui plaide fortement en faveur de la régulation. 

Digital Fairness Act, pourquoi faut-il une réglementation européenne sur l’équité commerciale en ligne?

À la suite de cette évaluation, la lettre de mission d’Ursula von der Leyen adressée à Michael McGrath, le Commissaire européen à la Démocratie, à la Justice et à l’État de droit, et publiée en septembre dernier, a défini des priorités stratégiques pour renforcer la protection des consommateurs et promouvoir l’intégrité démocratique au sein de l’UE. Dans cette lettre, la Présidente Ursula von der Leyen évoque la nécessité de créer un futur Digital Fairness Act, “pour lutter contre les techniques et pratiques commerciales contraires à l’éthique, telles que les dark patterns, le marketing des influenceurs sur les réseaux sociaux, le design addictif des produits numériques et le profilage en ligne, en particulier lorsque les vulnérabilités des consommateurs sont exploitées à des fins commerciales.” Lors de son audition devant le Parlement européen le 5 novembre 2024, Michael McGrath a alors exposé sa vision du futur Digital Fairness Act (DFA). Dans sa déclaration d’ouverture, McGrath a souligné la nécessité de renforcer les droits des consommateurs dans le marché numérique (2). Il précise, en réponse aux inquiétudes exprimées par plusieurs députés européens, que le DFA aura vocation à combler des lacunes plutôt qu’à dupliquer les réglementations (3).

Protéger les plus vulnérables: les mineurs comme public cible

L’un des défis majeurs du projet est la protection des mineurs contre les pratiques en ligne nuisibles. En réponse aux questions sur la protection des mineurs, McGrath a mis en avant les défis uniques auxquels ils sont confrontés (4). Le DFA sera l’occasion d’ajouter une couche supplémentaire de responsabilisation des plateformes. Il est probable qu’elles devront prendre en compte les vulnérabilités des utilisateurs dans la conception de leurs interfaces en se fondant sur une évaluation des risques. On peut également imaginer que le DFA permettra aussi de créer de nouveaux droits subjectifs pour les mineurs ou leurs parents. On peut, par exemple, penser à un droit au paramétrage permettant aux utilisateurs et donc également aux parents d’enfants mineurs d’agir directement sur l’architecture des choix.

Ailleurs dans le monde, d’autres États ont déjà adopté des réglementations pour protéger spécifiquement les mineurs en tant qu’utilisateurs particulièrement vulnérables. Par exemple, le United Kingdom’s Age-Appropriate Design Code (UK AADC) et le California Age-Appropriate Design Code (CAADC) exigent que les entreprises en ligne évaluent les risques potentiels pour les jeunes utilisateurs sur leurs plateformes et mettent en place par défaut les paramètres de protection les plus forts pour ces utilisateurs. 

Prendre en compte les vulnérabilités dès la conception: vers une approche “Fairness by Design” des pratiques de consommation en ligne

Pour lutter contre les dark patterns et le design addictif, le Commissaire européen pourra également s’inspirer du travail mené par l’autorité britannique de la concurrence (Competition and Markets Authority, CMA) qui à l’occasion d’un rapport sur l’architecture des choix (5) avait proposé un nouveau principe directeur pour un environnement numérique plus équitable, celui de « fairness by design ». Ce principe invite les concepteurs d’interfaces à prendre en compte dès la conception à la fois les limites cognitives humaines, la sensibilité à la façon dont l’information est présentée, mais aussi la dichotomie entre les intentions et les actions des consommateurs. 

Cette approche encourage un design qui facilite des décisions éclairées en rendant l’information accessible avec un minimum d’effort cognitif, en offrant un guidage contextuel et des options par défaut protectrices. Elle s’inscrit dans la lignée des méthodes de “Value-Sensitive Design” (VSD) (6), fondées sur la capacité d’adapter les pratiques de conception en fonction de la technologie, des valeurs ou du contexte d’utilisation. Des exemples de ces adaptations incluent le “Privacy by Design”, principe directeur du RGPD, qui se concentre sur le respect de la confidentialité des informations personnelles dans les systèmes et les processus. 

Mieux encadrer le marketing d’influence en ligne: le défi de l’harmonisation

Ces derniers mois, plusieurs pays européens, dont la France et l’Italie, ont intensifié la réglementation autour de l’influence en ligne pour protéger les consommateurs. Par ailleurs, des réglementations européennes encadrent déjà l’influence en ligne, comme la Directive sur les services de médias audiovisuels, le DSA et la Directive sur les pratiques commerciales déloyales. Cependant, des tensions persistent concernant l’harmonisation des législations nationales avec la réglementation européenne. Les références à la Directive sur les services de médias audiovisuels et au DSA ont été, par exemple, un point de désaccord entre la France et la Commission, car la loi influenceurs française ne fait pas référence à la première et crée une superposition à la seconde. Un nouveau règlement européen pourrait participer à l’harmonisation de la réglementation en fournissant un cadre explicite de régulation et une feuille de route commune. 

Pour autant, l’idée d’une nouvelle réglementation ne fait pas l’unanimité. Le Groupe des régulateurs européens des services de médias audiovisuel (ERGA) considère que l’influence commerciale en ligne est déjà bien encadrée par les lois actuelles ; il recommande donc de renforcer les régulateurs nationaux avec davantage de ressources et de personnel spécialisé, plutôt que d’introduire de nouvelles législations. Dans un environnement où les lois se multiplient, le risque de chevauchement et d’incohérence législative est réel. En conclusion, le DFA est ambitieux mais devra non seulement être aligné avec les législations existantes, mais aussi contribuer à leur harmonisation en précisant ses champs d’application et en clarifiant son interaction avec les autres textes. Le défi majeur du texte est, en conséquence, de réduire la fragmentation réglementaire et offrir aux entreprises un cadre unifié, rendant leur conformité plus lisible.

Notes :

(1)Le DSA entérine une interdiction de la pratique avec son article 25 : « Les fournisseurs de plateformes en ligne ne conçoivent pas, n’organisent pas et n’exploitent pas leurs interfaces en ligne […] d’une manière qui, délibérément ou dans les faits, trompe ou manipule les destinataires du service, en altérant ou en compromettant leur autonomie, leur capacité de décision ou leurs choix ».

(2) “Je vais porter un Digital Fairness Act pour renforcer la protection des consommateurs dans des domaines ciblés, en complément du cadre réglementaire numérique de l’UE existant.”

(3)  “Le Digital Fairness Act ne consiste pas à ajouter de nouvelles exigences déjà couvertes par d’autres réglementations, […] Il s’agit de combler les lacunes présentes afin de mieux protéger et soutenir les consommateurs.” a-t-il clarifié.

(4) “Le modèle économique des géants de la tech… ils veulent garder les gens en ligne en permanence, y compris nos enfants, et c’est ainsi qu’ils augmentent les revenus publicitaires dépensés sur leur plateforme. […] Nous comprenons ce modèle, et nous allons devoir y remédier dans le cadre du Digital Fairness Act. Je peux vous assurer que nous le ferons, car certaines fonctionnalités nuisibles sur ces plateformes ont un impact, en particulier sur les enfants durant leurs années de formation, et ces effets peuvent être durables.”  a-t-il expliqué.

(5) Le concept d’“architecture des choix” a été popularisée par Richard Thaler et Cass Sunstein, v. Thaler, R. H. & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth and happiness. Yale University Press.

(6) Le « Value Sensitive Design » est une approche théorique de la conception des technologies, qui intègre les valeurs humaines. Elle a été développée à Washington par Batya Friedman, v. Friedman, B. & Hendry D. G. (2019). Value Sensitive Design: Shaping Technology with Moral Imagination. MIT Press. 


Fabien Lechevalier est doctorant en droit à l’Université Paris-Saclay, chercheur au Centre d’études et de recherche en droit de l’immatériel (CERDI Université Paris-Saclay), et affilié au Transatlantic Technology Law Forum de l’Université de Stanford.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/11/26/analyse-digital-fairness-act-le-prochain-projet-de-lue-pour-garantir-un-environnement-numerique-plus-equitable-aux-consommateurs/feed/ 0
[PODCAST] Comment réguler l’intelligence artificielle générative ? https://www.sciencespo.fr/public/chaire-numerique/2024/11/13/media-comment-reguler-lintelligence-artificielle-generative/ https://www.sciencespo.fr/public/chaire-numerique/2024/11/13/media-comment-reguler-lintelligence-artificielle-generative/#respond Wed, 13 Nov 2024 16:18:55 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7895 […]]]> Florence G’sell, titulaire de la chaire, a été invitée sur France Culture mercredi 6 novembre 2024. Le podcast est accessible ici.

Comment améliorer la réglementation des plateformes en ligne et quels sont les défis juridiques posés par les technologies émergentes telles que la blockchain et le métavers ?

Avec

  • Florence G’Sell, Professeure de droit privé à l’Université de Lorraine, titulaire de la Chaire Digital, Gouvernance et Souveraineté de Sciences Po et professeur invité au Cyber Policy Center de l’Université de Stanford

La régulation de l’intelligence artificielle est un sujet urgent et nouveau – rappelons que l’on s’accorde à fixer la naissance de l’IA générative à la date du 30 novembre 2022, jour où fut mis en service le fameux programme Chat GPT. Ce sujet prend un nouveau tour avec l’élection de Donald Trump. Plusieurs directions se présentent :

– Soit l’auto-régulation du secteur par lui-même, mais les codes de conduites et les déclarations vertueuses s’amoncèlent dans un milieu à la fois hyper compétitif, et dans un contexte de plus en plus tendu sur le plan géopolitique. Cela revient à confier la régulation de l’IA générative à la loi du marché ou à l’état de nature.

– Soit une régulation gouvernementale ou internationale, plus contraignante donc, voie qu’a choisi l’Union européenne. Florence G’sell nous explique « l’Europe est aujourd’hui à l’avant-garde de la régulation de la technologie. Le législateur californien suit ce qui se passe en Europe, il l’a fait pour la protection des données, il s’est beaucoup inspiré du RGPD européen. Cet été, un sénateur démocrate de Californie a déposé une loi centrée sur les risques critiques, à savoir le risque que des modèles avancés permettent de créer des armes chimiques, de générer des cyberattaques massives. C’est un texte qui se concentrait vraiment sur les modèles les plus avancés, les plus puissants, ce faisant, c’est un texte qui était particulièrement contraignant par rapport à ce qu’on a l’habitude de voir ici, puisqu’il imposait des obligations de cybersécurité très lourde sur les développeurs et qu’il avait aussi un volet de responsabilité, c’est-à-dire qu’il rendait les développeurs des plus grands modèles responsables de ce que l’on pouvait faire avec leur outil ».

– Soit une voie intermédiaire, qu’on peut appeler « co-régulation », qui mise sur un dialogue entre les grands groupes de l’industrie de la tech, de façon à écrire des standards de bonne conduite, un peu généraux et mous.

– Soit, enfin, d’attendre que des dommages majeurs surviennent et que la régulation résulte de la jurisprudence des tribunaux qui en imputent la responsabilité aussi bien personnelle que commerciale à la hauteur des dégâts.

On ne sait quelle voie triomphera, mais ce qui est certain, c’est que le risque à ne rien faire est à la fois très grand et très incertain. C’est peut-être cela qui est nouveau : décider de normes pour un monde que l’on ne connaît pas encore, plus incertain aujourd’hui qu’hier.

Esprit de justice propose de réfléchir à solutions et à leur probabilité dans le nouveau contexte qui s’ouvre aujourd’hui, en compagnie de Florence G’sell, Professeur de droit à l’université de Lorraine, mais qui est aujourd’hui Professeure invitée à l’université de Stanford au cœur de la Silicon Valley donc, où elle dirige le programme sur la Gouvernance des technologies émergentes au Stanford Cyber Policy Center. Elle vient de signer en mars dernier un rapport majeur intitulé « Réglementer dans l’incertitude : les différentes solutions pour l’IA générative ».

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/11/13/media-comment-reguler-lintelligence-artificielle-generative/feed/ 0
[ETUDE] La souveraineté européenne dans l’intelligence artificielle : une perspective fondée sur les compétences, par Ludovic Dibiaggio, Lionel Nesta et Simone Vannuccini https://www.sciencespo.fr/public/chaire-numerique/2024/11/08/research-paper-european-sovereignty-in-artificial-intelligence-a-competence-based-perspective-by-ludovic-dibiaggio-lionel-nesta-and-simone-vannuccini/ https://www.sciencespo.fr/public/chaire-numerique/2024/11/08/research-paper-european-sovereignty-in-artificial-intelligence-a-competence-based-perspective-by-ludovic-dibiaggio-lionel-nesta-and-simone-vannuccini/#respond Fri, 08 Nov 2024 16:00:05 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7866 […]]]>

AVANT-PROPOS

Le présent rapport traite de la souveraineté technologique en matière d’intelligence artificielle (IA) au sein de l’Union européenne (UE). L’IA est largement considérée comme une technologie de pointe, potentiellement à double usage, et comme un atout stratégique. L’IA est considérée comme un moteur essentiel de la productivité et de la compétitivité dans un avenir proche, ce qui en fait une priorité industrielle essentielle dans un contexte de concurrence et de rivalité internationales croissantes. Des investissements insuffisants dans l’IA et les industries connexes pourraient compromettre à la fois la croissance économique et la sécurité, transformant rapidement le développement de l’IA en une question de souveraineté nationale.

Nous définissons la souveraineté technologique en matière d’IA comme la capacité des pays à mobiliser et à intégrer les compétences liées à l’IA au niveau local (c’est-à-dire au niveau national). En d’autres termes, nous proposons une approche basée sur les compétences pour évaluer la souveraineté technologique en matière d’IA. Notre objectif est à la fois descriptif et analytique. En ce qui concerne la partie descriptive du rapport :

Nous identifions les compétences clés en matière d’IA le long d’une série d’étapes impliquées dans la production et l’innovation en matière d’IA, depuis les techniques liées à l’IA les plus répandues jusqu’aux applications les plus concrètes, en passant par des fonctions plus concrètes liées à l’IA. C’est ce que nous appelons la chaîne de valeur Technique-Fonction-Application (chaîne de valeur TFA). Nous nous concentrons volontairement sur une chaîne de valeur stylisée limitée aux algorithmes d’IA, plutôt que sur l’ensemble de la pile d’IA qui comprend les données et l’infrastructure de calcul.

Nous nous intéressons en effet aux compétences spécifiques qui permettent l’innovation dans le domaine de l’IA.

Nous positionnons les pays le long de la chaîne de valeur de la TFA en termes de spécialisation relative, en démêlant les domaines de forces et de faiblesses relatives qui peuvent servir de guide pour concevoir des politiques scientifiques, technologiques et industrielles.

Le rapport fournit de nombreuses preuves de la spécialisation des pays dans des domaines bien identifiés de l’IA. Nous avons choisi de fournir autant d’informations que possible, même si le lecteur peut parfois se sentir dépassé. Nous avons choisi d’inclure divers graphiques descriptifs, tableaux et noms d’acteurs clés dans le rapport afin de satisfaire la curiosité de notre lectorat. D’un point de vue plus analytique, nous fournissons deux résultats principaux :

  • Nous développons des mesures d’intégration spécifiques aux pays le long de la chaîne de valeur stylisée de l’IA, en interprétant cette mesure comme une approximation de la souveraineté technologique en matière d’IA. En utilisant cette approche, nous effectuons des comparaisons entre pays de la souveraineté technologique sur l’ensemble de la chaîne de valeur.
  • Nous démontrons que l’intégration favorise l’innovation. Étant donné que l’intégration au sein de la chaîne de valeur de l’IA favorise l’innovation future et que l’IA est de plus en plus considérée comme une technologie fondamentale, il s’agit d’un domaine stratégique dans lequel il est possible d’atteindre la souveraineté technologique.
  • Dans l’ensemble de nos analyses, nous adoptons une perspective européenne, c’est-à-dire que nous proposons une étude qui dépasse les frontières nationales et qui évalue la souveraineté technologique en matière d’IA à l’échelle continentale. Dans l’ensemble, nous constatons un écart important entre la réalité et le potentiel du leadership de l’UE en matière d’innovation et de production d’IA. En réalité, un fossé persiste entre l’UE et la frontière mondiale, l’Europe étant à la traîne par rapport aux innovateurs de premier plan. Du côté du potentiel, cependant, il y a des rendements croissants à gagner au niveau de l’UE en tirant parti de politiques coordonnées, d’investissements, de la division du travail et du renforcement des compétences à travers le continent.


Les auteurs :

Ludovic Dibiaggio est professeur d’économie à SKEMA Business School. Il a également été doyen de la recherche et a fondé le centre de recherche Knowledge Technology and Organization (KTO) à SKEMA Business School. Le professeur Dibiaggio a été directeur de l’Observatoire des impacts technologiques, économiques et sociétaux de l’intelligence artificielle (OTESIA) à l’Université de la Côte d’Azur. Ses recherches portent sur l’organisation des bases de connaissances, les déterminants de la performance innovante au niveau de l’entreprise, de la région ou du pays, et les environnements sociaux contribuant au succès des projets créatifs, que ce soit dans les contextes des réseaux sociaux ou des plateformes de financement participatif (crowdfunding). Ses projets couvrent des industries telles que les semi-conducteurs, les biotechnologies et les piles à combustible, la musique et, plus récemment, l’intelligence artificielle. Il est co-auteur du rapport « AI, Technologies, and Key Players » et a contribué à plusieurs articles sur l’IA tels que les Policy briefs de l’OFCE « Ideas without scale », « Artificial Intelligence : a Political Subject » publiés par Publika, ou un chapitre sur l’IA dans « L’économie fran¸caise 2024 » publié par La Découverte.

Lionel Nesta est professeur à l’Université Côte d’Azur et chercheur au GREDEG (CNRS-UCA). Il est également chercheur associé à l’OFCE (Sciences Po Paris) et à SKEMA Business School. Ses recherches portent sur les grands bouleversements des économies modernes (transition énergétique, numérisation, mondialisation, etc.) et sur leurs effets sur la croissance des entreprises et le fonctionnement des marchés. À l’OFCE, Lionel Nesta a été chef du département de recherche sur l’innovation et la concurrence de 2015 à 2020.

Simone Vannuccini est titulaire de la chaire de professeur junior en économie de l’intelligence artificielle et de l’innovation à l’Université Côte d’Azur (UCA), France. Avec son équipe, il mène des recherches sur un large éventail de sujets, tous liés à l’application de la théorie économique aux technologies émergentes telles que l’intelligence artificielle (mais pas seulement). Le professeur Vannuccini a occupé des postes d’enseignant et de chercheur à la Science Policy Research Unit (SPRU) de l’université du Sussex, à l’Imperial College de Londres, à l’université Friedrich Schiller d’Iéna (Allemagne) et à l’université d’Insubrie (Italie). Les recherches du professeur Vannuccini portent sur l’évolution des technologies, l’économie de l’IA, la dynamique industrielle, la politique de la science, de la technologie et de l’innovation, et l’économie de la numérisation.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/11/08/research-paper-european-sovereignty-in-artificial-intelligence-a-competence-based-perspective-by-ludovic-dibiaggio-lionel-nesta-and-simone-vannuccini/feed/ 0
[ARTICLE] Comment encadrer l’IA ? L’échec du projet de loi californien https://www.sciencespo.fr/public/chaire-numerique/2024/10/26/article-comment-encadrer-lia-lechec-du-projet-de-loi-californien/ https://www.sciencespo.fr/public/chaire-numerique/2024/10/26/article-comment-encadrer-lia-lechec-du-projet-de-loi-californien/#respond Fri, 25 Oct 2024 23:37:40 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7821 […]]]>

Cet article écrit par Florence G’sell est paru initialement le 25 octobre sur le site Le club des juristes.


Le gouverneur de Californie, Gavin Newsom, a opposé son véto à un projet de loi sur la sécurité de l’intelligence artificielle qui visait à réguler les grands acteurs de l’IA pour les rendre responsables des dommages que leurs modèles pourraient causer. Décryptage.


Par Florence G’sell, Professeur invité à Stanford University

Que prévoyait le projet de loi californien SB1047 ?

Malgré un champ d’application restreint aux modèles les plus avancés développés par les plus grandes entreprises technologiques, la loi « Safe and Secure Innovation for Frontier Artificial Intelligence Models Act » (proposition de loi SB 1047) n’en imposait pas moins des obligations contraignantes et inhabituelles pour les Etats-Unis.

Le champ d’application de la loi. Le texte avait pour objet d’encadrer les modèles d’IA les plus puissants mis sur le marché en Californie. Il visait spécifiquement les modèles entraînés à l’aide d’une puissance de calcul très importante (supérieure à 10^26 FLOPs – floating-point operations per second) et dont le coût dépasse 100 millions de dollars, ainsi que les modèles développés à partir de ces modèles avancés. La loi visait ainsi clairement les modèles d’IA de la génération à venir développés par les géants de l’industrie.

Les obligations prévues par la loi. La loi SB1047 prévoyait que les développeurs de tels modèles avaient l’obligation d’exercer une diligence raisonnable (« duty of care ») pour réduire le risque que leur modèle cause ou rende possible la survenance de « dommages critiques » (« critical harms »), à savoir : la création ou l’utilisation d’armes de destruction massive (armes chimiques, biologiques, radiologiques ou nucléaires – qui entraînent des pertes massives), la possibilité d’une cyberattaque visant des infrastructures critiques et entraînant des dommages d’au moins 500 millions de dollars ou des pertes massives, voire le cas où une IA autonome provoque la mort ou des dommages corporels de manière telle que les mêmes faits constitueraient une infraction s’ils étaient commis par un être humain. Le texte interdisait expressément le déploiement d’un modèle d’IA en présence d’un risque « déraisonnable » que le modèle permette de tels dommages. Afin de garantir que les modèles ne puissent causer ou permettre la survenance de dommages critiques, la loi imposait aux développeurs un certain nombre d’obligations : possibilité d’arrêt complet (kill switch) du fonctionnement du modèle, mesures de cybersécurité, élaboration d’un protocole de sûreté et de sécurité (PSS), tests et évaluation des risques avant déploiement du modèle, audits annuels par des tiers indépendants, signalement des incidents de sécurité. 

Les sanctions prévues par le texte étaient lourdes. L’Attorney General pouvait décider de suspendre l’utilisation d’un modèle d’IA ou imposer des amendes allant jusqu’à 10 % du coût de la puissance de calcul utilisée pour entraîner le modèle, les sanctions pouvant atteindre 30 % en cas d’infractions ultérieures. Il pouvait en outre intenter une action civile et obtenir l’octroi de dommages et intérêts aux victimes, y compris des dommages et intérêts punitifs.

La suite du décryptage est accessible ici.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/10/26/article-comment-encadrer-lia-lechec-du-projet-de-loi-californien/feed/ 0
Présentation du rapport Regulating under Uncertainty au Consulat général de France à San Francisco https://www.sciencespo.fr/public/chaire-numerique/2024/10/25/presentation-du-rapport-regulating-under-uncertainty-au-consulat-general-de-france-a-san-francisco/ https://www.sciencespo.fr/public/chaire-numerique/2024/10/25/presentation-du-rapport-regulating-under-uncertainty-au-consulat-general-de-france-a-san-francisco/#respond Fri, 25 Oct 2024 09:47:22 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7799 […]]]> Mercredi 23 octobre, Florence G’sell était l’invitée du Consulat général de France à San Francisco pour présenter son rapport, Regulating under Uncertainty. Governance Options for Generative AI.


Les remerciements du Consulat :

Merci à Florence G’sell d’avoir présenté son rapport sur la réglementation de l’IA dans un contexte d’incertitude ! En tant que professeur invité de droit privé au Cyber Policy Center et responsable du programme sur la gouvernance des technologies émergentes, Florence G’sell apporte une perspective critique sur la façon dont nous pouvons façonner l’avenir de l’IA.

Alors que la France s’apprête à accueillir le Sommet de l’action sur l’IA (AI Action Summit) en février 2025, les discussions sur la gouvernance de l’IA sont au cœur des préoccupations de nos nations.

Une réglementation efficace est essentielle pour s’assurer que l’IA sert le bien commun, en relevant les défis sociétaux tout en promouvant l’innovation dans tous les pays.

©Consulat général de France à San Francisco

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/10/25/presentation-du-rapport-regulating-under-uncertainty-au-consulat-general-de-france-a-san-francisco/feed/ 0
La gouvernance des plateformes, un jeu d’échecs tridimensionnels : conversation approfondie avec le professeur Kate Klonick https://www.sciencespo.fr/public/chaire-numerique/2024/09/26/la-gouvernance-des-plateformes-un-jeu-dechecs-tridimensionnels-conversation-approfondie-avec-le-professeur-kate-klonick/ https://www.sciencespo.fr/public/chaire-numerique/2024/09/26/la-gouvernance-des-plateformes-un-jeu-dechecs-tridimensionnels-conversation-approfondie-avec-le-professeur-kate-klonick/#respond Thu, 26 Sep 2024 16:51:31 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7782 […]]]>

Dans le sillage des récents événements transformateurs remodelant la gouvernance des plateformes, Can Şimşek a mené un entretien avec le professeur Kate Klonick, membre du comité scientifique de la chaire Digital, gouvernance et souveraineté. La transcription de cet échange fructueux approfondit la façon dont les récents incidents très médiatisés – allant de l’ affrontement d’Elon Musk avec le Brésil à son soutien au candidat présidentiel Trump, en passant par son insulte publique adressée à l’ancien commissaire européen Thierry Breton et l’arrestation du PDG de Telegram, Pavel Durov, avant les changements apportés à la politique de confidentialité de Telegram – se connectent et influencent la dynamique évolutive du paysage géopolitique et technologique. Un entretien qui traite de liberté d’expression, de cyber-libertarisme et de la gouvernance des plateformes.

Nous entendons souvent les PDG de plateformes invoquer le concept de « liberté d’expression » lorsqu’ils discutent ou s’opposent à des lois de modération de contenu telles que le DSA. Cette tension permanente pourrait-elle découler des différentes interprétations de la liberté d’expression dans l’UE et aux États-Unis ? Ou bien ce discours sur « l’absolutisme de la liberté d’expression » est-il de nature purement politique et sceptique ?

Avant de passer du temps dans l’UE, j’avais vraiment du mal à comprendre pourquoi il y avait tant de désaccords apparents ou pourquoi tant de lois étaient adoptées dans l’UE alors qu’aux États-Unis, nous serions réticents à l’égard de la limitation de la liberté d’expression. Je pense vraiment qu’il s’agit davantage d’un problème structurel de droit civil et gouvernemental et d’un problème normatif. C’est ainsi qu’on le comprend le mieux. Le premier amendement de la Constitution interdit au gouvernement d’adopter des lois susceptibles de restreindre la liberté d’expression des citoyens. Les tribunaux américains ont essentiellement interprété cette disposition comme signifiant que le gouvernement ne peut pas porter atteinte à presque n’importe quel discours. Les discours de haine sont légaux aux États-Unis. La pornographie, la pornographie extrême est légale aux États-Unis. Brûler un drapeau est légal aux États-Unis. Il y a beaucoup de choses qui sont légales aux États-Unis et qui pourraient être illégales en Europe ou ailleurs. Ce que cela signifie, c’est que les droits des citoyens sont protégés et qu’ils peuvent s’adresser au gouvernement. Cela provient de l’idée que la chose que vous devez craindre le plus, et c’est une chose très américaine, c’est que vous devez vraiment revenir à ce que vous avez fait jusqu’à présent. Il faut vraiment revenir à ce sur quoi l’Amérique a été fondée. Le gouvernement est venu après nous. Tout comme la couronne et l’Angleterre sont venues après les révolutionnaires, et la couronne est l’ennemi, le gouvernement est l’ennemi. Mais en même temps, les pères fondateurs reconnaissent que, bien sûr, nous avons besoin d’un gouvernement pour fonctionner. Cela fait partie de notre éducation civique, cela fait partie de la façon dont nous nous comprenons en tant que nation, c’est tout ; c’est une compréhension très culturelle. Le gouvernement est ce qui nous effraie le plus. Le gouvernement qui a les armes, qui a la force, qui a le pouvoir de police, qui nous poursuit et nous restreint. C’est en quelque sorte ce qui explique que les Américains puissent s’armer grâce au deuxième amendement et qu’ils puissent s’exprimer contre le gouvernement.

D’un autre côté, il n’y a pas une grande différence dans ce que vous êtes autorisé à dire dans l’UE. Ce n’est pas comme si on était arrêté pour avoir dit des choses en Europe. Je suis toujours étonné que l’Europe dans son ensemble ne se préoccupe pas davantage d’adopter une réglementation aussi ouverte que le DSA, qui a le pouvoir potentiel de restreindre ce que les entreprises peuvent faire, mais aussi ce que les citoyens peuvent faire sur les plates-formes. Deux générations se souviennent de la Seconde Guerre mondiale et de l’arrivée au pouvoir d’un gouvernement autocratique, ce qui me semble être exactement le type de situation que les Américains redoutent, à savoir un gouvernement qui espionne ses citoyens, un gouvernement qui devient autocratique par nature et qui utilise ensuite les lois contre ses citoyens. Je pense que cela place la barre à un niveau très bas pour expliquer pourquoi il y a un tel désaccord. Mais je suis d’accord avec vous. En fin de compte, il n’y a pas tant de différences que cela.

Je pense qu’il est en effet crucial de souligner les racines historiques de la liberté d’expression. Cependant, les progrès technologiques ajoutent une dimension entièrement nouvelle à cette question. L’échelle est immense, en particulier avec des plateformes mondiales comme X. Par exemple, les incidents impliquant des insultes adressées à un commissaire européen ou des controverses au Brésil sont amplifiés, avec des effets de grande portée à l’échelle mondiale. Dans ce contexte, comment devrions-nous aborder et comprendre ces questions dans le monde d’aujourd’hui ?

La technologie modifie les fondements de l’opposition entre le peuple et le gouvernement. La technologie a ajouté un nouveau nœud. C’est une idée de Jack Balkin, de la faculté de droit de Yale. Il a publié un article intitulé « Free Speech is a Triangle » (La liberté d’expression est un triangle) qui, à mon avis, est une merveilleuse heuristique pour comprendre cette question. En particulier pour les États-Unis. Il s’agissait d’une relation dyadique entre les citoyens et le gouvernement autour de la liberté d’expression ; le gouvernement avait la botte de l’État, et les gens pouvaient riposter en votant et en s’exprimant. Les plateformes ajoutent un troisième nœud, n’est-ce pas ? Elles en font un triangle. C’est la raison de l’optimisme technologique et du pessimisme technologique. Tout d’un coup, vous avez un nouveau nœud. Vous pouvez vous adresser à ce tiers qui peut examiner les citoyens pour vous, et cela signifie également que vous pouvez contourner la censure parce que vous avez ce tiers qui peut vous permettre de contourner le gouvernement. Il s’agit essentiellement d’une idée très naturelle pour les États-Unis en particulier, avec la structure du premier amendement. Ce que le gouvernement peut restreindre laisse beaucoup d’espace aux entités privées, qu’il s’agisse de plateformes de presse, d’entreprises privées, de groupes de la société civile, d’universitaires ou d’autres entités du même genre, ce qui laisse beaucoup d’espace pour la création d’espaces d’expression et de lieux d’expression gérés par le secteur privé et non par le gouvernement. Ainsi, si vous êtes propriétaire d’un restaurant, vous pouvez décider des règles d’expression dans votre restaurant parce que vous n’êtes pas le gouvernement. Vous pouvez interdire les discours haineux dans votre restaurant, vous pouvez interdire les discours haineux sur votre plateforme numérique si vous le souhaitez. Vous avez ce droit. C’est pourquoi il y a beaucoup de discussions sur le fait que les plateformes ont leur propre droit au premier amendement en tant que plateformes « privées ». Je pense qu’il s’agit d’une idée tout à fait naturelle, car elles disposent d’une plateforme de la manière qu’elles souhaitent. C’est le droit de créer cette plateforme qui est protégé contre le gouvernement. C’est sur ce point que mon travail a porté jusqu’à présent, à savoir comprendre ce qui se passe dans ce troisième nœud, essayer de comprendre ce qui se passe dans cet espace de gouvernance privée et organiser tout cela en concepts. Quelles sont les tendances, comment cela se passe-t-il ? Il s’agit de le comprendre d’un point de vue anthropologique, de le comprendre en tant que structure semi-juridique. C’est presque comme un type de structure juridique qui s’est mise en place.

Durov et Musk occupent tous deux ce troisième nœud et ce qui les préoccupe, de manière très différente, c’est le contrôle et la réponse au gouvernement et leur soi-disant préoccupation et réponse aux citoyens utilisateurs de leur site. Il s’agit d’un jeu différent, où la politique et l’économie de la situation sont en jeu. L’option technocratique légale, comme l’arrivée de la Commission européenne, n’est qu’une autre manifestation d’un mode de vie, une petite flexion du pouvoir afin de pouvoir continuer cette sorte de lutte constante entre ces trois parties.

Sommes-nous en train d’assister à un changement dans la manière dont ces troisièmes nœuds agissent ? Je pense que nous assistons à une fragmentation des plateformes sociales en fonction des opinions politiques de leurs propriétaires. Avant Musk, Twitter semblait être un espace public plutôt neutre. Musk a-t-il modifié cette dynamique ou les plateformes ont-elles toujours été gérées par leurs PDG ?

Ce que nous entendons par public et privé est très compliqué, car lorsque nous disons public, nous l’entendons dans le sens d’une publication et d’une diffusion à grande échelle. Aux États-Unis, nous utilisons le terme « public » pour désigner les entreprises gérées par le gouvernement. Par ailleurs, le fait d’être une « société cotée en bourse » signifie que l’entreprise est cotée à la bourse de New York et qu’elle est soumise aux lois du gouvernement, à un conseil d’administration et à ses actionnaires. Il y a toute une série d’autres obligations et maintenant, ce qui est vraiment compliqué, à des fins de gouvernance et de technocratie juridique, X est une société privée et non plus une société cotée en bourse ; c’est une plateforme privée qui diffuse publiquement des informations à des particuliers. Donc, oui, du point de vue de la communication ou des médias, je pense que l’impression que vous avez de X en tant qu’espace public est celle d’une plateforme publique.

Ce que la plupart des gens diraient et ce que beaucoup de mes travaux ont montré, c’est que nous suivions en fait les caprices de Mark Zuckerberg, de Jack Dorsey, avant Elon Musk, et de quiconque était responsable d’Alphabet ou de Microsoft ou d’autre chose, ou de Cloudflare Matthew Prince. En réalité, nous l’étions, mais ils n’étaient pas très transparents à ce sujet. Maintenant, Musk a fait une sorte de figure à laquelle on ne croirait pas. L’histoire est sortie de cette sorte de puits… J’ai l’impression que les actions d’Elon Musk ont baissé, et je ne parle pas littéralement de toutes ses entreprises. Il était considéré comme un génie absolu et maintenant il n’est plus que quelqu’un qui poste des mèmes sur X et des mauvaises blagues à ses followers. Je pense que c’est un moment très intéressant parce que, pour répondre à votre question, moi et d’autres avons dit pendant des années que la raison pour laquelle il fallait une gouvernance de l’internet était : écoutez, ce que vous ne réalisez pas, c’est que tout cela est soumis aux caprices de quelques personnes dans la Silicon Valley.

Il n’y a pas de système de gouvernance pour ces espaces quasi-publics, ces « espaces publics » comme vous dites se sentent publics ; il n’y a pas de type de réactivité, il n’y a pas de structure démocratique pour que les gens ou les individus puissent répondre aux personnes qui établissent les règles qui régissent ces espaces privés. À un certain moment, cela devient si incroyablement public que cela devient une partie essentielle de votre liberté d’expression. Il doit y avoir une réponse aux gens et il doit y avoir une réactivité dans un système. Les PDG peuvent devenir la loi de la plateforme et c’est exactement le problème.

C’est un biais psychologique classique que de penser que parce que l’on voit quelque chose, cela a commencé à se produire. Ce n’est pas vrai. Avant, cela se passait depuis des années et des années et depuis le début, mais Elon nous a montré que c’est vraiment en train de se produire.

D’une certaine manière, c’est une bonne chose que Musk ne soit pas discret à ce sujet. Les gens sont de plus en plus conscients de cette situation, n’est-ce pas ? Cette question de la réactivité nous ramène à l’affaire Pavel Durov. Cette situation n’est pas principalement liée au cryptage – puisque Telegram n’est pas entièrement crypté – ni aux politiques de modération. Il s’agit plutôt d’une enquête criminelle préliminaire. Comment interprétez-vous l’arrestation de Durov et les événements qui ont suivi ?

Je pense qu’Elon Musk et Pavel Durov sont deux êtres humains mégalomanes qui pensent que la plateforme technologique dans son ensemble leur permet d’exprimer ou d’actualiser leurs idées libertaires et de faire un pied de nez au gouvernement, ce qui n’est pas nouveau. Nous avons connu un internet né d’un moment techno-utopique, comme l’idée de John Perry Barlow de « nous allons emmerder le gouvernement et laisser le gouvernement se faire emmerder » ; c’est le moment pour nous de saisir nos droits en tant qu’individus. Internet serait un paysage infernal s’il n’y avait pas de règles et de réglementations. Sans gouvernance, Internet serait illisible. Il faut organiser des conversations publiques, il faut que les gens voient ce qu’ils veulent entendre, ils ne veulent pas d’un tuyau d’arrosage d’informations. Même la création d’une application est une structure. C’est une infrastructure que vous créez pour inviter les gens à avoir un type de conversation lisible.

Parlons un instant des documents relatifs aux abus sexuels commis sur des enfants (CSAM). Les contenus pédopornographiques sont le pire des pires contenus de l’internet. C’est l’une des premières choses qui sont apparues sur l’internet. Les gens essaient de trouver un moyen de contourner le gouvernement qui interdit très sévèrement ce type de matériel et il s’agit d’un discours criminalisé qui n’est donc pas protégé par le premier amendement. Le développement de PhotoDNA a constitué une avancée considérable dans ce domaine. Nous sommes en mesure d’identifier ces contenus très rapidement par le biais des plateformes. Personne qui ne soit pas lui-même un abuseur sexuel d’enfants n’est un partisan de CSAM. Il est très facile pour tout le monde de se mettre d’accord sur ce point à un niveau normatif et culturel. Cela ne vaut pas la peine d’aller au tapis pour les abuseurs sexuels d’enfants, n’est-ce pas ? Dans un combat, personne ne veut que les abuseurs sexuels d’enfants gagnent. Nous avons simplement décidé qu’il s’agissait d’une activité criminelle.

Il est devenu très facile de se conformer aux lois sur les matériels d’abus sexuel d’enfants grâce à des avancées technologiques telles que PhotoDNA. La plupart des sites Internet respectent donc les lois sur le matériel pédopornographique.

Telegram, comme vous le soulignez, n’est pas une plateforme entièrement cryptée. Il s’agit d’une plateforme à multiples facettes, avec de multiples façons de communiquer très bruyamment et publiquement, mais aussi de façon très privée, et de différentes manières. Vous avez une fonction de type message, des chats secrets qui sont supposés être cryptés bien qu’ils n’aient jamais publié leur clé et dit comment ils le font, c’est la partie qui est la plus cryptée et qu’ils protègent vraiment. Mais il y a des éléments de diffusion publique, comme sur Facebook Live, et il y a d’autres types de discussions de groupe qui ne sont pas cryptées. Durov a fait de son entreprise politique, de sa vente de la plateforme un espace de liberté. L’aspect libertaire n’est que du marketing. Durov a pris position parce qu’il considère que la plus grande menace est l’utilisation des plateformes par les gouvernements pour surveiller les citoyens. C’est sa position : nous ne répondrons pas aux citations à comparaître ; nous ne répondrons même pas aux demandes de CSAM ou aux demandes de rapports, car nous considérons que c’est la pente glissante pour répondre à n’importe quel type de demande. Maintenant, pour être juste, beaucoup de plateformes s’occupent de cette pente glissante ; c’est très compliqué et cela nécessite beaucoup de technologie et d’embauches. Cela crée un jeu de poule mouillée avec les gouvernements du monde entier qui veulent vraiment le poursuivre pour avoir exploité une plateforme qui diffuse du CSAM, le pire du pire, et du contenu terroriste extrémiste. Durov a atterri en France et s’est en quelque sorte rendu en disant : « D’accord, je vais pousser ce problème un peu plus loin ». C’est littéralement un jeu de poule mouillée. Ensuite, nous avons vu Telegram revoir entièrement sa position au cours des deux dernières semaines. C’est donc en fin de compte un moment très intéressant. Comme je l’ai déjà dit, les trois nœuds du pouvoir sont en jeu. Le fait que le gouvernement puisse forcer l’un de ces nœuds à capituler, même si je reconnais que Telegram est une application terrible et qu’elle fait beaucoup de choses terribles, peut être considéré comme une attaque contre les droits, les options et la liberté des utilisateurs.

Lorsque l’on considère le pouvoir des plateformes, il convient de noter qu’elles disposent souvent d’un levier supplémentaire. Par exemple, les plateformes peuvent potentiellement menacer de se retirer des marchés ou d’attaquer des organismes de réglementation comme l’UE si leurs demandes ne sont pas satisfaites. Pensez-vous que la rhétorique libertaire utilisée dans le marketing de ces plateformes soit valable ? Se défendent-elles ou cherchent-elles à faire des compromis en coulisses ?

Les négociations en coulisses sont plus efficaces, elles empêchent tout cela de se produire. C’est le cas dans presque tous les gouvernements du monde. Le lobbying de différents groupes d’intérêt et de différentes personnes permet de modifier les choses avant qu’elles ne deviennent des lois ou de changer leur signification après qu’elles soient devenues des lois, ou encore de parvenir à un accord. Tout cela coûte cher. Je n’arrête pas de parler de jeu de la poule mouillée. Le jeu de la poule mouillée, c’est continuer à bluffer, c’est continuer à être celui qui va finalement être renversé par la voiture, et on ne sait pas très bien comment cela va se passer. I

Vous pouvez dire tout ce que vous voulez, mais l’économie ou le fait de passer des années en prison lorsqu’on est PDG d’une entreprise seront les leviers qui auront le plus de poids. Nous avons vu beaucoup de reportages à ce sujet au cours des deux dernières semaines, le nombre d’amendes infligées par l’UE, non seulement pour l’ASD, mais aussi pour toutes sortes de décisions de justice, les poursuites antitrust, etc. Il ne s’agit pas de se retirer de l’Europe par principe. Mais peut-être qu’il ne sera plus rentable d’opérer en Europe. La gouvernance numérique en général est très intéressante. C’est comme un jeu d’échecs en trois dimensions. Il faut constamment faire la différence entre la menace et la réalité de l’application de la loi, puis entre le pouvoir de la loi et les conditions économiques très réelles qui sont le moteur des entreprises à but lucratif, et enfin les idéaux chimériques des PDG mégalomanes, ce qu’ils sont prêts à risquer et ce que leurs avocats leur disent qu’ils sont prêts à risquer.

Ce qui m’intéresse le plus, en tant que personne qui étudie cette question, c’est le moment choisi pour l’affaire Durov et l’affaire Musk. Le moment de l’affaire Durov France, où les défenseurs des libertés civiles se sont dits : « Pouvez-vous croire qu’ils s’en prennent à un PDG ? C’est mauvais pour la liberté d’expression » et se sont retrouvés à défendre à moitié Durov, mais ensuite pour le pire type de discours imaginable. Je pense que la plupart des gens peuvent dire que Telegram devrait se conformer à des choses comme le CSAM et l’état de droit dans les pays où il opère, mais cela devient une question vraiment difficile une fois que vous êtes dans des pays autocratiques et des endroits qui ne protègent pas leurs citoyens. On peut considérer Durov comme un méchant ou un héros, mais il en va de même pour Elon Musk. C’est la question qui se pose au Brésil. Il s’agit d’une démocratie douce, avec de nombreux types de normes. Nous avons exactement le même type de situation ici, c’est-à-dire que vous avez quelques juges en France et au Brésil, qui ont émis indépendamment ces ordonnances contre ces plateformes et contre ces individus. Et Elon Musk s’oppose au Brésil. Est-il un héros de la liberté d’expression ou devrait-il se contenter de respecter la loi ? Ce dont nous avons très peu parlé, c’est de ce que veulent les consommateurs individuels et s’ils approuvent ou non toutes ces demandes gouvernementales d’assignation à comparaître ou ce que la plateforme fait ou ne fait pas. Il n’y a pas de mécanisme d’action collective pour saisir cela. C’est l’économie et la politique qui mènent la danse, et pas du tout la voix des consommateurs individuels et des citoyens qui dépendent de ces plateformes.


Kate Klonick est professeur associée de droit à la St. John’s University Law School (New York), Affiliate Fellow à l’Information Society Project de la Yale Law School (Connecticut), Non resident Fellow à la Brookings Institution ; au cours de l’année universitaire 2022-2023, elle était Visiting Scholar à la Rebooting Social Media Initiative de l’Université de Harvard (Massachusetts).

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/09/26/la-gouvernance-des-plateformes-un-jeu-dechecs-tridimensionnels-conversation-approfondie-avec-le-professeur-kate-klonick/feed/ 0
[RAPPORT] Réglementer dans l’incertitude : les options de gouvernance de l’IA générative https://www.sciencespo.fr/public/chaire-numerique/2024/09/24/rapport-reglementer-dans-lincertitude-les-options-de-gouvernance-de-lia-generative/ https://www.sciencespo.fr/public/chaire-numerique/2024/09/24/rapport-reglementer-dans-lincertitude-les-options-de-gouvernance-de-lia-generative/#respond Tue, 24 Sep 2024 15:15:17 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7770 […]]]>

Le titre du rapport de Florence G’sell publié par le Cyber Policy Center de Stanford – « Réguler dans l’incertitude : les options de gouvernance pour l’IA générative » – cherche à traduire la position sans précédent des gouvernements face aux défis réglementaires posés par l’IA. La réglementation est à la fois urgente et imprévisible. Elle peut également être contre-productive si elle n’est pas bien faite. Toutefois, les gouvernements ne peuvent pas attendre de disposer d’informations parfaites et complètes avant d’agir, car il pourrait être trop tard pour garantir que la trajectoire du développement technologique ne conduise pas à des risques existentiels ou inacceptables. L’objectif de ce rapport est de présenter toutes les options qui sont actuellement « sur la table », dans l’espoir que toutes les parties prenantes puissent commencer à établir les meilleures pratiques grâce à un partage dynamique de l’information. Les risques et les avantages de l’IA seront ressentis dans le monde entier. Il est essentiel que les différentes propositions émergentes soient rassemblées en un seul endroit afin que les partisans de la politique puissent apprendre les uns des autres et aller de l’avant dans un esprit de coopération.


Résumé

La révolution en cours dans le développement de l’intelligence artificielle promet de transformer l’économie et tous les systèmes sociaux. Il est difficile d’imaginer un domaine de la vie qui ne sera pas affecté d’une manière ou d’une autre par l’IA, si les affirmations des plus ardents défenseurs de l’IA s’avèrent exactes. Bien que l’innovation dans le domaine de l’IA remonte à plusieurs décennies, les deux années qui ont suivi la publication de ChatGPT ont été marquées par une augmentation exponentielle du développement et de l’attention portée à cette technologie. Il n’est pas surprenant que la politique et la réglementation gouvernementales aient été à la traîne par rapport au rythme rapide du développement technologique. Néanmoins, une multitude de lois, proposées ou promulguées, ont vu le jour dans le monde entier. L’objectif de ce rapport est de recenser et d’analyser l’ensemble des propositions existantes en matière de gouvernance de l’IA générative.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/09/24/rapport-reglementer-dans-lincertitude-les-options-de-gouvernance-de-lia-generative/feed/ 0
[CONFÉRENCE] Faut-il un Buy European Tech Act ? https://www.sciencespo.fr/public/chaire-numerique/2024/09/17/conference-faut-il-un-buy-european-tech-act/ https://www.sciencespo.fr/public/chaire-numerique/2024/09/17/conference-faut-il-un-buy-european-tech-act/#respond Tue, 17 Sep 2024 13:34:28 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7758 […]]]> Petit déjeuner de présentation du rapport sur le Buy European Tech Act le 11 octobre 2024 : 8h30-10h30

Au cours de la campagne pour les élections au Parlement européen de juin 2024, les questions de l’autonomie stratégique ainsi que des politiques industrielles et commerciales ont été âprement débattues. Parmi les solutions, les appels en faveur d’une préférence européenne se sont faits de plus en plus nombreux.

Le rapport sur le Buy European Tech Act examine les implications, les raisons et les restrictions associées à cette préférence, tout en explorant les modalités concrètes de sa mise en œuvre.

Les trois auteurs du rapport, Sarah Guillou, économiste, Florence G’sell, professeure de droit privé, et Fabien Lechevalier, doctorant en droit, présenteront ce rapport vendredi 11 octobre à partir de 8h30 en salle Goguel, à Sciences Po, 27 rue Saint-Guillaume, Paris 7e.

Déroulement prévisionnel :

Accueil petit déjeuner 8h30-9h

Présentation du rapport 9h-9h45

Les auteurs : Sarah Guillou, Florence G’sell, Fabien Lechevalier

Modération : Guillaume Labbez, consultant et maître de conférences à Sciences Po

Discussion 9h45-10h30

Les trois auteurs, et les discussants : Thomas Grjebine, économiste au CEPII, Arno Pons, directeur de « Digital New Deal », think et do tank dédié aux enjeux de souveraineté numérique.

Questions du public 10h30-10h45

Un petit déjeuner sera servi à partir de 8h30. La présentation démarrera à 9h. Ouvert à tous sur inscription préalable obligatoire.

Il est possible de suivre l’événement à distance en cliquant ici.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/09/17/conference-faut-il-un-buy-european-tech-act/feed/ 0
[MEDIAS] Podcast – IA partout, souveraineté nulle part? https://www.sciencespo.fr/public/chaire-numerique/2024/09/17/medias-podcast-ia-partout-souverainete-nulle-part/ https://www.sciencespo.fr/public/chaire-numerique/2024/09/17/medias-podcast-ia-partout-souverainete-nulle-part/#respond Tue, 17 Sep 2024 13:22:47 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7753 […]]]> Sarah Guillou, directrice du département Innovation et concurrence et co-responsable du pôle « Politique publique et compétitivité des entreprises », OFCE, et membre du comité scientifique de la chaire Digital, Gouvernance et Souveraineté de Sciences Po a été interrogée le 9 septembre par le podcast suisse IA qu’à m’expliquer.

«IA qu’à m’expliquer» aborde cette semaine la question de la maîtrise des techniques d’IA avec l’économiste française Sarah Guillou

La notion de souveraineté numérique a gagné en popularité ces dernières années et l’essor des techniques d’intelligence artificielle générative a renforcé ce phénomène. Mais de quoi s’agit-il exactement? Dans un monde globalisé, est-il réellement possible pour les Etats de conserver une forme de pouvoir sur les nouvelles technologies?

L’économiste française Sarah Guillou, auteure du livre La souveraineté économique à l’épreuve de la mondialisation, est l’invitée de «IA qu’à m’expliquer» pour décortiquer les enjeux autour de la maîtrise du numérique, dont l’IA est une composante.

Ce neuvième épisode, réalisé avec le soutien de l’entreprise de cloud suisse Infomaniak, revient aussi sur un partenariat avec Huawei pour la création d’un brevet fédéral en IA, ainsi que sur Nvidia et Apple qui voudraient investir dans OpenAI.

Un épisode écrit et présenté par Grégoire Barbey. Montage: Sylvie Coma. Suivi éditorial: Célia Héron et Vincent Bourquin.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/09/17/medias-podcast-ia-partout-souverainete-nulle-part/feed/ 0
[POLICY BRIEF] La souveraineté monétaire à l’ère numérique, par Jean-Pierre Landau et Sarah Nicole https://www.sciencespo.fr/public/chaire-numerique/2024/07/04/policy-brief-la-souverainete-monetaire-a-lere-numerique-par-jean-pierre-landau-et-sarah-nicole/ https://www.sciencespo.fr/public/chaire-numerique/2024/07/04/policy-brief-la-souverainete-monetaire-a-lere-numerique-par-jean-pierre-landau-et-sarah-nicole/#respond Thu, 04 Jul 2024 13:51:15 +0000 https://www.sciencespo.fr/public/chaire-numerique/?p=7747 […]]]>

Cette note de politique publique explore les défis de la souveraineté monétaire à l’ère numérique, en abordant les risques posés par la numérisation et la symbolisation de la monnaie, leurs implications pour l’uniformité et la stabilité des monnaies, et leurs impacts sur le système monétaire international. Elle examine également les différentes dimensions de la souveraineté, notamment l’influence des plateformes et des réseaux numériques, les préoccupations en matière de protection de la vie privée et le lien entre la monnaie, les paiements et les données. Enfin, elle évalue les options politiques, en mettant l’accent sur les stablecoins et les monnaies numériques des banques centrales (CBDC).


Jean-Pierre Landau est professeur associé à Sciences Po (département d’économie) et ancien fonctionnaire du Trésor et de la Banque centrale.

Sarah Nicole est une experte en technologies émergentes, spécialisée dans la gouvernance politique et technique. Elle a acquis une expérience significative auprès d’entreprises technologiques de premier plan en Europe et a publié de nombreux articles sur l’impact géopolitique de l’informatique quantique et des environnements immersifs. En tant que Senior Policy & Research Associate à l’Institut Project Liberty, Sarah développe des modèles de gouvernance technique et académique et mène des actions de plaidoyer au niveau international. Son expérience internationale variée s’étend de Paris à Washington D.C., en passant par Bruxelles, Genève et Shanghai. Elle est titulaire d’un master de Sciences Po en affaires européennes, nouvelles technologies numériques et politiques publiques.

]]>
https://www.sciencespo.fr/public/chaire-numerique/2024/07/04/policy-brief-la-souverainete-monetaire-a-lere-numerique-par-jean-pierre-landau-et-sarah-nicole/feed/ 0