[ESSAI D’ÉTUDIANT] Combler le fossé du pouvoir de négociation : protéger les médias d’information à l’ère numérique
4 juillet 2023
Émeutes et réseaux sociaux : les plateformes se montrent-elles plus responsables ? Entretien dans La Croix
7 juillet 2023

[ENTRETIEN] L’intelligence artificielle : un éclairage sémantique, technologique et politique, avec Olivier Alexandre

Dans un contexte ou l’émergence d’intelligences artificielles dites génératives, comme Chat GPT, suscite de nombreuses prises de position dans l’espace public, il devient de plus en plus difficile de comprendre les termes et les enjeux du débat. Dans cet entretien, Olivier Alexandre, chercheur au Centre Internet et Société du CNRS et auteur de La Tech. Quand la Silicon Valley refait le monde aux éditions du Seuil, replace les discours entourant l’IA dans leur contexte social et éclaire les enjeux politiques occultés. 

Propos recueillis par Tamian Derivry

1) Qu’est-ce qui caractérise les promesses technologiques de la Silicon Valley en matière d’IA, et dans quel contexte se sont-elles développées ?

L’« intelligence artificielle » est associée à la Silicon Valley depuis l’origine de cette discipline. C’est John McCarthy (1927-2011), éminent informaticien de l’université de Stanford, qui a forgé le terme dans les années 1950. Il a contribué à développer les fondements sur lesquels s’appuient la tradition symbolique, qui fut longtemps dominante, et a reçu le prix Turing en 1971 pour sa contribution au domaine. Quand il est arrivé du MIT à Stanford, il est rapidement devenu professeur et mis en place le Stanford Artificial Intelligence Laboratory (SAIL), a animé la structure et la communauté autour d’elle, sur le plan social, mais également économique en obtenant des financements pour développer des machines autonomes. Les recherches de ce laboratoire sont à l’origine d’un certain nombre de robots industriels dont certains sont toujours en usage aujourd’hui. Il a également contribué à forger les représentations populaires de l’IA puisqu’il fut conseiller scientifique du film 2001, l’Odyssée de l’espace de Stanley Kubrick. Dans son esprit, les machines autonomes devaient et allaient atteindre un niveau de développement comparable à l’intelligence humaine. 

Mais dès cette époque, les débats sur l’IA ont été traversés par des binarismes, sur le plan moral et technique. Symbolistes vs. Connexionnistes, l’IA contre l’intelligence augmentée, le scénario du remplacement contre celui de l’extension, le logiciel et la robotique, etc. L’opposition morale structurante de cette histoire tient à une différence de conception philosophique : pour certains, l’IA vise à automatiser, en copiant et répétant les facultés cognitives humaines. C’était la conception de John McCarthy. Pour d’autres, les solutions informatiques doivent augmenter les capacités humaines. C’était notamment la conception de Douglas Engelbart (1925-2013), qui fit aussi une grande partie de sa carrière à Stanford, au sein de l’Augmentation Research Center, financé par la Defence Advanced Research Projects Agency (DARPA). Dans un cas, les machines sont appelées à devenir autonomes. Dans l’autre, des outils participeront à développer l’intelligence collective. On retrouve cette seconde tradition chez l’Apple de Steve Jobs, et le Microsoft d’aujourd’hui qui se présente depuis plusieurs années comme une entreprise d’Intelligence augmentée. Ce qui est paradoxal aujourd’hui du point de vue de cette mythologie, opposant le Golem à l’homo faber, c’est que les peurs exprimées à l’encontre de l’IA sont liées à la notion d’automatisation, qui correspond à la conception de l’IA forgée par McCarthy, alors que les IA génératives telles que Chat GPT s’inscrivent plutôt dans la seconde tradition, celle de l’intelligence augmentée. 

2) Que pensez-vous des critiques formulées en France et aux Etats-Unis à l’encontre de la massification des IA génératives comme Chat GPT ?

Nous avons traversé ces derniers mois une période de panique morale, c’est-à-dire une réaction collective disproportionnée par rapport à la réalité des pratiques, qui, à ce jour, restent minoritaires. L’histoire des médias et l’émergence de nouvelles technologies donnent de nombreux exemples d’un tel phénomène, au moment où la photographie, le cinéma, l’ordinateur, la calculatrice, les jeux vidéo, etc. ont commencé à se diffuser. De même, les peurs que l’on observe aujourd’hui avec l’IA ne sont pas nouvelles. Cette discipline a connu plusieurs étés et plusieurs hivers, réveillant cycliquement craintes et enthousiasmes, qui ne sont d’ailleurs pas les mêmes à l’échelle du globe.

Les robots sont très populaires au Japon, se retrouvent dans les fêtes religieuses en Inde, la nouvelle vague des IA génératives a été accueillie avec enthousiasme dans les pays du Golfe. La France est l’un des pays les plus pessimistes au monde en la matière. Ces écarts révèlent un rapport différent des habitants de chaque pays à la technique, au travail, à leur modèle social. En France, il existe de nombreuses raisons historiques permettant d’expliquer un rapport pessimiste, voire angoissé aux technologies. Historiquement, les effets néfastes des techniques, des guerres mondiales, à l’engrais, en passant par Tchernobyl, demeurent vivaces dans les représentations. Le chômage structurel tend à faire des machines des concurrents aux travailleurs. En France, la centralisation des prises de décision en matière de politique technologique contribue à alimenter une forme de soupçon. Ces rapports différenciés à l’IA révèlent tout ce en quoi la technique n’est pas qu’une affaire d’ingénierie.

Le rapport à l’IA dans la Silicon Valley est beaucoup plus enthousiaste qu’en France. Certes, les professionnels de l’IA considèrent qu’il y aura des pertes d’emploi, qu’il existe des risques stratégiques, mais elles sont également associées à l’émancipation, au progrès, à la croissance économique. Il n’y fait pas de doute que le progrès technique doit servir l’humanité, et qu’il faut tout faire pour s’en assurer. En cela, les discours sur l’IA venant de la Silicon Valley mettent en récit un futur dédoublé, entre menace et salut. Les grandes figures médiatiques évoquent une entité presque gnostique, à deux visages. C’est tout à la fois Terminator, une machine venue du futur pour tuer le présent, et R2-D2, le droïde ingénieux et intrépide de Star Wars. Les entrepreneurs de la Silicon Valley se posent dans ce scénario comme les gardiens du futur. Mais chaque entrepreneur défend une conception légèrement différente. OpenAI de Sam Altman n’est pas le truth GPT promis par Elon Musk. Le premier OpenAI, entre 2015 et 2017, n’est pas celui d’aujourd’hui, et est voué à évoluer. 

La Silicon Valley en tant que système industriel alimente cette ambivalence, entre promesses et incertitudes, car ses entreprises se présentent comme des acteurs de confiance, tout en soufflant sur les braises de l’histoire : l’IA devrait être contrôlée mais les entrepreneurs devraient rester libres d’innover ; il faudrait un moratoire, mais la machine est lancée… Or, perdre une longueur d’avance dans la course à l’innovation est synonyme dans leur esprit d’une irrémédiable relégation. Le PDG d’Alphabet a dit que les progrès de l’IA l’empêchaient de dormir. Je suppose que la cause de ces insomnies est moins à chercher du côté des progrès de la discipline, que du côté du risque industriel et de la concurrence accrue dans ce domaine pour Google qui se définit comme une entreprise spécialisée dans le domaine de l’IA depuis ses débuts. 

En cela, il faut aussi être capable de réintégrer l’IA dans l’économie du discours propre à la Silicon Valley, où le story telling est une activité à part entière des entrepreneurs. Le récit permet de se différencier et d’être évalué, par les investisseurs, les médias, les régulateurs, les employés et les usagers. Les professionnels que j’ai interrogés ne se reconnaissent pas dans l’IA telle qu’elle est décrite dans les médias. Mais les effets de concurrence et le système de production de la Silicon Valley conduisent les entrepreneurs à entretenir des confusions sémantiques et alimenter certaines peurs, y compris pour retenir l’attention. 

3) Quels sont les aspects qui sont selon vous trop peu abordés dans les discussions actuelles sur la gouvernance de l’IA ?

Comme toute technique, l’IA présente des dimensions politiques. La plus évidente est la question du contrôle démocratique de ces solutions, dont le développement est monopolisé par une population localisée, relativement homogène socialement et idéologiquement qui oblitère la question des inégalités sociales, des biais ou encore des systèmes juridiques existants. Ces concepteurs se vivent comme progressistes, mais les Large Language Models véhiculent des biais sexistes, racistes et classistes. Par ailleurs, comment faire pour que les bases de données ne soient pas aux mains de quelques entreprises privées basées dans le nord de la Californie ou en Chine, et en assurent l’exploitation sans contrôle ni remontées à quelconque ayant droit ? 

Ces questions sont d’autant plus délicates que la Silicon Valley est devenue experte dans la mise à distance et la manipulation du politique. Sam Altman, le CEO d’OpenAI en est un parfait exemple. Il prêche la cause de l’IA générative, prédit des changements considérables, tout en demandant à ce que Open AI soit régulé. Ce faisant, il acte, de manière performative, une situation de monopole qui n’existe pas. Il y a près de 2600 entreprises spécialisées dans le domaine de l’IA dans la Silicon Valley. Sam Altman pose OpenAI en interlocuteur légitime exclusif des gouvernements, et les menace de travailler avec d’autres pays si la régulation lui semble trop contraignante. Pourtant, à ce jour, OpenAI a reçu près de 13 milliards de dollars d’investissements, un revenu minime, et près de 500 millions de dollars de déficit par an. Chaque requête coûte quelques centimes à l’entreprise, et le coût global de fonctionnement est considérable. Sam Altman a dit en interne qu’OpenAI pourrait devenir l’entreprise la plus gourmande en capital-risque de l’histoire de la Silicon Valley, avec un besoin de financement de 100 milliards de dollars. Il y a ici un enjeu de politique industrielle : le modèle de la Silicon Valley est-il le meilleur chemin en termes stratégiques, notamment pour les pays européens ?

Le troisième enjeu politique, c’est celui de l’asymétrie géopolitique. Il existe deux pôles industriels de l’IA, la Chine et les Etats-Unis. L’Union européenne est à la traîne, en raison de la division des pays qui la composent. A titre d’illustration, on compte environ 200 entreprises qui travaillent dans le domaine de l’IA en France, alors qu’il y en a dix fois plus dans la Silicon Valley. Les pays du Sud, dont l’Inde, sont placés dans une position d’exécutant. 

Or, l’IA pose des problèmes en matière d’emploi et de conditions de travail. Des entreprises informatiques et de grands cabinets de conseil ont diffusé des chiffres alarmant sur la suppression des emplois à venir liée au développement des IA : près de 30% du personnel administratif de son entreprise selon le PDG d’IBM. Mais les meilleurs experts de la Silicon Valley admettent ne pas savoir quel en seront les effets concrets. L’attention est donc focalisée sur les effets inconnus des IA sur le marché du travail. Pendant ce temps, peu de choses sont dites sur celles et ceux qui entraînent et modèrent les bases de données au Venezuela, au Kenya ou aux Philippines, dans des conditions très éloignées des critères RSE standards des pays de conception des IA. Le Time a révélé au début de l’année qu’OpenAI sous-traitait des tâches à une entreprise qui embauche des travailleurs basés à Nairobi, au Kenya, rémunérés moins de 2 dollars de l’heure. Le salaire moyen des développeurs et data analystes de la Silicon Valley se situent entre 100 000 et 150 000 dollars par an. L’entreprise concernée, Sama, existe depuis 2008. Son siège social est à San Francisco. Presque toutes les grandes entreprises de la Silicon Valley ont travaillé avec cette entreprise. Les IA produites dans le nord de la Californie reposent donc sur un système de production internationalisé et inégal. 

On doit également parler du coût environnemental des IA. Pour faire fonctionner un centre de données aujourd’hui, il faut compter environ 3 millions de litres d’eau par jour aux Etats-Unis. Les grandes entreprises ne communiquent pas ou peu sur ces chiffres, dont tout porte à croire qu’ils iront grandissant. 

Enfin, les applications concrètes de ces technologies sont en soi un enjeu politique. A quoi servent et serviront ChatGPT et Midjourney ? Est-ce un outil de production ou une technologie de l’esprit s’inscrivant dans la lignée de l’encyclopédie ? En fonction de la réponse, l’encadrement juridique n’est pas le même. Si on les considère comme des communs, il faut en confier à la charge à une institution. Mais laquelle ? Sur la base de quels principes ? Avec quelle infrastructure ? 

4) Que pensez-vous de l’approche européenne de gouvernance de l’IA, en particulier du nouveau règlement sur l’intelligence artificielle (AI Act) ? 

L’IA Act est certainement louable. Mais sa structure intellectuelle est celle du parapluie. Il définit ce que les représentants de l’Union européenne ne veulent pas : à savoir de la manipulation, de la surveillance biométrique, du crédit social, etc. Il ne se positionne pas sur ce que l’Union européenne veut en matière de technologie, de valeurs, de philosophie, de problèmes ciblés, etc. Dans la Silicon Valley, il y a des visions très fortes, capitalisées, médiatisées, sur la manière dont les IA iront d’un point A à un point B. Politiquement, la question pourrait donc être de se demander comment orienter, encadrer et impulser des IA conformes aux principes et aux valeurs de l’Europe. Aux Etats-Unis, la régulation du capital-risque et des investissements, via l’intégration de critères RSE stricts, est une piste de réflexion probante. Mais ce type de mesures suscite l’hostilité du Parti républicain. En France et en Europe, les autorités publiques participent activement au financement de la recherche et de l’entrepreneuriat. Le principe d’une régulation ex ante semble donc aller de soi. 

Le président français a récemment annoncé un plan d’investissement de 500 millions d’euros pour faire émerger des « IA clusters » en France pour concurrencer les solutions développées aux Etats-Unis. Ce type d’approche reste tributaire d’un biais d’échelle et d’une logique territoriale à temps 0. D’une part, les territoires sont comparés alors que les échelles et les modèles ont peu en commun. La question est d’ailleurs souvent posée : pourquoi Google, Facebook ou Chat GPT ne sont-ils pas français ? Or, il existe ou a existé des alternatives françaises pour chacune de ces solutions. Le problème est donc ailleurs : dans le modèle, l’échelle et la densité du tissu industriel. Comparer la France et la Silicon Valley a du sens dans la mesure où l’on garde à l’esprit que l’échelle est de 1 pour 10. Les exemples de projets industriels européens ont démontré la complexité de tels montages et la difficulté de les généraliser. Ce qui ne veut pas dire ni que la Silicon Valley soit le meilleur des modèles, ni que la France n’a pas d’atouts. Le Minitel fut une réussite technologique. Néanmoins, il illustre ce en quoi des administrateurs et une partie des ingénieurs ont opéré collectivement un pari industriel, celui du Minitel, contre Internet. Ce fut un choix politique. Certaines réussites entrepreneuriales sont à mettre à l’actif de ce choix. Mais cette planification à la française ne peut produire les mêmes résultats que le modèle de la Silicon Valley qui repose sur le capital-risque. Les succès du modèle français peuvent se chercher ailleurs, notamment au niveau de l’éducation dans la formation des ingénieurs et des scientifiques, particulièrement recherchés et valorisés dans la Silicon Valley, au sein de grandes entreprises privées. Il y a là d’ailleurs un impensé de la régulation européenne. Dans le sport, quand un joueur signe un contrat professionnel, y compris dans un autre pays, des mécanismes indemnitaires permettent de financer les clubs formateurs, organisés en fédération. Ne serait-il pas justifié que des dispositifs du même type soit mis en place quand les big Tech recrutent des personnes formées dans des établissements publics français, européens, indiens, etc. ? C’est vrai pour les concepteurs, mais c’est également vrai pour les petites mains de l’IA. Le pendant d’une telle mesure pourrait donc être la mise en place de normes juridiques, sociales et environnementales à l’échelle internationale. L’idée que je défends ici est que les IA posent des questions historiques, sociales et politiques. Il faut donc dépasser l’effet de sidération du moment pour mieux interroger collectivement ces questions.



Olivier Alexandre, docteur en sociologie, est chargé de recherche au CNRS / Centre Internet et Société depuis 2017. Ses travaux portent sur la culture et l’industrie du numérique.