Accueil>L’IA générative dans les municipales 2026 : des usages qui appellent un regard nuancé

6 mai 2026

L’IA générative dans les municipales 2026 : des usages qui appellent un regard nuancé

Pour la première fois en France, une élection locale a été marquée par un recours massif à l’intelligence artificielle générative. Dans cette note de recherche, Antoine Marie (CEVIPOF) propose une analyse empirique et nuancée des usages observés lors des municipales de mars 2026, entre innovations légitimes, dérives documentées et enjeux démocratiques.

Des usages multiples, entre innovation et détournements

La campagne municipale de 2026 a vu se développer de nombreux usages de l’IA générative : production d’affiches, chatbots programmatiques, génération de contenus ou encore podcasts automatisés. Ces outils ont principalement été mobilisés dans une logique d’efficacité et de réduction des coûts, contribuant à élargir l’accès aux ressources communicationnelles, notamment pour les petites listes .

En parallèle, plusieurs dérives ont été observées : deepfakes diffamatoires anonymes (Guéret), images synthétiques d'agression présentées comme « la réalité » et prenant potentiellement des libertés avec celle-ci (Knafo à Paris), fausses représentations de la saleté urbaine (Joron à Strasbourg). Et aussi, des faux sites et de l'astroturfing — souvent orchestrés depuis la Russie, qui ont ciblé des candidats comme Bournazel à Paris.

Recontextualiser les effets de l’IA : un apport de la recherche

Au-delà du constat, la note s’appuie sur les travaux en science politique et en psychologie pour relativiser certains discours alarmistes. Les effets persuasifs de la communication politique de masse apparaissent généralement limités, tandis que la diffusion de la désinformation dépend autant des usages et des publics que de la production de contenus.

Elle souligne également le rôle des biais cognitifs — notamment le biais de négativité et la surestimation de l’influence sur autrui — dans la perception accrue des risques associés à ces technologies .

Un potentiel aussi positif pour l’information politique

La note met en lumière un aspect encore peu présent dans le débat public : les modèles de langage peuvent contribuer à améliorer l’accès à l’information politique. Leurs capacités de synthèse permettent de structurer des contenus complexes et de présenter de manière relativement équilibrée des sujets controversés, favorisant l’établissement de bases factuelles communes .

Des risques réels pour le débat démocratique

Les enjeux les plus préoccupants identifiés concernent les ingérences étrangères et l’amplification artificielle de contenus via des réseaux de bots. La diffusion croissante de contenus synthétiques peut également fragiliser la notion de preuve (« dividende du menteur »), alimentant un climat de défiance susceptible de peser sur la participation citoyenne .

Quelles pistes d’action ?

Face à ces évolutions, la note formule plusieurs recommandations :

  • renforcer la transparence sur les usages de l’IA ;
  • soutenir le journalisme professionnel ;
  • développer l’éducation aux médias et à l’information ;
  • concentrer les efforts de régulation sur les ingérences étrangères et l’astroturfing.