« L’IA est le produit des transformations politiques de notre temps »

Entretien avec Maïlys Mangin, maîtresse de conférences en science politique au CIENS

Créé le
6 février 2025
DOSSIER INTELLIGENCE ARTIFICIELLE - À l’occasion du Sommet pour l'Action sur l'intelligence artificielle (IA) qui se tiendra en France les 10 et 11 février 2025 - et dont l’ENS accueillera le mardi 11 les « side events » dédiés à l’IA et la société - l’établissement donne la parole à ses expertes et experts en IA. Maïlys Mangin est maîtresse de conférences à l’université de Toulouse. Après avoir été post-doc au CIENS, elle est désormais chercheuse associée au CIENS. Au second trimestre 2025, elle y donne un cours sur l’état de guerre numérique : sociologie des enjeux stratégiques de la numérisation du débat public. Entretien.
Maïlys Mangin
Maïlys Mangin

De quelle manière l’IA est en train de modifier les pratiques journalistiques et l’accès à l’information ? 
Maïlys Mangin : L’IA est un outil puissant à la disposition des journalistes, mais ne saurait s’y substituer. Son utilisation soulève des questions éthiques et économiques lourdes.  
D’un côté, l’IA a inauguré un nouvel âge du journalisme, en débloquant de nouvelles capacités. L’enquête « Couloir furtif » (2023), publiée par le quotidien espagnol El País et le média vénézuélien Armando.info, a par exemple révélé un vaste réseau d’exploitation de mines illégales au Venezuela. Grâce à l’IA, croisée avec un travail de terrain, ce projet a permis de cartographier 3 718 sites d’exploitation minière illicite sur une zone deux fois plus grande que l’Allemagne, et de raconter une histoire dont l’ampleur n’aurait jamais pu être révélée sans cette association entre journalisme et technologie.  
D’un autre côté, l’IA vient questionner voire menacer la place des médias traditionnels dans l’accès à l’information, à l’ère des plateformes numériques. Le modèle de conversations avec des IA ne donne pas toujours les liens vers leurs sources, tout en s’appuyant sur le travail de vrais journalistes pour nous répondre. Le problème économique soulevé (qui rémunère le travail des journalistes pour l’utilisation qui en est faite ?) est majeur dans un contexte de fragilisation des médias traditionnels : alors que leurs coûts de production augmentent, mais que leurs recettes (abonnements et publicités) baissent inexorablement, l’IA pourrait être un danger existentiel. C’est ce qui a poussé Le Monde à conclure un partenariat avec Open AI en mars 2024, pour faire valoir un « droit à la source » et « ne pas être pillés » - au risque de fragiliser d’autres médias français, qui auraient préféré un accord collectif avec Open AI.

Quel impact a l’IA dans la guerre informationnelle dans des conflits comme l’Ukraine ou Gaza ?
Maïlys Mangin : La guerre informationnelle est aussi vieille que la guerre, et elle a évolué avec elle. Aujourd’hui, les conflits se jouent dans les zones de crise, dans les capitales et les arènes internationales, mais aussi sur les réseaux sociaux, qu’il s’agisse d’influencer les opinions ou de peser sur le moral des combattants eux-mêmes.  
La guerre, comme rapport de force poussé à son plus haut degré, est très sensible à toutes les perturbations qui permettent de renverser le rapport de force. L’IA ne fait pas exception, en offrant la perspective de ruptures technologiques et stratégiques, dont certaines se présentent déjà. En avril 2024, des médias israéliens ont révélé l’existence du logiciel d’IA « Lavender », qui a servi à l’armée israélienne à changer d’échelle dans son travail de ciblage : loin du ciblage humain, qui les contraignait à se concentrer sur les haut-cadres du Hamas, « Lavender » leur aurait permis d’identifier « jusqu’à 37 000 cibles », avec l’acceptation d’une marge d’erreur qui a déclenché une vive polémique en Israël et au-delà. 
En mars 2022, un deepfake de Volodymyr Zelensky appelant son peuple à rendre les armes a été diffusé sur la chaîne « Ukraine 24 » dans le cadre d’un piratage de cette dernière. Les deepfakes ne sont qu’un exemple des manipulations permises par l’IA, qui exploitent les biais cognitifs humains en mêlant le vraisemblable et l’invraisemblable. Outre créer des contenus, l’IA permet de les diffuser de manière virale, avec la création de véritables armées de chatbots capables d’inonder certains réseaux sociaux de milliers de messages en quelques secondes. 
L’IA renouvelle donc la guerre informationnelle, mais est-ce qu’elle la révolutionne pour autant ? Comme on l’a dit, la propagande est aussi vieille que la guerre, et l’IA représente à ce stade (j’insiste sur « à ce stade ») un bouleversement dont les effets sont peut-être à relativiser, d’autant que d’autres techniques de désinformation (qui ne doivent rien à l’IA) ont des capacités de viralité plus importantes (par exemple les images du jeu vidéo Arma III utilisées par des acteurs du conflit - d’ailleurs des deux camps - pour illustrer leur version de la situation à Gaza). Enfin et surtout, il faut se garder d’une lecture trop « techniciste » de la guerre informationnelle, et réinscrire les usages de l’IA dans le contexte des rapports sociaux qui les mettent en œuvre.

Quels sont les outils que les services de l’État, les journalistes, ont à disposition pour lutter contre cette menace ? 
Maïlys Mangin  : De nombreuses initiatives existent aujourd’hui. La plus structurante du côté de l’État est certainement la création en 2021 de Viginum, service rattaché au Secrétariat général de la Défense et de la Sécurité nationale (SGDSN) chargé de la vigilance et de la protection contre les ingérences numériques étrangères. Alors que d’autres entités de l’État ont des actions discrètes voire secrètes, la spécificité de Viginum est d’exposer au grand jour les mécanismes de manipulation, comme ils l’ont fait au moment de l’affaire des étoiles de David et de la création de faux sites reprenant le graphisme de médias traditionnels (dans le cadre de l’opération Doppelgänger qui impliquait des groupes russes), ou en décembre 2024, lorsque Viginum a révélé une campagne de manipulation de l’information ciblant nos territoires d’outre-mer et la Corse émanant d’un groupe azerbaïdjanais.
Si information et désinformation sont en quelque sorte les deux faces d’une même pièce, la difficulté est qu’il existe une forme d’asymétrie, au sens où les partisans de l’information entendent agir dans un cadre éthique, qui est contraignant, tandis que les partisans de la désinformation, par définition, agissent dans une logique où la fin justifie tous les moyens. Dans l’action de Viginum, prouver le caractère manifestement trompeur de l’acte de désinformation, et le caractère inauthentique de sa diffusion (ce n’est pas une viralité normale entre comptes) est ainsi décisif. L’enjeu, in fine, c’est de respecter la liberté d’expression de nos concitoyens mais aussi de les sensibiliser et immuniser contre l’exposition à des contenus manipulés. 
Du côté des journalistes ou des chercheurs, l’IA est de plus en plus mobilisée également pour la détection automatisée de fausses informations et l’analyse des réseaux de désinformation. Dans le conflit russo-ukrainien, le média indépendant Bellingcat (2022) a mobilisé des algorithmes d’IA pour repérer les deepfakes dans des contenus vidéos censées prouver une victoire militaire ou une exaction. On observe ainsi une surenchère technologique, dont bénéficient en théorie les deux « camps » : à mesure que l’IA facilite la manipulation, elle permet de mieux la repérer.  
Mais là encore, il est nécessaire de rapprocher ce qui se passe en ligne avec des phénomènes sociaux et politiques « hors ligne ». Étudier la désinformation et les risques démocratiques qui lui sont associés, suppose aussi de faire une analyse plus globale des transformations économiques et politiques et des rapports de pouvoir qui traversent nos sociétés. D’autant que la caractérisation du phénomène de désinformation n’est qu’une étape : l’étude de ses effets sur l’espace social en est une autre, plus difficiles encore à documenter et analyser.

Quelle est l’évolution et quels sont les effets de l’IA dans le cadre des campagnes électorales ? 
Maïlys Mangin  : Les élections, moment-clé dans la vie d’une démocratie, concentrent les enjeux que l’on vient d’évoquer. Et c’est certainement un domaine où il n’est pour le coup pas exagéré de dire que l’IA constitue d’ores et déjà un changement majeur, dont tous les effets sont loin d’avoir été produits.  
En bref, depuis la première campagne présidentielle de Donald Trump (2016), l’IA a révolutionné les campagnes électorales en rendant les stratégies plus efficaces et plus précises (notamment pour analyser les comportements des électeurs à grande échelle, et pour les cibler ensuite avec des messages personnalisés), mais en introduisant aussi des risques majeurs pour l’intégrité démocratique. Ces risques peuvent être liés à des ingérences étrangères, comme le cas de l’annulation de l’élection présidentielle en Roumanie suite à une campagne illicite sur Tiktok vient de le rappeler. Mais ils sont aussi le fait des forces politiques elles-mêmes qui concourent dans ces élections, et qui mobilisent l’IA de différentes façons. 
L’IA, dans cette situation comme dans les autres que l’on a décrites, est un outil aux mains des acteurs - ici un outil au service des reconfigurations de notre époque. L’usage qui est fait de l’IA est le produit des transformations politiques de notre temps, et de ses maux : il se nourrit de la désaffection démocratique, de l’aggravation des inégalités socio-économiques, de la montée du populisme, de la défiance envers les médias, en même temps qu’il les attise.