« Intelligence artificielle et intégrité électorale »

I. Introduction

Avec un thème à la croisée des chemins entre l’informatique et une meilleure gouvernance électorale, la 19e conférence européenne des administrations électorales (la 19e conférence des EMB) se veut tournée vers l’avenir. Au cours des 15 dernières années, les acteurs électoraux, principalement les partis politiques et les candidats, ont utilisé les technologies numériques et le big data principalement pour mieux façonner les campagnes électorales en analysant les sentiments et les opinions de l’électorat. L’avènement des systèmes d’intelligence artificielle (les systèmes d’IA) et leur intégration dans la machinerie électorale transforment encore davantage notre approche des processus électoraux. Si les machines peuvent aider les êtres humains, on ne peut que s’en réjouir... tant que nos démocraties n’en pâtissent pas.

En raison de la nature innovante du sujet, la 19e conférence des EMB ne fournira pas nécessairement de réponses claires quant à l’éventualité d’un tel impact. L’évolution exponentielle des systèmes d’IA et leur impact déjà partiellement mesurable sur le fonctionnement de nos institutions démocratiques exigent que cette édition des Conférences européennes des administration électorales aborde le sujet sous l’angle des processus électoraux et du travail des administrations électorales.

Avant toute analyse et développement des questions concernant l’impact de l’utilisation des systèmes d’intelligence artificielle sur les processus électoraux, il semble important de proposer des définitions des concepts soumis au débat.

Les systèmes d’intelligence artificielle (les systèmes d’IA) ont été définis conjointement par le Conseil de l’Europe et l’Institut Alan Turing dans une publication commune titrée Intelligence artificielle, droits de l’homme, démocratie et État de droit - Guide introductif (2021) comme « des modèles algorithmiques qui accomplissent dans le monde des fonctions cognitives et perceptives autrefois réservées aux êtres humains, lesquels ont la faculté de penser, juger et raisonner. »

L’intégrité électorale peut se définir comme l’ensemble des normes, principes et valeurs inhérents à des élections démocratiques et qui s’appliquent à l’ensemble d’un processus électoral. Il s’agit en particulier du comportement éthique de l’ensemble des acteurs électoraux ainsi que du respect des principes d’équité, de transparence et de redevabilité durant tout le processus électoral. Ces éléments cumulés permettent ainsi de consolider la crédibilité d’un scrutin et la confiance des citoyens vis-à-vis de ce scrutin, autant d’éléments visant à consolider nos sociétés démocratiques, voire à être des accélérateurs de réformes démocratiques.

En liant ces deux concepts, la 19e conférence européenne des administrations électorales vise à évaluer l’impact de l’utilisation des systèmes d’intelligence artificielle dans l’organisation et le déroulement des processus électoraux ainsi que sur le travail des administrations électorales et les enseignements à en tirer.

En effet, comme le souligne Sarah M. L. Bender, professeure à la Faculté de droit de l’Université du Michigan, dans un article nommé Élections algorithmiques – Michigan Law Review –, « les universitaires ont tiré la sonnette d’alarme sur une variété de "préjudices algorithmiques" résultant de l’utilisation de l’IA dans le système de justice pénale, l’emploi, les soins de santé et d’autres domaines des droits civils. Beaucoup de ces mêmes préjudices algorithmiques se manifestent dans les élections et le vote, mais ils ont été sous-explorés et restent sans réponse. »

La conférence rappellera tout d’abord l’acquis du Conseil de l’Europe dans le domaine de l’IA à travers ses conventions, recommandations et expertises ainsi que les principes fondamentaux en jeu (session introductive de la conférence). Les participants seront ensuite invités à discuter des questions transversales en jeu dans l’utilisation des systèmes d’IA dans les processus électoraux d’un point de vue pratique ainsi qu’en relation avec le travail des administrations électorales : l’IA et l’équité des processus électoraux (première session) ; l’impact de l’IA sur la participation et le choix des électeurs au regard de la protection des données (deuxième session) ; l’IA au regard de la supervision et la transparence des processus électoraux (troisième session) ; et l’IA et les contenus préjudiciables (quatrième session). Enfin, les participants seront invités à adopter les conclusions de la conférence lors de la session de clôture.

II. L’acquis du Conseil de l’Europe et les principes en jeu

Le Conseil de l’Europe, à la fois par ses instruments internationaux, ses recommandations et par les travaux de ses comités d’experts, travaille au long cours sur l’impact de l’intelligence artificielle sur nos sociétés démocratiques et rappelle l’importance du respect des principes en jeu. La session introductive de la conférence présentera cet acquis essentiel et en développement.

Parmi les conventions et recommandations pertinentes touchant de plus ou moins près à la question de l’impact des systèmes d’IA sur nos sociétés démocratiques, on peut citer de manière non exhaustive les sources suivantes :

  • la Convention européenne des droits de l’homme et l’article 3 de son premier Protocole,
  • la Convention sur la cybercriminalité (STE n° 185) ("Convention de Budapest"),
  • la Convention pour la protection des personnes à l’égard du traitement des données à caractère personnel (Convention 108+),
  • la Recommandation Rec(2004)15 du Comité des Ministres aux Etats membres sur la gouvernance électronique ("e-gouvernance"),
  • la Recommandation CM/Rec(2009)1 du Comité des Ministres aux Etats membres sur la démocratie électronique,
  • la Recommandation CM/Rec(2017)5 du Comité des Ministres aux Etats membres sur les normes relatives au vote électronique,
  • la Recommandation CM/Rec(2020)1 du Comité des Ministres aux Etats membres sur les impacts des systèmes algorithmiques sur les droits de l’homme,
  • la Recommandation CM/Rec(2022)12 du Comité des Ministres aux États membres sur la communication électorale et la couverture médiatique des campagnes électorales.

Par ailleurs, grâce aux travaux du Comité européen sur la démocratie et la gouvernance (CDDG), le Comité des Ministres du Conseil de l’Europe a adopté le 9 février 2022 les Lignes directrices du Comité des Ministres sur l’utilisation des technologies de l’information et de la communication (TIC) dans les processus électoraux des États membres du Conseil de l’Europe.

Les Lignes directrices « visent à contribuer à garantir l’intégrité du processus électoral et donc à renforcer la confiance des citoyens dans la démocratie. Les lignes directrices identifient les exigences et les garanties à introduire dans la législation des États membres du Conseil de l’Europe afin d’aborder l’utilisation des TIC dans les différentes étapes du processus électoral. » Elles couvrent l’utilisation des solutions TIC par les autorités électorales ou en leur nom, à toutes les étapes du processus électoral, à l’exception du vote électronique et du comptage électronique qui sont couverts par la Recommandation précitée CM/Rec(2017)5 sur les normes relatives au vote électronique et n’entrent donc pas dans le champ de ces Lignes directrices. Toutefois, les formes hybrides de comptage, qui font appel à certaines TIC mais ne relèvent pas de la définition du vote électronique selon la recommandation précitée, sont couvertes par les Lignes directrices.

Les Lignes directrices soulignent que « l’utilisation des TIC, comme l’utilisation de toute autre technologie dans les processus électoraux, devrait respecter les principes des élections et référendums démocratiques, et tous les autres principes pertinents, et doit être mise en balance avec d’autres considérations essentielles telles que la sécurité et l’accessibilité pour les utilisateurs ». Elles soulignent également que « les élections et référendums démocratiques devraient être organisés conformément à certains principes qui leur confèrent leur statut démocratique. »

On peut également citer parmi les travaux pertinents du Conseil de l’Europe l’adoption en 2021 de deux documents qui sont le fruit des travaux de l’ex-Commission ad hoc du Conseil de l’Europe sur l’intelligence artificielle (CAHAI). Il s’agit d’une part de la publication appelée Un cadre juridique pour les systèmes d’IA (2021 ; en anglais seulement) ; et d’autre part du document appelé Éléments potentiels d’un cadre juridique sur l’intelligence artificielle, fondés sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit.

Enfin, les travaux en cours du Conseil de l’Europe sur l’intelligence artificielle comprennent la mise en place depuis le 1er janvier 2022 du Comité sur l’intelligence artificielle (le CAI), en remplacement de l’ancien Comité ad hoc du Conseil de l’Europe sur l’intelligence artificielle (CAHAI). Le CAI a pour objectif d’adopter, d’ici au 31 décembre 2024, un instrument juridique approprié sur le développement, la conception et l’application des systèmes d’intelligence artificielle, fondé sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit, et propice à l’innovation, conformément aux décisions pertinentes du Comité des Ministres (voir également cette publication).

En ce qui concerne les principes en jeu, la conférence discutera lors de la session introductive des risques et des opportunités que les systèmes d’IA peuvent engendrer dans le contexte des processus électoraux et de leur impact sur le travail des administrations électorales. L’objectif sera de déterminer comment l’IA, aux différentes étapes cruciales d’un processus électoral, peut améliorer l’organisation et la conduite d’une élection de manière éthique, en respectant les libertés fondamentales, telles que la liberté d’expression, les principes du patrimoine électoral européen, tels que le suffrage universel, égal, libre et/ou secret, ainsi que les garanties procédurales pour la mise en œuvre de ces principes, tels que développés par le Code de bonne conduite en matière électorale de la Commission de Venise du Conseil de l’Europe.

Il sera pertinent de discuter des tensions réelles ou perçues entre les libertés fondamentales et les principes électoraux susmentionnés lors de l’utilisation de systèmes d’IA dans les processus électoraux, car les principes et les libertés ne peuvent pas être mis en œuvre au même degré. Il est en outre nécessaire d’évaluer comment les principes du suffrage secret et de la protection des données personnelles, notamment au regard de la Convention 108+ susmentionnée, peuvent être pris en compte au regard du principe de transparence des élections.

III. L’IA et l’équité dans les processus électoraux

Questions

▷ Comment combiner l’IA avec des campagnes électorales justes et équilibrées ?

▷ Comment l’IA peut-elle affecter l’égalité des genres ?

Contexte

L’utilisation de systèmes d’IA pendant les campagnes électorales par divers acteurs électoraux, principalement les partis politiques et les candidats, peut présenter des risques pour l’équité de la campagne et, en fin de compte, pour un choix libre et éclairé de l’électeur.

Du point de vue des partis politiques et des candidats, il y a certainement plus de possibilités pour eux d’optimiser une campagne électorale grâce à l’IA : par exemple, la société Advanced Symbolics utilise une intelligence artificielle appelée Polly « pour identifier les tendances, tester des scénarios, prévoir les changements et suivre les succès qui sont essentiels » au succès des entreprises. Toutefois, le revers de la médaille pourrait être le risque d’une mauvaise utilisation des outils d’IA dans le but de manipuler les idées et les messages, de créer une exposition sélective des électeurs à des informations à caractère politique et, par conséquent, de déformer l’information et la réalité. Il sera également essentiel de débattre de la manière dont les systèmes d’IA influent sur la représentation des sexes dans les partis et, in fine, sur la répartition des sièges.

En outre, il pourrait être intéressant d’analyser comment les campagnes électorales pourraient utiliser l’IA pour tester des messages, des publicités, des campagnes sur les médias sociaux et des émissions de radio afin de voir ce qui résonnera auprès des personnes qu’elles essaient de motiver à soutenir leurs campagnes. Pour aller plus loin, la société Expert.ai utilise une technique d’IA appelée « analyse des sentiments » qui vise à comprendre les émotions exprimées dans les messages des médias sociaux. Il est concevable que cette IA puisse être exploitée par les partis et les candidats pendant les campagnes électorales pour déterminer où concentrer leurs ressources financières et humaines et sur quels sujets mettre l’accent dans une campagne afin d’augmenter leurs chances de succès avec, là encore, le risque potentiel que les partis et les candidats utilisent à mauvais escient ces données au détriment de l’électorat, avec pour conséquence de déformer l’information et la réalité d’une situation politique.

Les participants seront également invités à discuter de la tenue déjà initiée de campagnes électorales dans le métavers (Le métavers peut être défini comme un environnement 3D persistant et immersif ; collectif et partagé ; créé grâce à une réalité numérique et physique améliorée ; accessible via n’importe quel appareil connecté (smartphones, PC, casques en réalité virtuelle, tablettes) ; et alimenté le cas échéant par une monnaie reposant sur la blockchain.) (voir par exemple un article sur le métavers utilisé lors de l’élection présidentielle sud-coréenne de mars 2022) et de l’impact que ces campagnes peuvent avoir sur le travail des administrations électorales, des organismes chargés de superviser l’équilibre des campagnes, des observateurs électoraux et des autres acteurs des élections.

IV. L’impact de l’IA sur la participation et le choix des électeurs et au regard de la protection des données

Question

Comment l’IA peut-elle permettre un choix plus éclairé des électeurs et un taux de participation plus élevé ?

Contexte

Du point de vue des administrations électorales, au-delà de l’aspect quantitatif du taux de participation, la conférence abordera les moyens que l’IA offre aux administrations électorales et aux pouvoirs publics en général pour inviter les citoyens à une approche plus critique et holistique de l’offre électorale qui leur est proposée et pour qu’ils puissent, par eux-mêmes et consciemment, microcibler leurs intérêts par thèmes, par parti, etc.

Du point de vue des électeurs, la fracture numérique est un risque persistant qui pourrait même être amplifié par les systèmes d’IA si les interfaces sont trop complexes ou perçues comme telles selon la génération ou le niveau d’éducation de l’électorat concerné. Une telle fracture pourrait éloigner davantage une partie de l’électorat de l’offre politique et, in fine, de la participation aux élections. Les fournisseurs de systèmes d’IA doivent donc proposer aux administrations électorales et aux électeurs des systèmes ou des applications intuitifs et faciles à utiliser.

Les électeurs utilisent les systèmes d’IA, notamment par le biais d’applications mobiles, dans le but de faire un choix plus éclairé sur l’offre politique à chaque élection. Lorsque l’électeur indique les types de politiques publiques susceptibles de l’affecter, l’outil d’IA peut l’alerter de toute évolution de ces types de politiques afin de le tenir informé des initiatives de vote et des candidats qui pourraient entraîner des changements dans sa vie quotidienne et son avenir (voir par exemple l’application iSideWith). De même, les partis et les candidats utilisent également des systèmes d’IA pour examiner attentivement ce que les citoyens ont à dire (voir par exemple l’article The good, the bad and the ugly uses of machine learning in election campaigns).

Toutefoiscomme le souligne Jessica Heesen dans un article intitulé L’IA et les élections - Observations, analyses et perspectives, « les applications actuelles de conseils de vote ne contiennent pratiquement aucun processus d’apprentissage automatique » qui permettraient aux utilisateurs d’être « "guidés" à travers le programme par un chatbot qui expliquerait les différentes déclarations à l’aide d’exemples ou répondrait aux questions des utilisateurs. »

Les participants seront invités à discuter de l’influence des systèmes d’IA sur le choix effectué par les électeurs dans l’isoloir. Si d’un côté, ces systèmes peuvent avoir une dimension très positive, d’un autre côté, ils peuvent représenter un danger potentiel de rétrécissement de l’offre politique pour les électeurs en conduisant à une exposition sélective sans qu’ils puissent contrôler ce ciblage et ainsi altérer l’expression des opinions des électeurs le jour du scrutin.

Questions

Comment assurer la protection des données des électeurs ?

▷ Comment combiner microciblage et protection des données ?

Contexte

En 2018, le scandale Cambridge Analytica a secoué le monde entier lorsque le public a découvert que les données d’environ 87 millions de profils Facebook avaient été collectées sans le consentement des utilisateurs et utilisées à des fins de ciblage publicitaire dans le cadre des campagnes présidentielles américaines de Ted Cruz et Donald Trump, du référendum sur le Brexit et des élections dans plus de 200 pays. Ce scandale a permis de sensibiliser l’opinion publique à une tendance qui se développe depuis longtemps – la collecte et l’utilisation incontrôlées de données personnelles – et qui porte atteinte à la vie privée des citoyens et sape la démocratie en permettant une désinformation de plus en plus sophistiquée.

L’influence des systèmes d’IA s’exerce notamment par des publicités micro-ciblées sur les réseaux sociaux, ciblant les électeurs en fonction de leur profil social, politique et psychologique, et s’appuyant sur le big data et l’apprentissage automatique pour influencer les émotions des citoyens et, in fine, leur choix dans l’isoloir. Si cette pratique peut sembler conforme aux principes existants tels que la liberté d’expression, le microciblage soulève la question de la responsabilité des partis et des candidats qui y ont recours, notamment vis-à-vis des organes chargés de superviser la campagne électorale, qu’il s’agisse des administrations électorales ou d’autres organes compétents. Le microciblage de la publicité politique sponsorisée en ligne ou de la propagande électorale automatisée risque de conduire à une offre politique restreinte sur les réseaux sociaux et à un comportement potentiellement faussé de l’électorat et donc du résultat supposé d’une élection.

Le scandale de Cambridge Analytica, d’autres situations similaires survenues, ainsi que le développement exponentiel du microciblage, ont sérieusement mis en cause la protection des données personnelles des citoyens. Cela aurait dû nécessiter une réaction et des mesures juridiques fortes de la part des États. Comme mentionné précédemment, l’instrument de référence pertinent à cet égard est la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement des données à caractère personnel (Convention 108+). Les participants seront donc invités à discuter des solutions possibles pour assurer la protection des données des électeurs dans un contexte d’élections affectées par l’IA.

V. A versus supervision et transparence des processus électoraux

Question

Comment assurer la surveillance des outils d’IA dans les processus électoraux ?

Contexte

Si l’IA donne beaucoup d’espoir pour améliorer nos sociétés démocratiques, elle suscite également des craintes de perte de contrôle, de surveillance, de dépendance et de discrimination du point de vue des électeurs et plus largement des citoyens. La transparence doit donc être assurée dans le déploiement des systèmes d’IA. La question sera de savoir dans quelle mesure ces systèmes peuvent être déployés à différentes étapes d’un processus électoral sans intervention humaine et/ou contrôle par des organes compétents. Compte tenu des problèmes de transparence inhérents aux systèmes d’IA, le contrôle humain et démocratique est en effet de la plus haute importance en ce qui concerne les processus électoraux et la prise de décision y afférente, afin de garantir l’intégrité des systèmes d’IA et, en définitive, des processus électoraux eux-mêmes. Les participants débattront de l’utilisation de l’IA au regard des exigences de transparence des citoyens.

Du point de vue des observateurs électoraux, l’IA pose aussi sans doute le défi d’assurer la continuité de l’exercice d’observation des élections en partie de manière dématérialisée, y compris dans le métavers si des campagnes se développent dans cet univers.

Le secteur privé et les géants du numérique – expression désignant le groupe comprenant les quatre entreprises du web Google, Apple, Facebook et Amazon ; incluant également d’autres acteurs majeurs de l’économie numérique tels que Microsoft, Yahoo, Twitter et LinkedIn – sont des acteurs majeurs des processus électoraux et ont également une responsabilité majeure dans la supervision du bon déroulement des élections par leur prisme, c’est-à-dire les phases d’un processus électoral qui se déroulent via leurs plateformes et applications. Les participants aborderont la question de la responsabilité des géants du numérique vis-à-vis des autres acteurs électoraux et, en particulier, des administrations électorales.

Question

L’IA peut-elle prédire de manière fiable les résultats des élections ?

Contexte

Dans certains cas, l’IA s’est avérée capable de prédire les résultats des élections avec plus de précision que les méthodes de prédiction mathématiques (voir un article sur les dernières élections présidentielles américaines par exemple). A titre d’exemple, la société KCore Analytics utilise l’IA pour prédire les élections : elle a développé un modèle d’intelligence artificielle et a collecté un nombre considérable d’opinions de personnes à partir des médias sociaux, en particulier de Twitter, soit près d’un milliard de tweets. Selon les dires de l’entreprise, ses systèmes analysent « les médias sociaux en temps réel pour donner une méthode plus rapide et remarquablement précise de prédiction des tendances électorales ».  La question est de savoir si ces systèmes peuvent être utilisés pour prédire la participation des électeurs, voire les résultats des élections. L’utilisation de cette technologie par les administrations électorales pourrait, par exemple, prédire le nombre de personnes qui voteront par courrier ou en personne, et ainsi accroître l’efficacité et la préparation du scrutin. Elle pourrait également réduire les temps d’attente et garantir le bon déroulement des élections et la présentation des résultats le plus rapidement possible. Compte tenu des risques susmentionnés concernant la liberté de choix des électeurs dans toute élection, les participants discuteront des avantages et des inconvénients de l’utilisation de systèmes d’IA pour la prédiction des résultats des élections.

VI. L’IA et les contenus préjudiciables

Question

Comment les outils d’IA peuvent-ils contribuer à améliorer la bonne gouvernance des élections en permettant la détection des discours haineux, de la désinformation et des "fake news" au cours des processus électoraux  ?

Contexte

Comme le soulignent les conclusions de la 15e conférence européenne des administrations électorales qui s’est tenue à Oslo les 19 et 20 avril 2018, « la désinformation et les « fausses nouvelles » pendant les campagnes électorales représentent un défi majeur pour les élections démocratiques et compromettent l’égalité des chances entre les candidats. » Des systèmes fondés sur l’IA ont été utilisés pour créer et faciliter la diffusion massive de désinformation et de fausses informations ("fake news" ; aussi parfois appelées infox), principalement sur les plateformes de médias sociaux via des bots sociaux adaptatifs politiques – à savoir des programmes informatiques automatisés conçus pour simuler le comportement d’un être humain ou pour effectuer des tâches répétitives – et des deepfakes – un enregistrement vidéo ou sonore qui remplace le visage ou la voix d’une personne par celui d’une autre, d’une manière qui semble réelle (définition du dictionnaire de Cambridge). Ces actions ne sont pas nécessairement le fait des partis et des candidats en lice. Si ces phénomènes ne sont pas nouveaux, lorsqu’ils sont alimentés et amplifiés par l’IA, ils peuvent conduire à un désordre informationnel néfaste pour le citoyen qui n’a plus la pleine capacité de se forger une opinion libre et éclairée, entraînant un déséquilibre dans la campagne et influençant in fine la décision électorale.

D’autre part, ces mêmes systèmes ont également été utilisés pour détecter et modérer automatiquement les contenus nuisibles sur ces plateformes via des fact-checkers et des algorithmes de modération de contenu. Il existe de nombreux exemples de la façon dont l’IA peut améliorer les campagnes électorales de manière éthique. Les systèmes d’IA peuvent aider à détecter les fausses informations mais aussi à identifier l’offre d’informations biaisées, en utilisant des choix de mots et de sujets appropriés. Par exemple, Meta indique utiliser l’IA pour identifier les histoires potentiellement fausses : Tessa Lyons, chef de produit chez Meta, indique que « aux États-Unis, nous pouvons également utiliser l’apprentissage automatique en nous fondant sur les articles passés que les fact-checkers ont examinés. Et récemment, nous avons donné aux fact-checkers la possibilité d’identifier de manière proactive les histoires à noter. » Avec de tels outils, l’IA peut fournir des informations alternatives à celles qui ont été initialement détectées comme fausses ou déformées. Des campagnes de microciblage peuvent également être déployées pour aider à éduquer les électeurs sur une variété de questions politiques et leur permettre de se faire leur propre opinion. Sur le sujet de l’IA dans les élections et les questions ci-dessus, on peut se référer au livre blanc publié par la plateforme allemande pour l’intelligence artificielle Lernende Systeme.

À cet égard, le travail du Parlement européen mérite d’être mentionné. Dans un document intitulé Techniques de propagande informatique (en anglais seulement), l’institution indique que « les techniques utilisées par les acteurs étatiques et non étatiques antidémocratiques pour perturber ou influencer les processus démocratiques sont en constante évolution. Le recours aux algorithmes, à l’automatisation et à l’intelligence artificielle renforce la portée et l’efficacité des campagnes de désinformation et des cyberactivités connexes. » Des chercheurs des universités d’Oxford et de Yale estiment à 50 % la probabilité que l’IA surpasse les humains dans toutes les tâches dans moins d’un demi-siècle. Il est donc crucial que les systèmes d’IA soient réglementés par la loi, par l’élaboration de normes et de standards ainsi que de codes d’éthique dans le cadre des processus électoraux. Il est également crucial que les fournisseurs de plateformes, de services et de systèmes d’IA assurent une plus grande transparence de leurs systèmes, y compris par une autorégulation réglementée. Les travaux en cours au niveau du Conseil de l’Europe et de l’Union européenne (ici) sont des exemples encourageants.

Les participants seront invités à discuter du double rôle de l’intelligence artificielle dans la création et la facilitation ainsi que dans la détection et la modération de contenus préjudiciables pendant les processus électoraux. Les participants seront également invités à discuter des contributions ultérieures des systèmes d’IA dans les processus électoraux, notamment par le biais d’outils de modération des contenus électoraux sur les réseaux sociaux, via les géants du numérique eux-mêmes mais aussi via les autorités de régulation compétentes, avec pour objectif ultime d’éradiquer les discours haineux, les deepfakes et les diverses manipulations présentes sur les plateformes et, in fine, de limiter au maximum la distorsion de l’offre électorale.