Retour Une nouvelle étude appelle à des informations claires, accessibles et significatives sur le déploiement et l'utilisation des systèmes d'IA par les administrations publiques

Une nouvelle étude appelle à des informations claires, accessibles et significatives sur le déploiement et l'utilisation des systèmes d'IA par les administrations publiques

Une nouvelle étude appelle à des informations claires, accessibles et significatives sur le déploiement et l'utilisation des systèmes d'IA par les administrations publiques

Une nouvelle étude évalue les cadres actuels – qu’ils soient juridiques, procéduraux et de gouvernance – en matière de lutte contre la discrimination, d'égalité et d'IA. Elle a été menée dans le cadre du projet conjoint de l'Union européenne et du Conseil de l'Europe «Défense de l'égalité et de la non-discrimination par les organismes de promotion de l'égalité concernant l'utilisation de l'intelligence artificielle (IA) dans les administrations publiques» et en coopération avec le Centre interfédéral pour l'égalité des chances (Belgique), le Médiateur de la non-discrimination (Finlande) et la Commission pour la citoyenneté et l'égalité de genre (Portugal). L'étude explore également le déploiement et l'utilisation de l'IA et des systèmes de prise de décision automatisée (PDA) par les administrations publiques et d'autres secteurs d'intérêt au niveau européen, et en particulier en Belgique, en Finlande et au Portugal, pays bénéficiaires du projet, qui est mené dans le cadre de l'instrument d’appui technique (TSI) de la Commission européenne.

« Actuellement, le manque généralisé d'informations claires, accessibles et significatives sur le déploiement des systèmes d'IA et de PDA par les administrations publiques en Europe entrave largement la réparation efficace des effets discriminatoires potentiels. Les nouvelles obligations en matière d'information et de documentation prévues par la législation européenne sur l'IA et la Convention-cadre du Conseil de l'Europe sur l'IA devraient permettre de combler certaines de ces lacunes », souligne Raphaële Xenidis, professeure assistante en droit européen à Sciences Po, Paris, et chercheuse principale de l'étude, qui relève l'un des défis mis en évidence par l'étude.

L'étude recommande de créer des obligations légales de déclaration et d'enregistrement pour les systèmes d'IA et de PDA utilisés par les administrations publiques et d'établir une présomption de discrimination algorithmique en considérant que l'incapacité à prévenir la discrimination algorithmique par des mesures adéquates dans le développement, le déploiement et l'évaluation des systèmes d'IA devrait entraîner un transfert de la charge de la preuve sur les défendeurs, car les victimes potentielles ont des difficultés à contester la discrimination algorithmique devant les tribunaux.

En vertu du nouveau règlement européen sur l'IA et de la Convention-cadre du Conseil de l'Europe sur l'IA, les autorités chargées de protéger les droits fondamentaux, telles que les organismes de promotion de l'égalité, peuvent jouer un rôle clé dans l'application du droit à l'égalité de traitement et dans la facilitation de l'accès à la justice pour les victimes de discrimination algorithmique.

Pour en savoir plus sur les principales conclusions de l'étude, consultez le résumé disponible ici 


Le projet est cofinancé par l'Union européenne via l'Instrument d'appui technique et mis en œuvre par le Conseil de l'Europe, en coopération avec la Commission européenne.

STRASBOURG, FRANCE 24 MARCH 2025
  • Diminuer la taille du texte
  • Augmenter la taille du texte
  • Imprimer la page