La Convention-cadre sur l’intelligence artificielle
La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit est le premier instrument international juridiquement contraignant dans ce domaine. Ouverte à la signature le 5 septembre 2024, elle vise à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l’État de droit, tout en étant propice au progrès et aux innovations technologiques.
Convention-cadre et son Rapport explicatif
La Convention-cadre complémente les normes internationales existantes relatives aux droits humains, à la démocratie et à l’État de droit, et a pour but de palier à tout vide juridique qui pourrait résulter des avancées technologiques rapides. Afin de résister au temps, la Convention-cadre ne régule pas la technologie et est essentiellement neutre sur le plan technologique.
Signataires
- Andorre
- Géorgie
- Islande
- Monténégro
- Norvège
- République de Moldavie
- Royaume-Uni
- Saint-Marin
- États-Unis d'Amérique
- Israël
- Union européenne
Comment la Convention-cadre a-t-elle été élaborée ?
Les premiers travaux ont débuté en 2019, lorsque le Comité ad hoc sur l’intelligence artificielle (CAHAI) a été chargé d’examiner la faisabilité d’un tel instrument. Son mandat rempli, le Comité sur l’intelligence artificielle (CAI) lui a succédé en 2022 et s’est chargé de la rédaction et de la négociation.
La Convention-cadre a été élaborée par les 46 États membres du Conseil de l’Europe, avec la participation aux négociations de tous les États observateurs : le Canada, le Japon, le Mexique, le Saint Siège et les États-Unis d’Amérique, ainsi que l’Union européenne, et un nombre important d’États non-membres : l’Australie, l’Argentine, le Costa Rica, Israël, le Pérou et l’Uruguay.
Fidèle à la pratique du Conseil de l’Europe en matière d’engagement multipartite, 68 représentants internationaux de la société civile, du monde universitaire et de l’industrie, ainsi que plusieurs autres organisations internationales ont également activement participé à l’élaboration de la Convention-cadre.
Principes fondamentaux
Les activités menées dans le cadre du cycle de vie des systèmes d’IA doivent se conformer aux principes fondamentaux suivants :
- dignité humaine et autonomie personnelle
- égalité et non-discrimination
- respect de la vie privée et protection des données à caractère personnel
- transparence et contrôle
- obligation de rendre des comptes et responsabilité
- fiabilité
- innovation sûre
Recours, droits procéduraux et garanties
- Documenter les informations pertinentes concernant les systèmes d’IA et leur utilisation, et les mettre à la disposition des personnes concernées ;
- Les informations doivent être suffisantes pour permettre aux personnes concernées de contester la ou les décisions prises par le biais de l’utilisation du système ou fondées en grande partie sur celui-ci, et de contester l’utilisation du système lui-même ;
- Possibilité effective de former un recours auprès des autorités compétentes ;
- Mise à disposition des personnes affectées de garanties, de protections et de droits procéduraux effectifs lorsqu’un système d’intelligence artificielle a un impact significatif sur la jouissance des droits humains et des libertés fondamentales ;
- Notification aux personnes concernées du fait qu’elles interagissent avec des systèmes d’intelligence artificielle et non avec un humain.
Exigences en matière de gestion des risques et des impacts
- Conduite d’évaluations des risques et des impacts, qu’ils soient réels ou potentiels sur les droits humains, la démocratie et l’État de droit, menées de manière itérative ;
- Mise en place des mesures de prévention et d’atténuation suffisantes résultant de la mise en oeuvre de ces évaluations ;
- Possibilité pour les autorités d’instaurer un moratoire ou une interdiction pour certaines utilisations de systèmes d’IA (« lignes rouges »).
À qui s’applique la Convention-cadre ?
La Convention-cadre couvre l’utilisation des systèmes d’IA par les pouvoirs publics – y compris les acteurs privés qui agissent pour leur compte – et les acteurs privés.
La Convention-cadre offre aux Parties deux modalités pour se conformer à ses principes et obligations pour la régulation du secteur privé : elles peuvent choisir d’être directement obligées par les dispositions pertinentes de la Convention-cadre, ou de prendre d’autres mesures pour se conformer aux dispositions du traité tout en respectant pleinement leurs obligations internationales en matière de droits de l’homme, de démocratie et d’État de droit.
Les Parties à la Convention-cadre ne sont pas tenues d’appliquer les dispositions du traité aux activités liées à la protection de leurs intérêts de sécurité nationale, mais doivent veiller à ce que ces activités respectent le droit international et les institutions et processus démocratiques. La Convention-cadre ne s’applique pas aux questions de défense nationale ni aux activités de recherche et de développement, sauf lorsque les essais de systèmes d’intelligence artificielle risquent de porter atteinte aux droits de l’homme, à la démocratie ou à l’État de droit.
Comment la mise en oeuvre de la Convention-cadre est-elle évaluée ?
La Convention-cadre instaure un mécanisme de suivi, la Conférence des Parties, composé de représentants officiels des Parties à la Convention et destiné à déterminer dans quelle mesure ses dispositions sont appliquées. Leurs analyses et suggestions aident à assurer le respect de la Convention-cadre par les États afin de garantir son efficacité à long terme. La Conférence des Parties facilite également la coopération avec les parties prenantes pertinentes, notamment par le biais d’auditions publiques sur les aspects pertinents de la mise en oeuvre de la Convention-cadre.
Télécharger la brochure en FR / EN / ES / AR