Un nouvel outil du Conseil de l'Europe offre des éléments d'orientation et une approche structurée pour réaliser des évaluations des risques et de l'impact des systèmes d'intelligence artificielle (IA). La méthodologie HUDERIA est spécialement conçue pour protéger et promouvoir les droits humains, la démocratie et l'État de droit. Elle peut être utilisée par les acteurs publics et privés pour les aider à recenser et à traiter les risques et l'impact des systèmes d'intelligence artificielle tout au long de leur cycle de vie sur les droits humains, la démocratie et l'État de droit.
Cette méthodologie prévoit la création d'un programme d'atténuation des risques afin de minimiser ou de supprimer les risques identifiés, protégeant ainsi les citoyens d'éventuels préjudices. Si un système d'IA utilisé, par exemple, pour le recrutement se révèle partial à l'égard de certains groupes démographiques, le programme d'atténuation peut prévoir l'ajustement de l'algorithme ou la mise en place de contrôles humains.
La méthodologie exige des réévaluations régulières pour s'assurer que le système d'IA continue à fonctionner de manière sûre et conforme à l'éthique à mesure que la situation et la technologie évoluent. Cette approche garantit aux citoyens une protection contre les nouveaux risques tout au long du cycle de vie du système d'IA.
La méthodologie HUDERIA a été adoptée par le Comité sur l'intelligence artificielle (CAI) du Conseil de l'Europe lors de sa 12e réunion plénière, qui s'est tenue à Strasbourg du 26 au 28 novembre. Elle sera complétée en 2025 par le modèle HUDERIA, qui fournira des documents et des ressources d'appui, notamment des outils flexibles et des recommandations évolutives.