ევროპის საბჭოს ახალი ინსტრუმენტი ხელოვნური ინტელექტის (AI) სისტემების რისკებისა და გავლენის შეფასების სახელმძღვანელო და სტრუქტურირებულ მიდგომის უზრუნველყოფის საშუალებაა. HUDERIA-ს მეთოდოლოგია სპეციალურად შექმნილია ადამიანის უფლებების, დემოკრატიისა და სამართლის უზენაესობის დასაცავად და ხელშესაწყობად. მისი გამოყენება შესაძლებელია როგორც საჯარო, ასევე კერძო სექტორის მიერ, ადამიანის უფლებებზე, დემოკრატიასა და სამართლის უზენაესობაზე რისკებისა და გავლენების შეფასების და გამოვლენისთვის, AI სისტემების მთელი სასიცოცხლო ციკლის განმავლობაში.
ეს მეთოდოლოგია ითვალისწინებს რისკების შემცირების გეგმის შემუშავებას, რათა საზოგადოება დაცული იყოს შესაძლო ზიანისგან. მისი მიზანია გამოვლენილი რისკების აღმოფხვრა ან მინიმუმამდე შემცირება. მაგალითად, თუ აღმოჩნდება, რომ დასაქმების პროცესში გამოყენებული AI სისტემა მიკერძოებულია კონკრეტული დემოგრაფიული ჯგუფების მიმართ, რისკების შემცირების გეგმა შეიძლება მოიცავდეს ალგორითმის გადახედვას ან ადამიანის მიერ მონიტორინგის დამატებითი მექანიზმების დანერგვას.
HUDERIA-ს მეთოდოლოგია სავალდებულოს ხდის რეგულარულ გადამოწმებას, რათა უზრუნველყოფილი იქნას AI სისტემის უსაფრთხო და ეთიკური ფუნქციონირება, კონტექსტისა და ტექნოლოგიის ცვლილებებთან პარალელური ადაპტაციის გათვალისწინებით. ეს მიდგომა უზრუნველყოფს საზოგადოების დაცვას ახალი რისკებისგან AI სისტემების მთელი სიცოცხლის ციკლის განმავლობაში.
HUDERIA-ს მეთოდოლოგია 2025 წლის 26-28 ნოემბერს სტრასბურგში იქნა დამტკიცებული, ევროპის საბჭოს ხელოვნური ინტელექტის კომიტეტის (CAI) მე-12 პლენარულ შეხვედრაზე. მას დაემატება HUDERIA-ს მოდელი, რომელიც უზრუნველყოფს დამხმარე მასალებს და რესურსებს, მათ შორის მოქნილ ინსტრუმენტებსა და მასშტაბირებად რეკომენდაციებს.