Искусственный интеллект все чаще используется в нашей повседневной жизни и проникает во многие сферы деятельности. Возьмем, например, такие с виду простейшие ситуации, когда умная навигационная система позволяет избежать попадания в пробку на дороге или когда человек получает целевую рекламу от проверенных магазинов в результате анализа большого объема данных, используемого искусственным интеллектом (ИИ). В этих примерах преимущества очевидны, однако общество чаще всего не замечает этическую и правовую сторону стоящего за ними сбора и анализа данных.
Искусственный интеллект, включая такие его направления, как машинное обучение и глубокое обучение, нейтральны лишь на первый взгляд. При более внимательном рассмотрении обнаруживается, что он может сильно сказываться на интересах людей в конкретных случаях. Во многих сферах жизни принятие решений на основе математических расчетов дает огромные преимущества. Однако если ИИ станет играть слишком большую роль в жизни человека, что подразумевает выявление повторяющихся алгоритмов поведения, это может обернуться против пользователей, привести к несправедливости, а также к ограничениям прав человека.
С моей точки зрения, использование ИИ затрагивает многие аспекты прав человека, которые входят в сферу моей деятельности. Так, использование указанных алгоритмов может негативно повлиять на целый ряд наших прав. Проблема осложняется отсутствием прозрачности, подотчетности и информации о том, как эти системы устроены, как они функционируют и в каком направлении могут развиваться в будущем.
Вмешательство в право на неприкосновенность частной жизни и право на равенство
Противоречие между преимуществами технологий ИИ и ограничениями прав человека особенно проявляется в сфере неприкосновенности частной жизни. Право на неприкосновенность частной жизни - основополагающее право человека, необходимое для безопасной и достойной жизни. Однако в цифровом пространстве, в том числе когда мы пользуемся приложениями и социальными сетями, собирается огромное количество персональных данных (с нашей осведомленностью или без нее), которые могут быть использованы для создания нашего профиля и предсказания нашего поведения. Мы сообщаем информацию о своем здоровье, политических убеждениях, семейной жизни, даже не зная, кто будет пользоваться этими данными, с какой целью и каким образом.
Машины работают на основе того, как их запрограммировали люди. Если в систему введены (осознанно или случайно) алгоритмы, включающие в себя человеческие предубеждения, такая система неизбежно будет их повторять. Главные опасения внушает отсутствие в системах ИИ разнообразия и инклюзии: вместо того чтобы делать наши решения более объективными, они могут укреплять дискриминацию и предрассудки. Появляется все больше подтверждений того, что алгоритмы работы, основанные на предубеждениях, дискриминируют женщин, представителей этнических меньшинств, людей с инвалидностью и лиц ЛГБТИ сообщества.
Как показывают исследования, Google с большей вероятностью будет показывать объявления о высокооплачиваемых вакансиях мужчинам-соискателям, а не женщинам. Как говорится в опубликованном в мае прошлого года исследовании Агентства ЕС по основным правам, ИИ может усугублять дискриминацию. Когда решения, основанные на обработке данных, отражают общественные предрассудки, они воспроизводят, а порой даже усугубляют предубеждения общества. Этот вопрос часто поднимает научное сообщество и НПО, которые недавно приняли Торонтскую декларацию с призывом обеспечить гарантии того, что системы автоматизированного обучения не будут усугублять дискриминационные практики.
Если в принимаемых решениях слепо руководствоваться теми результатами, которые выдают искаженные алгоритмы, это может серьезно сказаться на правах человека. Например, программное обеспечение, с помощью которого принимаются решения о льготах в области медицинского обслуживания и льготах по инвалидности, ошибочно исключало людей, которым такие льготы полагались, порой с катастрофическими последствиями для исключенной категории нуждающихся лиц. В системе правосудия ИИ также может быть как двигателем прогресса, так и злом. Системы уголовного правосудия по всему миру все чаще обращаются к ИИ с целью предотвращения преступлений, что включает в себя целый перечень соответствующих вопросов, начиная от охраны правопорядка и заканчивая прогнозированием преступлений и рецидивизма. В то же время многие эксперты выражают беспокойство по поводу объективности таких моделей. Для того чтобы разобраться с этим вопросом, Европейская комиссия Совета Европы по вопросам эффективности отправления правосудия (CEPEJ) создала междисциплинарную группу экспертов, которая «займется подготовкой руководящих принципов в сфере этичного использования алгоритмов в системах правосудия, в том числе в прогнозировании».
Алгоритмы, которые душат свободу выражения мнений и собраний
Другое право, которое оказывается под угрозой, это право на свободу выражения мнений. В недавней публикации Совета Европы «Алгоритмы и права человека», в частности, отмечается, что в Фейсбуке и на Ютьюбе действуют механизмы фильтрации для выявления экстремистского содержания с призывами к насилию. Однако нет никакой информации о том, какие процедуры и критерии применяются для определения такого контента, а также о том, в каких видеороликах присутствует «явно незаконное содержание». Хотя сама по себе инициатива пресекать распространение подобных материалов похвальна, непрозрачность модерации контента вызывает тревогу, поскольку она несет в себе риски ограничений законного права на свободу слова и выражение мнения. Аналогичные опасения высказывались в отношении автоматической фильтрации пользовательского контента при его загрузке в связи с предполагаемым нарушением прав интеллектуальной собственности, что вышло на передний план в предложенной директиве ЕС об авторском праве. В некоторых случаях использование автоматических технологий для распространения информации может также существенно затрагивать право на свободу выражения мнения и неприкосновенность частной жизни, когда боты, армии троллей, целевая реклама или спам распространяются в рамках применения алгоритма, определяющего контент для конкретных пользователей.
Конфликт между технологиями и правами человека также проявляется и в области распознавания лиц. Будучи мощным инструментом для розыска предполагаемых террористов, он также может превратиться в средство контроля людей. Сейчас государствам стало особенно легко следить за вами, вторгаться в частную жизнь, ограничивать свободу собраний, свободу передвижения и свободу прессы.
Что могут сделать государства и частный сектор?
ИИ потенциально может помочь людям максимально эффективно использовать свое время, расширить их свободу и сделать их более счастливыми. Но он также же способен привести нас в мир антиутопии. Поэтому чрезвычайно важно нащупать верный баланс между технологическим развитием и защитой прав человека, ведь от этого будет зависеть будущее общества, в котором мы хотим жить.
Для достижения такого баланса требуется более тесное сотрудничество между органами государственной власти (правительствами, парламентами, судебными и правоохранительными органами) и частными предприятиями, академическим сообществом, НПО, международными организациями и обществом в целом. Задача пугающая, но выполнимая.
Уже сегодня существует ряд стандартов, от которых следует отталкиваться. Например, в прецедентах Европейского суда по правам человека четко установлено, каким образом должно соблюдаться право на неприкосновенность частной жизни, на свободу и безопасность. В них также подчеркивается обязанность государств обеспечивать эффективные средства правовой защиты для противодействия посягательствам на частную жизнь и незаконной слежке. Кроме того, в этом году была принята обновленная Конвенция Совета Европы о защите частных лиц в отношении автоматизированной обработки данных личного характера, касающаяся тех угроз неприкосновенности частной жизни, которые возникают из-за новых информационных и коммуникационных технологий.
Государства также должны следить за тем, чтобы частные компании, занимающиеся разработкой и внедрением ИИ, соблюдали стандарты в области прав человека. Создатели той технологии ИИ, которая способна улучшить нашу жизнь, должны действовать в соответствии с Рекомендациями Совета Европы о соотношении бизнеса и прав человека, о роли и ответственности интернет-посредников, а также в соответствии с Руководящими принципами предпринимательской деятельности в аспекте прав человека ООН и Докладом о регулировании контента, подготовленным Специальным докладчиком ООН по вопросу о поощрении и защите права на свободу мнений и их свободное выражение. Процессы принятия решений, использующие алгоритмы, должны стать прозрачнее, чтобы стала понятна их логика, появилась ответственность за применение таких алгоритмов, а также чтобы была возможность эффективно оспаривать решения, принятые на основе автоматизированных процессов сбора и обработки данных.
Третье поле деятельности — повышение грамотности людей в области ИИ. Государства должны больше вкладывать в просвещение и образовательные инициативы, повышать компетентность всех своих граждан и особенно подрастающего поколения, чтобы они получали положительный опыт использования ИИ и лучше понимали, как он влияет на нашу жизнь. Наконец, национальные структуры по правам человека должны уметь противостоять новым видам дискриминации, проистекающей из применения ИИ.
Обнадеживает готовность частного сектора обсуждать вопросы прав человека. Как Комиссар по правам человека я собираюсь уделять внимание этой теме в течение срока пребывания на своем посту. Я намерена лучше разобраться в ключевых проблемах в этой области и помочь государствам-членам справляться с ними, сохраняя уважение к правам человека. Недавно во время моего визита в Эстонию мы с премьер-министром этой страны плодотворно обсудили вопросы, касающиеся искусственного интеллекта и прав человека.
Искусственный интеллект многократно расширяет наши возможности жить так, как нам хотелось бы. Но он же может нас их лишить. Поэтому необходимо четкое регулирование в данной области для того, чтобы избежать его превращения в современного Франкенштейна.
Дуня Миятович