Высокая технологическая сложность искусственного интеллекта приводит к возникновению проблемы «чёрного ящика», способной не только затруднить реализацию традиционных институтов права, но в целом повлиять на уровень доверия к технологии, а также темпы её развития и распространения.
На решение данной проблемы направлен принцип прозрачности, предполагающий ряд организационных мер и требований к самому ИИ, направленных на обеспечение открытости информационных процессов, лежащих в основе алгоритма, а также доступности сведений о системе для заинтересованных лиц.
Автором проведён анализ источников международного права на предмет раскрытия принципа прозрачности в ИИ-сфере. Кроме того, в работе излагаются авторские рекомендации по улучшению существующего механизма обеспечения прозрачности искусственного интеллекта, а также отмечается обратная зависимость степени объяснимости алгоритма и его эффективности. Принцип прозрачности является не только правовой, но и этической основой для использования ИИ, в связи с чем, должен рассматриваться в качестве одного из ключевых элементов правового режима данной технологии.
Ключевые слова: искусственный интеллект, объяснимость, интерпретируемость, принцип прозрачности, проблема «чёрного ящика», правовой режим, цифровая экономика.
NIKITENKO Sergey Viktorovich
Postgraduate student of Saint-Petersburg State University
THE PRINCIPLE OF TRANSPARENCY AS AN INTEGRAL PART OF THE LEGAL REGIME FOR ARTIFICIAL INTELLIGENCE
High technological complexity of artificial intelligence systems leads to the problem of"black box”, which may not only impede the application of traditional legal institutions, but affect the credibility of technology in general, as well as the pace of its development and integration. The principle of transparency is aimed at solving this problem, which imposes a number of organizational measures and requirements for the AI itself, aimed at ensuring the openness of the information processes underlying the algorithm, and the accessibility of the information about the system to the interested parties. The author analyses the sources of international law for the disclosure of the transparency principle in the AI-sphere. In addition, the paper sets out the author’s recommendations to improve the existing mechanism for transparency of artificial intelligence are presented, as well as the inverse correlation between the degree of explainability of the algorithm and its effectiveness is noted. The principle of transparency is not only a legal but also ethical basis for the use of AI, and therefore should be considered as one of the key elements of the technology legal regime.
Keywords: artificial intelligence, explainability, interpretability, transparency principle, black box problem, legal regime, digital economy.
Четвёртая промышленная революция в лице одной из своих главных технологий - искусственного интеллекта [8] (далее - ИИ), приводит к неизбежной трансформации и цифровиза- ции общественных отношений во всех сферах жизни общества. Интеллектуальные технологии всё активнее становятся частью актуальной повестки как международного сообщества, так и национального законодателя. Создание интеллектуальных систем рассматривается в качестве приоритета научно-технологического развития Российской Федерации (пп. «а», п. 20 Указа Президента РФ от 01.12.2016 г. № 642 «О Стратегии научно-технологического развития РФ»), а развитие самой ИИ-отрасли является предметом Национальной стратегии развития искусственного интеллекта на период до 2030 года, утв. Указом Президента РФ от 10.10.2019 № 490.
Сегодня ведутся активные дискуссии по вопросам этики, стандартов качества и безопасности ИИ, а также обсуждаются иные вопросы нормативного регулирования разработки и использования интеллектуальных технологий [9], включая основополагающие вопросы правосубъектности и ответственности за вред, причинённый ИИ-системами. Вместе с тем, на международном и национальном уровнях наблюдается отсутствие комплексного регулирования ИИ-отношений, которое бы учитывало их особенности [5]. Осуществляемая на данный момент нормотворческая деятельность лишена понимания единого подхода, последовательности и целостности [18].
Соответственно, для регулирования отношений в ИИ- сфере используются «традиционные» правовые категории и институты, которые далеко не всегда способны учитывать всю специфику технологии. Такая ситуация таит в себе риск (1) нарушения прав человека, вплоть до причинения вреда жизни и здоровью, а также (2) введения государством чрезмерных ограничительных мер, что способно привести к стагнации и упадку технологического развития [2].
Таким образом, мы видим явную необходимость подготовки специальной нормативно-правовой базы в сфере регулирования ИИ-отношений. Правовой режим искусственного интеллекта должен быть основан на ряде специальных принципов международного значения [16], учитывающих особенности разработки, создания и использования технологии, что позволит выстроить непротиворечивую и последовательную систему норм. Принцип прозрачности, который некоторые исследователи относят к элементам права человека на получение информации [13], рассматривается нами в качестве одного из основных правовых начал в системе специального международно-правового регулирования, посвящённого ИИ.
Обратимся к отражению принципа прозрачности в существующем международном регулировании. Прежде всего, большое внимание данному принципу уделяется в Кодексе этики для разработчиков робототехники, который является Приложением к Регламенту Европейского парламента от 16.02.2017 № 2015/2103(INL) «О правилах гражданского права в области робототехники» («Civil Law Rules on Robotics») - наиболее проработанного и комплексного акта в ИИ-отрасли. Разумеется, без раскрытия содержания данный принцип не сможет иметь какое-либо регулятивное значение, в связи с чем, европейский регулятор закрепляет ряд пояснений в Рекомендациях относительно содержания предложения комиссии ЕС, которые являются приложением к Регламенту № 2015/2103(INL).
Так, принцип прозрачности реализуется через два условных направления: (1) организационное и (2) техническое. Относительно организационной части, на разработчиков возлагается обязанность обеспечить доступ всем заинтересованным лицам к необходимой информации, включая сведения о возможных опасностях технологии для общества или окружающей среды, а также должна быть обеспечена возможность участвовать в процедуре принятия ИИ-алгоритмом решений. В свою очередь, с технической стороны принцип прозрачности обуславливает необходимость предоставления доступа к исходному коду, входным данным и информации о конструктивных особенностях ИИ-системы в случае причинения вреда, что позволит расследовать инциденты и устанавливать их причины.
Мы можем обнаружить идентичные по смыслу требования к обеспечению прозрачности в Проекте Регламента Европейского союза «Об унифицированных правилах регулирования искусственного интеллекта и внесении изменений в некоторые законодательные акты Союза» от 21.04.20214 (также известном как «Artificial Intelligence Act»), направленного на установление общего правового режима ИИ-технологий.
Наибольшее значение данному принципу придаётся в Рекомендации ЮНЭСКО об этических аспектах ИИ (принята ЮНЭСКО в ходе 41-й сессии, проходившей в Париже с 9 по 24 ноября 2021 г.) - наиболее глобальному документу в ИИ-сфере, согласно которому прозрачность выступает обязательным условием для эффективной реализации института ответственности за вред, причинённый интеллектуальными системами (п. 37). Принцип прозрачности тесно взаимосвязан с принципом объяснимости, который направлен на обеспечение доступности формы и содержания сведений о работе ИИ-алгоритма, включая исходные данные, информацию о поведении алгоритмической структуры и факторах, влияющих на её работу, а также обязывает предоставление разъяснений относительно полученных системой результатов (п. 40). Аналогичным образом, однако, в более лаконичной форме принципы прозрачности и объяснимо- сти закреплены в п. 1.3 и пп. «Ь» п. 1.4 Рекомендации Совета ОЭСР по ИИ № OECD/LEGAL/0449, принятой 22.05.2019 г.[6]
Обратимся также к специальным правовым институтам, в частности, процедурам получения согласия на обработку персональных данных и медицинское вмешательство. Специфика регулирования соответствующих отношений, «осложнённых» искусственным интеллектом, позволит нам при помощи индуктивного научного метода расширить понимание общеотраслевого принципа прозрачности.
В области персональных данных мы не можем не обратиться к опыту Европейского Союза. Знаменательным является Регламент Европейского парламента и Совета Европейского Союза № 2016/679 от 27.04.2016 «О защите физических лиц при обработке персональных данных и о свободном обращении таких данных, а также об отмене Директивы 95/46/ ЕС (Общий Регламент о защите персональных данных)»[7], который закрепляет наиболее проработанную систему норм в области персональных данных. Принцип прозрачности непосредственно предусмотрен в ст. 5 Регламента и реализуется, прежде всего, через механизм получения информированного согласия субъекта на обработку персональных данных.
Прозрачность предполагает наличие у субъекта возможности получить как во время, так и перед обработкой данных сведения о данном процессе, перечень которых определён в самом Регламенте (п. 1 ст. 12). Примечательно, что помимо стандартной информации о целях обработки, категории обрабатываемых данных, сроках хранения и т.д., субъекту данных также должны быть предоставлены сведения о наличии автоматизированного процесса принятия решений, включая сведения о логической схеме ИИ, а также значимости и предполагаемых последствиях такой обработки для субъекта (пп. «f» п. 2 ст. 13 Регламента). Отмечается, что такие сведения должны в отчетливо видимой, понятной и разборчивой форме дать субъекту общее представление о предполагаемой обработке.
Принцип прозрачности находит своё отражение в Конвенции Совета Европы о защите частных лиц в отношении автоматизированной обработки данных личного характера 1981 г. (ETS № 108) - международном договоре, который на данный момент является единственным обязательным актом международного права в сфере обеспечения конфиденциальности и защиты персональных данных [17]. Интерес для нас представляет редакция данной Конвенции с изменениями, которые вносятся Протоколом от 10.10.2018 (CETS № 223).
Одним из таких нововведений является необходимость получения свободного, информированного и ясного согласия субъекта на обработку персональных данных с соблюдением требований о прозрачности обработки, суть которой заключается в предоставлении субъекту определённой информации о предстоящей процедуре, в том числе: об основаниях и цели предполагаемой обработки, категории обрабатываемых данных, получателях данных и др.
Обратимся к институту получения согласия на медицинское вмешательство. Так, Всеобщая декларация о биоэтике и правах человека, принятая на 18-м пленарном заседании Генеральной конференции ЮНЕСКО 19.10.2005[10], являясь международным договором рекомендательного характера, в ст. 6 закрепляет требование о необходимости получения согласия на медицинское вмешательство в профилактических, диагностических или терапевтических целях, которое должно быть, помимо прочего, информированным, что предполагает предоставление соответствующих сведений в адекватной и понятной форме.
На международном региональном уровне вопрос получения информированного согласия находит отражение в Конвенции Совета Европы о защите прав и достоинства человека в связи с применением достижений биологии и медицины 1997 г. (ETS № 164), в ст. 5 которой указано общее правило: медицинское вмешательство может осуществляться лишь после того, как лицо, которому предоставлена информация о цели, характере последствиях и рисках вмешательства, даст на это свое информированное согласие.
Более детально содержание принципа прозрачности в указанных актах не раскрывается, однако, по результатам анализа специального регулирования мы можем утверждать, что обозначенный принцип предполагает: (1) предоставление сведений о данных, обрабатываемых ИИ-системой, логической схеме принятия алгоритмом решений, лицах, у которых есть доступ к системе, о возможных результатах, рисках и значении (влиянии на субъекта) принимаемых решений; (2) понятность и доступность формы и содержания таких сведений. Таким образом, мы можем включить обозначенный принцип объяснимости в принцип прозрачности без потери или чрезмерного расширения его содержания.
Отдельного внимания заслуживают особенности реализации принципа прозрачности в ИИ-отрасли. Прежде всего, интеллектуальные системы обладают низкой интерпретируемостью и объяснимостью принятых ими решений (т.н. проблема «чёрного ящика») [3, 11]. Перед оператором системы возникает трудноразрешимая задача, которая заключается в предоставлении заинтересованному лицу, не обладающему специальными знаниями, информации о процедуре принятия решений ИИ-системой - технологически сложного продукта, основанного на комплексных знаниях в сфере IT, больших данных и сведений из области применения алгоритма. В некоторых случаях, предоставить обоснование решения, принятого ИИ, подчас не по силам самим разработчикам [12]. Кроме того, оператор ИИ-алгоритма способен лишь загружать исходные данные и регулировать ограниченный круг параметров - остальное находится вне его контроля и заранее задано разработчиками.
Данная проблема приводит к непредсказуемости «поведения» ИИ-систем, что создаёт риск нарушения прав человека и причинения вреда. Необъяснимость также снижает доверие к интеллектуальным технологиям, что способно замедлить темпы внедрения ИИ и привести к стагнации научно-технического прогресса [19]. Следствием проблемы «черного ящика» также является предвзятость решений, которая вытекает из возможности алгоритмов на основе анализа больших объёмов данных находить невидимые человеку закономерности и установить причинно-следственную связь между двумя не связанными между собой факторами [1, 10]. Примером являются существующие ИИ-проекты, определяющие предрасположенность к определённым заболеваниям на основе этнического происхождения, пола, расы человека или иных паттернов, которые со всей очевидностью не могут выступать в качестве объективной причины [7].
Таким образом, от реализации принципа прозрачности зависит, фактически, дальнейшая «судьба» самой технологии, что указывает на особую важность соответствующего принципа, который приобретает черты не только правового, но и этического принципа ИИ-отношений.
Полагаем, что решению проблемы «чёрного ящика» будет способствовать закрепление требования о включении в ИИ на этапе разработки функции схематичного описания цепочки операций, которые будут осуществлены или привели к полученному результату. Такое описание может быть представлено в виде блок-схемы, демонстрирующей основные вариации решений, к которым алгоритм способен прийти на определённом этапе своих вычислений. Подобная функция реализована в системе обработки генетической информации «Emedgene» [6]. При этом, должен быть найден баланс между упрощением в объяснении технической части алгоритма и сохранением как можно более полного изложения принципов работы технологии и факторов, которые могут повлиять на полученные результаты.
Кроме того, требования к обеспечению прозрачности должны различаться в зависимости от (1) сферы применения ИИ-алгоритма, (2) субъекта, (3) обеспечиваемого права. Наглядным примером выступает применение ИИ-алгоритмов в медицине. Представляется логичным, что для пациента, не обладающего специальными познаниями, сведения о работе ИИ-алгоритма должны быть представлены в упрощённой форме, в то время как врачу следует предоставить «расширенную» версию отчёта с использованием профессиональной терминологии, что позволит более взвешенно оценить решения интеллектуальной системы. Из этого следует косвенное направление обеспечения принципа прозрачности: предъявление специальных требований к квалификации лиц, выступающих операторами ИИ-систем.
Следует учитывать, что некоторые, вполне логичные на первый взгляд, способы обеспечения прозрачности ИИ не могут быть применимы в силу технических особенностей. Так, наиболее технологически совершенными являются алгоритмы, основанные на методах машинного и глубокого обучения, архитектуре нейронных сетей. Несмотря на существенный прирост в эффективности таких систем, заранее изложить все варианты решений в данном случае невозможно, поскольку алгоритм способен обучаться и выявлять при обработке данных новые закономерности, не известные человеку [1].
Возможность предопределить все решения сохраняется для т.н. экспертных систем, которые являлись технологическими предшественниками ИИ, функционируя исключительно в рамках чётко определённого набора «сценариев» с заранее построенными причинно-следственными цепочками (метод «древа решений»): примерами таких систем являются программы «DXplain» и «MYCIN». Вместе с тем, системы, разработанные на основании указанного метода, отличаются низкой точностью полученных результатов [14]. Таким образом, наблюдается обратная зависимость между степенью предопределённости решений ИИ-алгоритма и его эффективностью, что также должно учитываться при разработке комплекса мер по реализации принципа прозрачности.
По результатам анализа источников международного права мы видим, что принцип прозрачности рассматривается в качестве основы для регулирования ИИ-отношений, что указывает на его ключевое значение для всей отрасли. Данный принцип выражается через: (1) открытость самой ИИ- системы, обеспечение возможности принять участие в принятии решений на любом этапе, (2) объяснимость механизма работы алгоритма и описание логической схемы, которая привела к вынесению конкретного решения, (3) предоставление соответствующей информации заинтересованному лицу в понятной и адекватной форме.
Реализация принципа прозрачности связана с серьёзными трудностями, вызванными низкой интерпретируемостью ИИ. От решения проблемы «чёрного ящика» зависит принципиальная возможность активного внедрения технологии и темпы её развития. В связи с чем, принцип прозрачности, направленный непосредственно на решение данной проблемы, приобретает, помимо правового, также этическое значение.
В целях совершенствования правовых процедур и инструментов, обеспечивающих прозрачность ИИ, нами были даны рекомендации о необходимости включения в алгоритм на этапе проектирования функции предоставления отчёта о предстоящих или уже предпринятых действиях и/или решениях, содержание которого должно динамически зависеть от квалификации лица, запрашивающего такой отчёт. Кроме того, нами была отмечена закономерность, имеющая непосредственное значение для реализации принципа прозрачности, а именно: степень интерпретируемости ИИ обратно пропорциональная её эффективности, что приводи нас к вопросу о необходимости создания стандарта, устанавливающего надлежащий баланс между данными факторами.
Полагаем, существует настоятельная потребность международного сообщества в закреплении на глобальном уровне специального стандарта, посвящённого исключительно вопросам обеспечения прозрачности искусственного интеллекта. По нашему мнению, последовательная и эффективная реализация данного принципа должна стать основной задачей регулятора в сфере ИИ-отношений, поскольку от «прозрачности» систем зависит безопасность и масштабы внедрения технологии во все сферы жизни общества.
НИКИТЕНКО Сергей Викторович
аспирант Санкт-Петербургского государственного университета