bannerbanner
Обеспечение фундаментальных прав человека при обработке данных в государственном управлении
Обеспечение фундаментальных прав человека при обработке данных в государственном управлении

Полная версия

Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
2 из 2

Приведенный нами обзор касательно китайского варианта обработки данных приводит к выводу о том, что его реализация в Российской Федерации невозможна ввиду очевидного конфликта с правами человека, признанными в подписанных Россией (в отличие от Китая) международных актах и имплементированных в гл. 2 российской Конституции, а также распространившихся в отраслевых актах законодательства.

Проанализированные нами в рамках основного исследования зарубежные (американские и европейские) и российские подходы к обеспечению фундаментальных прав человека при обработке данных в государственном управлении можно систематизировать по нескольким направлениям.

1.1. Правовое регулирование использования алгоритмов для обработки данных в государственном управлении

Алгоритм является базовым понятием в проблематике автоматизированной обработки данных. Начнем с того, что алгоритмы существовали задолго до того, как получили свое наименование. Они порождены необходимостью находить быстрые и эффективные решения посредством трансформации данных при помощи точных указаний, применяющихся поэтапно. В принципе обычный кулинарный рецепт – это уже алгоритм, который содержит пошаговую инструкцию для достижения определенного результата. Правовая норма тоже алгоритм, содержащий набор данных, условий их применения в заданной последовательности также для достижения некоего результата (решения определенной проблемы). Выходит, право и алгоритм крайне близки по сути. Если отталкиваться от классических определений – право как система норм, регулирующих отношения между людьми в обществе, и алгоритм как совокупность инструкций, разрешающих проблему, – то понятие алгоритма оказывается более широким. В этом смысле право можно рассматривать как специфический алгоритм (юридический), объединяющий совокупность инструкций, разрешающих проблемы, возникающие из отношений людей в обществе[29].

Но развитие информационных технологий, успех науки информатики прочно связали понятие алгоритма с информационным обеспечением. Поэтому, произнося слово «алгоритм», мы переносимся в область программирования.

Оксфордский словарь английского языка определяет алгоритм как процесс или набор правил, которым необходимо следовать при осуществлении вычислений или других операций, связанных с решением задач, как правило, с помощью компьютера[30]. В настоящее время под алгоритмом обычно понимают либо фрагмент кода, либо компьютерное приложение, которое может быть использовано в целях оказания содействия человеку в процессе принятия решений или для выполнения действий, не требующих его непосредственного участия[31]. Так, алгоритмы уже используются при вынесении приговоров и принятии решений об условно-досрочном освобождении; для прогнозирования «мест притяжения» криминальной активности в целях содействия органам правопорядка и рационального распределения ресурсов; при персонализации результатов поиска, электронных новостных лент и рекламы; для выявления мошенничества; определения кредитных рейтингов; облегчения набора персонала, а также оказания медицинских и юридических услуг и др. Используются алгоритмы и в сфере государственного управления. В этом смысле особого внимания требуют алгоритмы, которые применяются для поддержки принятия решений. Некоторые из наиболее известных примеров использования алгоритмов связаны с процессом принятия решений, что непосредственно оказывает воздействие на права человека. Один из наиболее часто приводимых примеров в связи с этим – использование алгоритмов для оценки степени риска при вынесении приговоров, учитывая, что такая оценка может иметь прямое отношение к праву человека на свободу и запрету дискриминации[32]. Подобный кейс будет рассмотрен нами ниже.

Доступность алгоритмов в совокупности с использованием оценки степени риска потенциально может повлиять на права человека, особенно в отношении тех, кто находится в уязвимом положении в ключевых областях жизни (пища, жилище, занятость). Прогнозная аналитика может применяться и для защиты детей. Например, London Council в сотрудничестве с частными поставщиками услуг использует алгоритмы, объединяя данные нескольких агентств, и применяет риск-ориентированный подход для определения вероятности жестокого обращения с ребенком или отсутствия заботы о нем. Сказанное вызывает к жизни вопросы конфиденциальности и защиты данных, а также вопросы, связанные с правом на уважение частной и семейной жизни и дискриминацией. В связи с этим прежде всего необходимо определить, можно ли использовать алгоритм для принятия решений или для содействия в его принятии, если речь идет о конкретной жизненной ситуации. Алгоритмы, управляющие большими данными, – искусственный интеллект или алгоритмы машинного обучения – обычно работают на основе корреляции и статистической вероятности. Однако природа таких алгоритмов, с одной стороны, заключается в генерации результатов, которые описывают поведение группы, но не адаптированы к конкретным людям внутри этой группы, а с другой – не зависит от размера или качества входного набора данных[33].

В целях настоящего исследования нельзя обойти вниманием отправной научно-методологический подход, связанный с правовым осмыслением цифровых технологий в целом и алгоритмов в частности. Если в отношении технологий право «колеблется» между киберлибертарианством (утверждающим, что технологии радикально изменят право и приведут к утрате его значения перед лицом программного кода) и консервативной позицией, считающей, что право с легкостью урегулирует любые цифровые технологии в традиционном ключе, то касательно алгоритмов право изначально занимало позицию регулятора, т. е. право относится к алгоритму как объекту регулирования. При этом в юридическом смысле правовой охране подлежали не сами алгоритмы, а программы. Причем, что особенно важно для государственного управления, происходило это в рамках гражданского права, которое, как известно, распространяется на отношения с участием государства в ограниченном объеме.

Программы для ЭВМ в целях охраны авторским правом в силу указания ст. 1261 ГК РФ и в соответствии с закрепленными на международном уровне подходами условно приравниваются к произведениям литературы. Аналогичное правило предусмотрено в п. 1 ст. 1 °Cоглашения по торговым аспектам прав интеллектуальной собственности, согласно которому компьютерные программы, которые могут быть выражены на любом языке и в любой форме, включая исходный текст и объектный код, подлежат авторско-правовой охране как литературные произведения. Однако необходимо учитывать специфику программ для ЭВМ, которая вытекает из их предназначения – обеспечивать функционирование компьютерных устройств, осуществление определенных алгоритмов и процессов, достижение результатов, имеющих по своей сущности технический характер. Перед литературными произведениями такой задачи не ставится[34].

Алгоритм как последовательность операций является основным компонентом программы, отражая ту главную идею, согласно которой должен работать компьютер. Однако в соответствии с п. 5 ст. 1259 ГК РФ авторские права не распространяются на идеи, концепции, принципы, методы, процессы, системы, способы решения технических, организационных или иных задач, открытия, факты, языки программирования. В итоге алгоритм как таковой лишен правовой защиты, охраняется лишь его реализация в виде последовательности операций и действий над этими операциями[35]. Это обстоятельство имеет перспективное значение, если иметь в виду использование алгоритмов в государственном управлении в качестве «замены» человека, принимающего решения. В этом смысле алгоритм как бы становится стороной управленческого отношения и «несет обязанности» в отношении граждан, в том числе по соблюдению прав человека.

Тем не менее согласно директиве 91/250/СЕ от 14 мая 1991 г. «О правовой охране компьютерных программ» такая защита предоставлялась только самим программам, но не идеям и принципам, лежащим в основе алгоритма[36]. Это правило сохранилось и в новой директиве 2009/24 от 23 апреля 2009 г.[37]Суд Европейского союза подтвердил изложенную позицию, указав, что защите авторским правом подлежат код-источник (исходный текст) и объектный код компьютерной программы[38].

Между тем не только в зарубежных странах, но и в России на практике осуществляется патентование алгоритмов (в качестве изобретений (способа))[39]. Программные алгоритмы могут быть запатентованы в качестве изобретений в виде технических решений, относящихся к способу (п. 1 ст. 1350 ГК РФ). Но для этого разработчикам необходимо добиться соответствия решения требованию изобретательского уровня и определить ожидаемый материально-технический результат, которого предполагается достичь за счет данного решения[40].

Таким образом, алгоритмы хорошо знакомы праву в качестве объектов регулирования, но праву гражданскому, частному. Для полноценного использования алгоритмов в государственном управлении необходимо публично-правовое регулирование возникающих отношений, что позволит обеспечить защиту прав граждан посредством публично-правовых механизмов.

Широкое распространение ИКТ и в особенности цифровых технологий, их применение в государственном управлении дали основание для введения алгоритмов в поле публичного права. Любопытно, что понятие «алгоритм» в российских нормативных правовых актах почти не употребляется в его техническом значении, а используется для обозначения порядка действий (например, алгоритм (порядок) взаимодействия заинтересованных органов государственной власти при выявлении противоправного контента в сети Интернет, принятый Роскомнадзором).

В Европе тоже избегают понятия «алгоритм». С 1981 г. используется термин «автоматизированная обработка данных», который напоминает алгоритм по содержанию (совокупность действий): автоматизированная обработка включает следующие операции, осуществляемые полностью или частично с помощью автоматизированных средств: хранение данных, осуществление логических и/или арифметических операций с этими данными, их изменение, уничтожение, поиск или распространение (Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.)[41].

Нетрудно заметить, что сфера применения автоматизированной обработки данных ограничена персональными данными, т. е. публично-правовая защита сконцентрирована на человеке с его частной жизнью и персональными данными. Собственно, так и произошло право на защиту персональных данных и была заложена традиция «сопротивления» индивидуальным автоматизированным решениям. Так, Регламент № 2018/1725 Европейского парламента и Совета Европейского союза «О защите физических лиц при обработке персональных данных» (п. 43) определяет, что субъект данных должен иметь право не подчиняться решению, которое может включать принятие мер, оценивающих личные аспекты, относящиеся к нему или к ней, которое основывается исключительно на автоматизированной обработке и результатом которого являются юридические последствия в отношении его или ее или которое сходным образом может значительно повлиять на него или на нее, такое как практики электронного подбора кадров без вмешательства человека[42].

В русле европейских правовых позиций выстроен и российский закон. Согласно ст. 16 ФЗ от 27.07.2006 г. «О персональных данных»[43] субъект персональных данных имеет право отказаться от принятия в отношении него решения на основании исключительно автоматизированной обработки персональных данных. К признакам такого решения относится то, что оно порождает юридические последствия в отношении субъекта персональных данных или иным образом затрагивает его права и законные интересы. Отметим, что в данной нормативной установке центр тяжести принятия решения (право выбора) лежит на субъекте персональных данных, гражданине. Действия государства данная норма не ограничивает.

При этом имеется в виду самый широкий круг решений – как управленческих, так и любых иных. Обработка персональных данных, осуществляемая в частном секторе, порождает вопросы при заключении и исполнении «договора в онлайн-среде в полностью автоматизированном режиме, например при размещении заказа на приобретение цифрового контента, который становится доступным для загрузки по факту оплаты»[44].

Но вернемся к публичному праву, которое интересуют управленческие решения, принимаемые органами власти на общем уровне – в отношении неопределенного или значительного круга лиц (в отношении охраняемых законом ценностей) и на индивидуальном уровне – в отношении граждан на основе автоматизированной обработки данных. Если в первом случае нарушения прав человека могут иметь место в обобществленном и массовом виде (официальное утверждение нормативного порядка предоставления льгот на дискриминационной основе), то во втором – будет иметь место нарушение права человека как субъективного права, защитить которое можно уже только в индивидуальном порядке. Любопытно, что внедрение алгоритмов, по сути, нивелирует это разграничение и, к примеру, дискриминационная практика реализации алгоритма в отношении конкретных лиц одновременно является массовой (что будет подробнее показано ниже).

Нужно учитывать, что сама идея алгоритма как совокупности инструкций, позволяющих решить проблему и достичь определенного заданного результата, как нельзя лучше отвечает концепции надлежащего, качественного государственного управления, нацеленного на достижение заранее запланированных, ожидаемых результатов, ведь результат управленческой деятельности можно легко заложить в алгоритм принятия управленческого решения. Это дает основания полагать, что в ближайшие годы государство активно займется подобной автоматизацией управленческих решений, а потому необходимо заранее изучить возможные риски. Во всяком случае положение о совместимости алгоритмов и концепции надлежащего государственного управления выдвигается нами в качестве гипотезы настоящего исследования.

Первым делом нужно понять, в каких государственных сферах такая автоматизация может произойти в первую очередь. Поскольку алгоритм – последовательность заранее определенных действий, их наибольшая эффективность прогнозируется в сферах, где не приветствуется широта действий органов власти, проще говоря, где нет (и не должно быть) дискреционных полномочий.

Конец ознакомительного фрагмента.

Текст предоставлен ООО «ЛитРес».

Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.

Примечания

1

Richard /. Le numerique et les donnees personnelles: quels risques, quelles potential ites?//Revue du droit public et de la science politique en Franceet a I’etran-ger. – 2016. —No l.-P. 97-108.

2

Bellovin S.M. et al. When Enough Is Enough: Location Tracking, Mosaic Theory, and Machine Learning, https://digitalcommons.law.umaryland.edu/fac_ pubs/1375/.

3

Bosco F., Creemers N., Ferraris V. et al. Profiling Technologies and Fundamental Rights and Values: Regulatory Challenges and Perspectives from European Data Protection Authorities//Reforming European Data Protection Law. S. Gutwirth, R. Leenes, P. de Hert (eds.). – Springer, 2014.

4

Ibidem.

5

Philippe G. L’Etat face au defi numerique//International Journal for the Semiotics of Law – Revue internationale de Semiotique juridique. – 2019. —Vol. 32.– P. 229–231.

6

Song В. The West May Be Wrong About China’s Social Credit System//New Perspectives Quarterly. – 2019. —Vol. 36. —Is. 1. —P. 33–35.

7

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law. – 2017.-Vol. 12.-№ 2.-P. 356–378.

8

Loge Hanne Haukland Surveillance and human rights in the digital age. A case study of China>s social credit system, https://www.duo.uio.no/han-dle/10852/70583.

9

Bakken B0rge The Exemplary Society. Human Improvement, Social Control, and the Dangers of Modernity in China. New York: Oxford University Press. – 2000.

10

Ibidem.

11

Loge Hanne Haukland Surveillance and human rights in the digital age. A case study of China>s social credit system, https://www.duo.uio.no/han-dle/10852/70583.

12

Hoffman S. Programming China: The Communist Party’s autonomic approach to managing state security//Merics China Monitor. http://eprints.nottingham. ac.uk/48547/.

13

Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance Infrastructure//Policy & Internet. – 2018. —Vol. 10.– Is. 4.– P. 415–453.

14

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law. – 2017.-Vol. 12.-№ 2.-P. 356–378.

15

Ibidem.

16

Kostka G. China’s Social Credit Systems and Public Opinion: Explaining High Levels of Approval, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3215138.

17

Song B. The West May Be Wrong About China’s Social Credit System//New Perspectives Quarterly. – 2019. —Vol. 36. —Is. 1. —P. 33–35.

18

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law. – 2017.-Vol. 12.-№ 2.-P. 356–378.

19

Ibidem.

20

Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance Infrastructure//Policy & Internet. – 2018. —Vol. 10. —Is. 4. —P. 415–453.

21

Ibidem.

22

China’s «social credit» scheme involves cajolery and sanctions, https:// www.economist.com/china/2019/03/28/chinas-social-credit-scheme-involves-cajolery-and-sanctions.

23

Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance Infrastructure//Policy & Internet. – 2018. —Vol. 10. —Is. 4. —P. 415–453.

24

China’s «social credit» scheme involves cajolery and sanctions, https:// www.economist.com/china/2019/03/28/chinas-social-credit-scheme-involves-cajolery-and-sanctions.

25

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law. – 2017.-Vol. 12.-№ 2.-P. 356–378.

26

Arsene Severine Trust in Ratings: China’s Social Credit System. http://devl4-7. ysdhk.com/asiaglobalonline/p01/china-social-credit-system/.

27

Loge Hanne Haukland Surveillance and human rights in the digital age.

A case study of China>s social credit system, https://www.duo.uio.no/hand-le/10852/70583.

28

Liang Fan, Das Vishnupriya, Kostyuk Nadiya, and Hussain Muzammil M. Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance Infrastructure//Policy & Internet. – 2018. —Vol. 10. —Is. 4. —P. 415–453.

29

Duclercq J.-B. Le droit public а Гёге des algorithmes//Revue du droit public. – 2017.-№ 5.-P. 1401–1434.

30

Oxford English Dictionary. Definition of algorithm, https://en.oxforddictionaries, com/definition/algorithm.

31

Gillespie T. The Relevance of Algorithms’// Gillespie T., Boczkowski PJ., Foot KA (eds.) Media Technologies: Essays on Communication, Materiality, and Society. – MIT Press, 2014.

32

Mcgregor L., Murray D., Ng V International human rights law as a framework for algorithmic accountability//British Institute of International and Comparative Law. – 2019.-Vol. 68.-P. 309–343.

33

Benvenisti Е. Upholding Democracy Amid the Challenges of New Technology: What Role for the Law of Global Governance?//European Journal of International Law.– 2018.-Vol. 29.-Is. l.-P. 9-82.

34

Близнец И. А., Леонтьев К.Б., Кубышкин А. В. Правовая охрана авторских и смежных прав в Российской Федерации. – М., 2017.

35

Российское гражданское право: учебник: в 2 т. Т. I. Общая часть. Вещное право. Наследственное право. Интеллектуальные права. Личные неимущественные права ⁄ отв. ред. Е.А. Суханов. —М.: Статут, 2015.

36

Директива Совета европейских сообществ от 14 мая 1991 г. № 91/250/ ЕЭС «О правовой охране компьютерных программ», http://base.garant.ru/ 2565722/.

37

Директива Европейского парламента и Совета Европейского союза 2009/24/ ЕС от 23 апреля 2009 г. о правовой охране компьютерных программ (кодифицированная версия), http://base.garant.ru/71657620/.

38

Court of Justice of the European Union. Annual report. 2010. https://curia.eu-ropa.eu/jcms/upload/docs/application/pdf/2011-05/ra2010_version_integrale_ en.pdf.

39

Цивилистическая концепция интеллектуальной собственности в системе российского права: монография/ под общ. ред. М. А. Рожковой. – М.: Статут, 2018.

40

Ворожевич А. С. Исключительные права в цифровой сфере: объекты, границы, пределы осуществления (комментарий законодательства)//Современные информационные технологии и право: монография/ отв. ред. Е.Б. Лауте. —М.: Статут, 2019.-С. 208–233.

41

Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.//Доступ из справочно-правовой системы «КонсультантПлюс».

42

Регламент Европейского парламента и Совета Европейского союза 2018/1725 от 23 октября 2018 г. о защите физических лиц при обработке персональных данных, осуществляемой учреждениями, органами, службами и агентствами Союза, и о свободном обращении таких данных, а также об отмене Регламента (ЕС) 45/2001 и Решения 1247/2002/ЕС. http://base.garant.ru/72759520/.

43

Федеральный закон от 27 июля 2006 г. «О персональных данных»//СЗ РФ. – 2006.– № 31 (ч. 1). – Ст. 3451.

44

Савельев А. И. Научно-практический постатейный комментарий к Федеральному закону «О персональных данных». —М.: Статут, 2017.

Конец ознакомительного фрагмента
Купить и скачать всю книгу
На страницу:
2 из 2