Обеспечение фундаментальных прав человека при обработке данных в государственном управлении - Талапина Эльвира Владимировна 3 стр.


Программы для ЭВМ в целях охраны авторским правом в силу указания ст. 1261 ГК РФ и в соответствии с закрепленными на международном уровне подходами условно приравниваются к произведениям литературы. Аналогичное правило предусмотрено в п. 1 ст. 1 °Cоглашения по торговым аспектам прав интеллектуальной собственности, согласно которому компьютерные программы, которые могут быть выражены на любом языке и в любой форме, включая исходный текст и объектный код, подлежат авторско-правовой охране как литературные произведения. Однако необходимо учитывать специфику программ для ЭВМ, которая вытекает из их предназначения обеспечивать функционирование компьютерных устройств, осуществление определенных алгоритмов и процессов, достижение результатов, имеющих по своей сущности технический характер. Перед литературными произведениями такой задачи не ставится[34].

Алгоритм как последовательность операций является основным компонентом программы, отражая ту главную идею, согласно которой должен работать компьютер. Однако в соответствии с п. 5 ст. 1259 ГК РФ авторские права не распространяются на идеи, концепции, принципы, методы, процессы, системы, способы решения технических, организационных или иных задач, открытия, факты, языки программирования. В итоге алгоритм как таковой лишен правовой защиты, охраняется лишь его реализация в виде последовательности операций и действий над этими операциями[35]. Это обстоятельство имеет перспективное значение, если иметь в виду использование алгоритмов в государственном управлении в качестве «замены» человека, принимающего решения. В этом смысле алгоритм как бы становится стороной управленческого отношения и «несет обязанности» в отношении граждан, в том числе по соблюдению прав человека.

Тем не менее согласно директиве 91/250/СЕ от 14 мая 1991 г. «О правовой охране компьютерных программ» такая защита предоставлялась только самим программам, но не идеям и принципам, лежащим в основе алгоритма[36]. Это правило сохранилось и в новой директиве 2009/24 от 23 апреля 2009 г.[37]Суд Европейского союза подтвердил изложенную позицию, указав, что защите авторским правом подлежат код-источник (исходный текст) и объектный код компьютерной программы[38].

Между тем не только в зарубежных странах, но и в России на практике осуществляется патентование алгоритмов (в качестве изобретений (способа))[39]. Программные алгоритмы могут быть запатентованы в качестве изобретений в виде технических решений, относящихся к способу (п. 1 ст. 1350 ГК РФ). Но для этого разработчикам необходимо добиться соответствия решения требованию изобретательского уровня и определить ожидаемый материально-технический результат, которого предполагается достичь за счет данного решения[40].

Таким образом, алгоритмы хорошо знакомы праву в качестве объектов регулирования, но праву гражданскому, частному. Для полноценного использования алгоритмов в государственном управлении необходимо публично-правовое регулирование возникающих отношений, что позволит обеспечить защиту прав граждан посредством публично-правовых механизмов.

Широкое распространение ИКТ и в особенности цифровых технологий, их применение в государственном управлении дали основание для введения алгоритмов в поле публичного права. Любопытно, что понятие «алгоритм» в российских нормативных правовых актах почти не употребляется в его техническом значении, а используется для обозначения порядка действий (например, алгоритм (порядок) взаимодействия заинтересованных органов государственной власти при выявлении противоправного контента в сети Интернет, принятый Роскомнадзором).

В Европе тоже избегают понятия «алгоритм». С 1981 г. используется термин «автоматизированная обработка данных», который напоминает алгоритм по содержанию (совокупность действий): автоматизированная обработка включает следующие операции, осуществляемые полностью или частично с помощью автоматизированных средств: хранение данных, осуществление логических и/или арифметических операций с этими данными, их изменение, уничтожение, поиск или распространение (Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.)[41].

Нетрудно заметить, что сфера применения автоматизированной обработки данных ограничена персональными данными, т. е. публично-правовая защита сконцентрирована на человеке с его частной жизнью и персональными данными. Собственно, так и произошло право на защиту персональных данных и была заложена традиция «сопротивления» индивидуальным автоматизированным решениям. Так, Регламент  2018/1725 Европейского парламента и Совета Европейского союза «О защите физических лиц при обработке персональных данных» (п. 43) определяет, что субъект данных должен иметь право не подчиняться решению, которое может включать принятие мер, оценивающих личные аспекты, относящиеся к нему или к ней, которое основывается исключительно на автоматизированной обработке и результатом которого являются юридические последствия в отношении его или ее или которое сходным образом может значительно повлиять на него или на нее, такое как практики электронного подбора кадров без вмешательства человека[42].

В русле европейских правовых позиций выстроен и российский закон. Согласно ст. 16 ФЗ от 27.07.2006 г. «О персональных данных»[43] субъект персональных данных имеет право отказаться от принятия в отношении него решения на основании исключительно автоматизированной обработки персональных данных. К признакам такого решения относится то, что оно порождает юридические последствия в отношении субъекта персональных данных или иным образом затрагивает его права и законные интересы. Отметим, что в данной нормативной установке центр тяжести принятия решения (право выбора) лежит на субъекте персональных данных, гражданине. Действия государства данная норма не ограничивает.

При этом имеется в виду самый широкий круг решений как управленческих, так и любых иных. Обработка персональных данных, осуществляемая в частном секторе, порождает вопросы при заключении и исполнении «договора в онлайн-среде в полностью автоматизированном режиме, например при размещении заказа на приобретение цифрового контента, который становится доступным для загрузки по факту оплаты»[44].

Но вернемся к публичному праву, которое интересуют управленческие решения, принимаемые органами власти на общем уровне в отношении неопределенного или значительного круга лиц (в отношении охраняемых законом ценностей) и на индивидуальном уровне в отношении граждан на основе автоматизированной обработки данных. Если в первом случае нарушения прав человека могут иметь место в обобществленном и массовом виде (официальное утверждение нормативного порядка предоставления льгот на дискриминационной основе), то во втором будет иметь место нарушение права человека как субъективного права, защитить которое можно уже только в индивидуальном порядке. Любопытно, что внедрение алгоритмов, по сути, нивелирует это разграничение и, к примеру, дискриминационная практика реализации алгоритма в отношении конкретных лиц одновременно является массовой (что будет подробнее показано ниже).

Нужно учитывать, что сама идея алгоритма как совокупности инструкций, позволяющих решить проблему и достичь определенного заданного результата, как нельзя лучше отвечает концепции надлежащего, качественного государственного управления, нацеленного на достижение заранее запланированных, ожидаемых результатов, ведь результат управленческой деятельности можно легко заложить в алгоритм принятия управленческого решения. Это дает основания полагать, что в ближайшие годы государство активно займется подобной автоматизацией управленческих решений, а потому необходимо заранее изучить возможные риски. Во всяком случае положение о совместимости алгоритмов и концепции надлежащего государственного управления выдвигается нами в качестве гипотезы настоящего исследования.

Первым делом нужно понять, в каких государственных сферах такая автоматизация может произойти в первую очередь. Поскольку алгоритм последовательность заранее определенных действий, их наибольшая эффективность прогнозируется в сферах, где не приветствуется широта действий органов власти, проще говоря, где нет (и не должно быть) дискреционных полномочий.

Примечания

1

Richard /. Le numerique et les donnees personnelles: quels risques, quelles potential ites?//Revue du droit public et de la science politique en Franceet a Ietran-ger.  2016. No l.-P. 97-108.

2

Bellovin S.M. et al. When Enough Is Enough: Location Tracking, Mosaic Theory, and Machine Learning, https://digitalcommons.law.umaryland.edu/fac_ pubs/1375/.

3

Bosco F., Creemers N., Ferraris V. et al. Profiling Technologies and Fundamental Rights and Values: Regulatory Challenges and Perspectives from European Data Protection Authorities//Reforming European Data Protection Law. S. Gutwirth, R. Leenes, P. de Hert (eds.).  Springer, 2014.

4

Ibidem.

5

Philippe G. LEtat face au defi numerique//International Journal for the Semiotics of Law Revue internationale de Semiotique juridique.  2019. Vol. 32. P. 229231.

6

Song В. The West May Be Wrong About Chinas Social Credit System//New Perspectives Quarterly.  2019. Vol. 36. Is. 1. P. 3335.

7

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law.  2017.-Vol. 12.- 2.-P. 356378.

8

Loge Hanne Haukland Surveillance and human rights in the digital age. A case study of China>s social credit system, https://www.duo.uio.no/han-dle/10852/70583.

9

Bakken B0rge The Exemplary Society. Human Improvement, Social Control, and the Dangers of Modernity in China. New York: Oxford University Press.  2000.

10

Ibidem.

11

Loge Hanne Haukland Surveillance and human rights in the digital age. A case study of China>s social credit system, https://www.duo.uio.no/han-dle/10852/70583.

12

Hoffman S. Programming China: The Communist Partys autonomic approach to managing state security//Merics China Monitor. http://eprints.nottingham. ac.uk/48547/.

13

Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: Chinas Social Credit System as a State Surveillance Infrastructure//Policy & Internet.  2018. Vol. 10. Is. 4. P. 415453.

14

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law.  2017.-Vol. 12.- 2.-P. 356378.

15

Ibidem.

16

Kostka G. Chinas Social Credit Systems and Public Opinion: Explaining High Levels of Approval, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3215138.

17

Song B. The West May Be Wrong About Chinas Social Credit System//New Perspectives Quarterly.  2019. Vol. 36. Is. 1. P. 3335.

18

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law.  2017.-Vol. 12.- 2.-P. 356378.

19

Ibidem.

20

Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: Chinas Social Credit System as a State Surveillance Infrastructure//Policy & Internet.  2018. Vol. 10. Is. 4. P. 415453.

21

Ibidem.

22

Chinas «social credit» scheme involves cajolery and sanctions, https:// www.economist.com/china/2019/03/28/chinas-social-credit-scheme-involves-cajolery-and-sanctions.

23

Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: Chinas Social Credit System as a State Surveillance Infrastructure//Policy & Internet.  2018. Vol. 10. Is. 4. P. 415453.

24

Chinas «social credit» scheme involves cajolery and sanctions, https:// www.economist.com/china/2019/03/28/chinas-social-credit-scheme-involves-cajolery-and-sanctions.

25

Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law.  2017.-Vol. 12.- 2.-P. 356378.

26

Arsene Severine Trust in Ratings: Chinas Social Credit System. http://devl4-7. ysdhk.com/asiaglobalonline/p01/china-social-credit-system/.

27

Loge Hanne Haukland Surveillance and human rights in the digital age.

A case study of China>s social credit system, https://www.duo.uio.no/hand-le/10852/70583.

28

Liang Fan, Das Vishnupriya, Kostyuk Nadiya, and Hussain Muzammil M. Constructing a Data-Driven Society: Chinas Social Credit System as a State Surveillance Infrastructure//Policy & Internet.  2018. Vol. 10. Is. 4. P. 415453.

29

Duclercq J.-B. Le droit public а Гёге des algorithmes//Revue du droit public.  2017.- 5.-P. 14011434.

30

Oxford English Dictionary. Definition of algorithm, https://en.oxforddictionaries, com/definition/algorithm.

31

Gillespie T. The Relevance of Algorithms// Gillespie T., Boczkowski PJ., Foot KA (eds.) Media Technologies: Essays on Communication, Materiality, and Society.  MIT Press, 2014.

32

Mcgregor L., Murray D., Ng V International human rights law as a framework for algorithmic accountability//British Institute of International and Comparative Law.  2019.-Vol. 68.-P. 309343.

33

Benvenisti Е. Upholding Democracy Amid the Challenges of New Technology: What Role for the Law of Global Governance?//European Journal of International Law. 2018.-Vol. 29.-Is. l.-P. 9-82.

34

Близнец И. А., Леонтьев К.Б., Кубышкин А. В. Правовая охрана авторских и смежных прав в Российской Федерации.  М., 2017.

35

Российское гражданское право: учебник: в 2 т. Т. I. Общая часть. Вещное право. Наследственное право. Интеллектуальные права. Личные неимущественные права отв. ред. Е.А. Суханов. М.: Статут, 2015.

36

Директива Совета европейских сообществ от 14 мая 1991 г.  91/250/ ЕЭС «О правовой охране компьютерных программ», http://base.garant.ru/ 2565722/.

37

Директива Европейского парламента и Совета Европейского союза 2009/24/ ЕС от 23 апреля 2009 г. о правовой охране компьютерных программ (кодифицированная версия), http://base.garant.ru/71657620/.

38

Court of Justice of the European Union. Annual report. 2010. https://curia.eu-ropa.eu/jcms/upload/docs/application/pdf/2011-05/ra2010_version_integrale_ en.pdf.

39

Цивилистическая концепция интеллектуальной собственности в системе российского права: монография/ под общ. ред. М. А. Рожковой.  М.: Статут, 2018.

40

Ворожевич А. С. Исключительные права в цифровой сфере: объекты, границы, пределы осуществления (комментарий законодательства)//Современные информационные технологии и право: монография/ отв. ред. Е.Б. Лауте. М.: Статут, 2019.-С. 208233.

41

Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.//Доступ из справочно-правовой системы «КонсультантПлюс».

42

Регламент Европейского парламента и Совета Европейского союза 2018/1725 от 23 октября 2018 г. о защите физических лиц при обработке персональных данных, осуществляемой учреждениями, органами, службами и агентствами Союза, и о свободном обращении таких данных, а также об отмене Регламента (ЕС) 45/2001 и Решения 1247/2002/ЕС. http://base.garant.ru/72759520/.

43

Федеральный закон от 27 июля 2006 г. «О персональных данных»//СЗ РФ.  2006.  31 (ч. 1).  Ст. 3451.

44

Савельев А. И. Научно-практический постатейный комментарий к Федеральному закону «О персональных данных». М.: Статут, 2017.

Назад