ООНГосударство и право

  • ISSN (Print) 1026-9452
  • ISSN (Online)2713-0398

Правовая охрана жизни и здоровья человека в процессе использования искусственного интеллекта

Код статьи
S0020506-6-1
DOI
10.31857/S102694520020506-7
Тип публикации
Статья
Статус публикации
Опубликовано
Авторы
Том/ Выпуск
Том / Номер 4
Страницы
130-140
Аннотация

Российская Федерация в рамках экспериментального правового режима начала апробацию в реальных условиях автоматизированных транспортных средств, управляемых системами искусственного интеллекта. Беспилотные автомобили стали полноценными участниками дорожного движения в нескольких городах. В специальных правовых режимах, созданных для эксплуатации систем искусственного интеллекта, не действуют некоторые федеральные законы и подзаконные акты, что снижает правовые гарантии соблюдения прав человека. В статье рассмотрена ситуация, когда это создает угрозу права на жизнь и здоровье человека. В процессе эксплуатации источника повышенной опасности создатель и пользователь исходят из вероятности причинения вреда третьим лицам. Подобные ситуации будут происходить с автоматизированными транспортными средствами. Это значит, что беспилотному автомобилю придется принимать решения, на кого совершить наезд. Этико-правовая дилемма, когда искусственный интеллект выбирает человека, которому он причинит вред, в отечественном праве не разрешена. Не вызывает сомнений, что подобные вопросы должны отражаться в машинном коде любой информационной системы. Для этого действия создателя систем искусственного интеллекта должны регламентироваться правом. Автором предложена классификация систем искусственного интеллекта, которая позволит создать три модели правового регулирования: системы, регулируемые «мягким» правом, системы, регулируемые машиночитаемым правом, системы, на использование которых введен временный мораторий. Реализация данных предложений будет способствовать охране жизни и здоровья человека в процессе использования искусственного интеллекта без негативного эффекта для развития цифровой технологии.

Ключевые слова
искусственный интеллект, беспилотное транспортное средство, высокоавтоматизированное транспортное средство, робот, робоправо, машиночитаемое право, «мягкое» право, мораторий на использование искусственного интеллекта, классификация систем искусственного интеллекта, киберфизическая система
Дата публикации
29.06.2023
Всего подписок
13
Всего просмотров
438

Введение

Современные государства, как справедливо отмечает А.Н. Савенков, переживают кризис цивилизационного уровня1, что оставляет за пределами зоны внимания органов публичной власти гарантии защиты прав и свобод человека. Это проявляется в сфере использования цифровых технологий, где баланс между скоростью технического прогресса и гарантиями соблюдения естественных прав пока не найден. Например, развитие искусственного интеллекта требует ограничения прав, закрепленных в законодательстве о персональных данных2. При этом новые правовые гарантии защиты прав человека в цифровую эпоху в законодательстве не появляются. Подобное положение дел не допустимо, когда ограничению может подвергнуться право на жизнь и на охрану здоровья человека, что возможно при использовании систем искусственного интеллекта в отдельных сферах, например на транспорте или в медицине.

1. См.: Савенков А.Н. Государство и право в период кризиса современной цивилизации. М., 2020.

2. См.: Минбалеев А.В. Проблемы использования искусственного интеллекта в противодействии киберпреступности // Вестник Южно-Уральского гос. ун-та. Сер.: Право. 2020. Т. 20. № 4. С. 116 - 120.

Случаи причинения физического вреда искусственным интеллектом давно перешли из раздела фантастики в правоприменительную практику. Например, в США рассматривалось дело по фату причинения смерти работнику производственным роботом. По данным истца агрегат, управляемый искусственным интеллектом, зашел в секцию, чего ранее не делал, и, застав пострадавшую врасплох, убил ее3. Подобные случаи не единичны, например, в судах зарубежных государств уже рассматриваются дела по факту ДТП с беспилотными транспортными средствами.

3. См.: Окружной суд США по Западному округу Мичигана (United States District Court Western District Of Michigan Southern Division). URL: >>>>

В ст. 2 Конвенции о защите прав человека и основных свобод4 закреплено, что право каждого лица на жизнь охраняется законом. Аналогичная норма закреплена в ст. 20 Конституции РФ. За ее нарушение Уголовным кодексом РФ установлена уголовная ответственность. В конструкции данной нормы законодатель исходит из наличия воли у лица, нарушившего закон. Если у субъекта нет свободы воли, например, у систем искусственного интеллекта, то подобные правовые гарантий на них не распространяются в полном объеме.

4. См.: СЗ РФ. 2001. № 2, ст. 163.

Сегодня отсутствует ответ на вопрос о юридической ответственности, когда право на жизнь нарушено искусственным интеллектом. В юриспруденции обсуждение этой проблемы концентрируется вокруг охранительной или карательной функции права. Эксперты предлагают варианты наложения наказания на пользователя или создателя, а также введение механизма страхования ответственности5. Подобные идеи, безусловно, заслуживают внимания, но правовых гарантий, способных предупредить причинение вреда жизни и здоровью человека, они не содержат.

5. См.: Liability for artificial intelligence and other emerging digital technologies // European Commission, Directorate-General for Justice and Consumers. Publications Office. 2019. URL: >>>> (дата обращения: 21.04.2022).

Формирования института юридической ответственности в сфере использования систем искусственного интеллекта невозможно без установления границ дозволенного поведения искусственного интеллекта. Когда юристы касаются этой темы, то охрану жизни и здоровья человека они сводят к «законам робототехники», которые не имеют отношения к нормам позитивного права. Вопреки «законам», описанным А. Азимовым, в реальной действительности искусственный интеллект может принимать решение о причинении вреда здоровью человека в рамках своего алгоритма. Например, беспилотный автомобиль в экстренной ситуации сам решает: сбить ему пешехода или съехать с дороги и причинить вред пассажиру. Подобные дилеммы многовариантны, например, перед автомобилем несколько пешеходов, включая малолетних детей, а пассажир в салоне один.

Философско-этические вопросы в сфере цифровых технологий сегодня стоят особенно остро6. Зарубежные государства пытаются решить их актами рекомендательного характера: доклад Всемирной комиссии по этике научных знаний и технологий ЮНЕСКО7, Белая книга ЕС8. Однако этические императивы, заложенные в других национальных культурах, не могут быть безоговорочно приняты отечественной правовой системой.

6. См.: Савенков А.Н. Глобальный кризис современности как предмет философии права // Государство и право. 2019. № 4. C. 5 - 19.

7. См.: Report of COMEST on robotics ethics // SHS/YES/COMEST-10/17/2 REV. 2017. URL: >>>> (дата обращения: 21.04.2022).

8. См.: White Paper. On Artificial Intelligence - A European approach to excellence and trust // Brussels, 19.2.2020 COM(2020) 65 final. URL: >>>> (дата обращения: 21.04.2022).

Современное состояние правовой охраны жизни и здоровья человека

в процессе использования искусственного интеллекта

Использование искусственного интеллекта, как и других цифровых технологий, влечет за собой трансформацию правоотношений в границах двух антагонистических трендов: полный запрет и полная свобода9. Анализ актов органов публичной власти позволяет говорить, что в России превалирует тренд на формирование режима наибольшего благоприятствования для технологий искусственного интеллекта10. Это дало импульс развитию информационных систем в отдельных сферах, например, беспилотные транспортные средства вышли на дороги общего пользования без глобальной перестройки существующих правовых институтов. Это стало возможным благодаря экспериментальным правовым режимам в сфере цифровых инноваций11.

9. См.: Минбалеев А.В. Трансформация регулирования цифровых отношений // Вестник Университета им. О.Е. Кутафина (МГЮА). 2019. № 12. С. 31 - 36.

10. См.: Минбалеев А.В., Евсиков К.С. Информационные технологии противодействия коррупции // Журнал Сибирского федерального ун-та. Сер.: Гуманитарные науки. 2021. Т. 14. № 11. С. 1674 - 1689.

11. См.: Федеральный закон от 31.07.2020 г. № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации» // СЗ РФ. 2020. № 31 (ч. I), ст. 5017.

Московская городская дума одобрила перечень из 140 улиц, для свободного движения беспилотных автомобилей12. Программу экспериментального правового режима утвердило Правительство РФ13. Кроме этой «регуляторной песочницы», в г. Москве есть и другая, позволяющая ограничить на территории города федерального значения действие законодательства о персональных данных14. Этот правовой институт является нормативным барьером для создания систем искусственного интеллекта15. В рамках экспериментального правового режима медики апробировали технологию, что позволило создать несколько стандартов для использования систем искусственного интеллекта в медицинской сфере16. Эти стандарты создаются техническим комитетом по стандартизации № 164 «Искусственный интеллект» (далее – ТК 164), который является постоянно действующим национальным органом по стандартизации17, созданным в соответствии с ISO/IEC JTC 1/SC 42 “Artificial intelligence”18. Эффективность этих документов пока оценить затруднительно, так как системы искусственного интеллекта существуют в «регуляторных песочницах», где стандарты и иные нормативные правовые акты применяются не в полном объеме.

12. См.: протокольное решение Московской городской Думы «Об установлении экспериментального правового режима в сфере цифровых инноваций по эксплуатации высокоавтоматизированных транспортных средств». URL: >>>> (дата обращения: 21.04.2022).

13. См.: постановление Правительства РФ от 09.03.2022 г. № 309 «Об установлении экспериментального правового режима в сфере цифровых инноваций и утверждении Программы экспериментального правового режима в сфере цифровых инноваций по эксплуатации высокоавтоматизированных транспортных средств» // СЗ РФ. 2022. № 12, ст. 1817.

14. См.: Федеральный закон от 24.04.2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» // СЗ РФ. 2020. № 17, ст. 2701.

15. См.: Полякова Т.А., Минбалеев А.В. Глобальное информационное общество в условиях цифровизации и новых вызовов: правовые проблемы и исследования // Труды ИГП РАН. 2020. Т. 15. № 2. С. 199 - 210.

16. См.: Разработки столичных врачей по искусственному интеллекту стали основой федеральных стандартов. URL: >>>> (дата обращения: 21.04.2022).

17. См.: приказ Росстандарта от 25.07.2019 г. № 1732 «О создании технического комитета по стандартизации «Искусственного интеллекта». URL: >>>> (дата обращения: 21.04.2022).

18. См.: URL: >>>> (дата обращения: 21.04.2022).

Появление «регуляторных песочниц» поддерживается не всегда, например, группа парламентариев внесла законопроект о моратории на создание экспериментального правового режима в городе Москве до 2025 года19. Вызывает сожаление, что законопроект направлен не на адаптацию норм права к изменениям в обществе, а на запрещение инновационной технологии, что нельзя оценить положительно. Справедливо отмечается, что «регуляторные песочницы» эффективны на первоначальной стадии развития цифровой технологии, но не заменяют комплексное изменение законодательства20. Борьба с технологиями вместо их регулирования контрпродуктивна, а при причинении вреда жизни или здоровью человека, который, безусловно, может произойти, станет проблемой для развития искусственного интеллекта в России. Представляется, что юриспруденция может решить данную проблему путем установления нормативных требований к создателю об обязательном формировании встроенных протоколов допустимого поведения искусственного интеллекта.

19. См.: Законопроект № 950900-7. URL: >>>> (дата обращения: 21.04.2022).

20. Итоговый аналитический отчет «Законодательное регулирование использования и развития технологий робототехники и искусственного интеллекта, зарубежный опыт» подготовлен под руководством А.В. Минбалеева (см.: Аналитический вестник. М., 2020. С. 129–134).

Методология исследования правовой охраны жизни и здоровья человека в процессе использования искусственного интеллекта

Методологию юридической науки составляет совокупность правил и принципов познания, определяющих рациональный путь движения к достоверным знаниям о предмете и объекте исследования21. Выбор конкретного метода и последовательность их использования определяется исследователем, исходя из особенностей анализируемых общественных отношений и целей, к достижению которых он стремиться. В информационном праве целесообразна комбинаций методов исследования22. В настоящей статье использованы следующие из них: 1) метод сбора эмпирической информации, реализованный через интервьюирование экспертного сообщества, выделение норм права, относящихся к тематике исследования, поиска и толкования правоприменительных актов, юридических казусов, неофициальной правовой информации; 2) метод обобщения, реализованный через сравнительно-правовой анализ источников права и проектов нормативных правовых актов, моделирование общественных отношений во взаимосвязи с существующей правовой системой; 3) догматический метод, реализованный через анализ правовых концепций, имеющих значение для построения правовой модели, обеспечивающей охрану жизни и здоровья человека в процессе использования искусственного интеллекта; 4) метод системных исследований, реализованный путем построения системно-структурных категорий в сфере регулирования искусственного интеллекта, а также через восхождение от абстрактного этико-правового регулятора к общественным отношениям, требующим нормативной регламентации.

21. См.: Сырых В.М. История и методология юридической науки: учеб. М., 2012. С. 91; см. также: Кроткова Н.В. История и методология юридической науки («Круглый стол» кафедры теории государства и права и политологии юридического факультета МГУ им. М.В. Ломоносова и журнала «Государство и право») // Государство и право. 2016. № 4. С. 5–31.

22. См.: Полякова Т.А., Минбалеев А.В., Кроткова Н.В. Формирование системы информационного права как научного направления: этапы развития и перспективы // Государство и право. 2019. № 2. С. 80–92. DOI: 10.31857/S013207690003854-1; Их же. Развитие науки информационного права и правового обеспечения информационной безопасности: формирование научной школы информационного права (прошлое и будущее) // Государство и право. 2021. № 12. С. 97–108. DOI: 10.31857/S102694520017761-8; Их же. Основные тенденции и проблемы развития науки информационного права // Государство и право. 2022. № 9. С. 94–104. DOI: 10.31857/S102694520022203-4

Центральным местом в методологии исследования является использование догматических методов, поскольку в России концепция правовой охраны жизни и здоровья человека в процессе использования искусственного интеллекта в стадии формирования.

Важно отметить, что настоящая статья содержит субъективное восприятие этичности регулирования новых общественных отношений, которое не может рассматриваться как моральный императив. Следовательно, статья не содержит единственного варианта правовой регламентации, но несет аксиологическое значение, что обеспечивает метод социально-гуманитарной рациональности. Под социально-гуманитарной рациональностью понимается совокупность требований, которым должно удовлетворять социально-гуманитарное знание: социально-ценностная объектность, рефлексивность, системность, культурологическая обоснованность, адаптивная полезность, открытость к критике, возможность изменения23. Познание закономерных связей и корреляций между защитой прав человека и технологиями искусственного интеллекта сложный процесс с множеством неизвестных.

23. См.: Философия науки: учеб. пособие для вузов / С.А. Лебедев. 2-е изд., перераб. и доп. М., 2022. С. 249.

Понятийный аппарат регулирования использования искусственного интеллекта

Важно отметить, что публикации по вопросам регулирования использования искусственного интеллекта24, не решили проблему понятийного аппарата, которую эксперты называют ключевой задачей для данного правового института25. Более того, у представителей других отраслей права произошло смешивание понятия робот и искусственный интеллект26, что недопустимо и ведет к логическим ошибкам.

24. См.: Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. № 6 (55). С. 46 - 62.

25. См.: Незнамов А.В., Наумов В.Б. Стратегия регулирования робототехники и киберфизических систем // Закон. 2018. № 2. С. 69 - 89.

26. См.: Афанасьев С.Ф. К вопросу о законодательном регулировании искусственного интеллекта // Росс. юстиция. 2020. № 7. С. 46–49; Липчанская М.А., Заметина Т.В. Социальные права граждан в условиях использования искусственного интеллекта: правовые основы и пробелы законодательного регулирования в России // Журнал росс. права. 2020. № 11. С. 78–96.

В информационном праве выделено несколько отличий робота от искусственного интеллекта27. Самый подробный перечень содержится в проекте Конвенции по робототехнике и искусственному интеллекту28. Робот – исполнительный механизм, программируемый по двум или более степеням подвижности, обладающий определенной степенью автономности и способный перемещаться во внешней среде с целью выполнения задач по назначению29. Аналогичный термин используется в международных стандартах30. Из анализа существующих исследований и указанных документов можно выделить правовую аксиому «искусственный интеллект является необязательным признаком робота, а одной из форм управления им».

27. См.: Незнамов А.В. О концепции регулирования технологий искусственного интеллекта и робототехники в России // Закон. 2020. № 1. С. 171–185.

28. См.: Регулирование робототехники: введение в «робоправо». Правовые аспекты развития робототехники и технологий искусственного интеллекта / под ред. А.В. Незнамова. М., 2018.

29. См.: пункт 2.6 ГОСТ Р 60.0.0.4-2019/ИСО 8373:2012 Роботы и робототехнические устройства. Термины и определения. М., 2019.

30. См.: ISO 8373:2012. «Роботы и робототехнические устройства. Термины и определения». URL: >>>> (дата обращения: 21.04.2022).

Искусственный интеллект определяется как комплекс технологических решений, позволяющих имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека31. Подобное определение нельзя назвать бесспорным, а если исходить из его буквального толкования, то к данной цифровой технологии можно отнести многозадачный калькулятор, также имитирующий когнитивный процесс.

31. См.: Федеральный закон от 24.04.2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”» (п. 2 ст. 2) // СЗ РФ. 2020. № 17, ст. 2701.

Не вносят ясность в терминологии стандарты, которых ТК 164 принял более 2032. Например, в ГОСТ Р 59895-202133 содержится термин, созвучный с вышеописанным, а в предварительном национальном стандарте ПНСТ 553-2021, действовавшим с 01.03.2022 г. по 01.03.2023 г., даны иные определения искусственному интеллекту: способность приобретать, обрабатывать, создавать и применять знания, определенные в форме модели, для выполнения одной или нескольких поставленных задач; дисциплина о создании и изучении искусственного интеллекта34.

32. Утвержденные стандарты (см.: URL: >>>> (дата обращения: 21.04.2022)).

33. См.: ГОСТ Р 59895-2021 Технологии искусственного интеллекта в образовании. Общие положения и терминология // СПС Кодекс.

34. См.: ПНСТ 553-2021 Информационные технологии. Искусственный интеллект. Термины и определения // Там же.

Учитывая невозможность использования столь широких и разнообразных дефиниций, в праве одновременно предлагается сформировать юридически значимое определение. Для этого в процессе исследования выделены признаки искусственного интеллекта, имеющие первоочередное значение для права.

1. Система искусственного интеллекта - это всегда программа, но не всегда физическая технология. Информационная система может управлять беспилотным автомобилем, а может решать аналитические задачи, подсказывая диагноз врачу. При этом в обоих случаях технология признается искусственным интеллектом и требует специальной правовой регламентации.

2. Система искусственного интеллекта - это информационная система, действующая по алгоритму, созданному не человеком. Если код системы создан человеком, то специальный правовой режим для нее не требуется. Если информационная система создана другой информационной системой, то алгоритм не может быть полностью понятен человеку, что создает угрозу его безопасности в процессе эксплуатации технологии.

3. Система искусственного интеллекта - это информационная система, формируемая на основе анализа большого объема данных, качество которых влияет на корректность её алгоритма. Если систему учить писать судебные решения на основе судебных актов, принятых с нарушением закона, то алгоритм будет писать решения суда с нарушением норм права.

4. Система искусственного интеллекта - это информационная система, которая может совершенствоваться в процессе работы (самообучаться). Особенностью систем искусственного интеллекта является, то, что алгоритмы меняются в процессе эксплуатации, а, значит, его поведение не зависит от воли создателя или пользователя. Это создает угрозы экзистенциального характера.

На основании этих ключевых признаков предлагается следующее определение искусственному интеллекту - это информационная система, алгоритм работы которой создан не человеком, а путем самообучения, которое может продолжаться постоянно. Вместе с тем это делает ее работу полностью не прогнозируемой пользователем и создателем.

Классификация систем искусственного интеллекта для целей правовой регламентации

Учитывая тот факт, что используемое в нормативных актах определение искусственного интеллекта, а также дефиниция, предложенная в настоящей статье, включает множество видов информационных систем, целесообразно их классифицировать. Варианты классификации технологии в нормативных правых актах уже существуют. Например, Минэкономразвития России утвердило перечень технологий, которые можно отнести к искусственному интеллекту35. Указанный государственный орган публичной власти разделяет их по трем основаниям(критериям: а) по базовой технологии (компьютерное зрение, обработка естественного языка, распознавание и синтез речи, интеллектуальная поддержка принятия решений, перспективные методы искусственного интеллекта); б) по методу работы (автономное решение различных задач, автоматический дизайн физических объектов, автоматическое машинное обучение, алгоритмы решения задач на основе данных с частичной разметкой и (или) незначительных объемов данных, обработка информации на основе новых типов вычислительных систем, интерпретируемая обработка данных и др.); в) по поставленным задачам, которых регулятор выделил 88 (дедукция и идентификация объектов, задачи диалогового интеллекта, предиктивный и прескриптивный анализ и др.).

35. См.: приказ Минэкономразвития России от 29.06.2021 г. № 392 «Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта» (Зарегистрировано в Минюсте России 28.07.2021 г. № 64430) // Официальный интернет-портал правовой информации www.pravo.gov.ru (дата обращения: 21.04.2022).

Однако полагаем, что Перечень нельзя использовать для модельного правового регулирования, так как он не отражает общественную опасность разных технологий и их ключевые признаки. При использовании данной классификации можно только установить единый правовой режим для всех информационных систем, что может значительно замедлить развитие технологии. Более перспективной, с точки зрения юридической техники, является классификация, приведенная в документах ТК 164, где предложено 12 оснований деления, в том числе по методам достижения интеграции и интероперабельности, по управлению знаниями, моделям и методам обучения, по функциям контура управления36. Однако использовать эту классификацию для модельного правового регулирования представляется весьма затруднительным из-за её высокой технической детализации. Анализ указанных документов и эмпирического материала позволил прийти к выводу, что для охраны жизни и здоровья человека в процессе использования искусственного интеллекта достаточно классификации по двум основаниям: изменяемости алгоритма, т.е. возможности корректировки машинного кода программой без участия человека в процессе эксплуатации; автономности системы, т.е. возможности программы воздействовать на физическую реальность без санкционирования ее действий человеком.

36. См.: ГОСТ Р 59277-2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта» // СПС Кодекс.

Эти юридически значимые признаки позволяют разделить системы искусственного интеллекта на четыре группы:

  1. по способу изменяемости: искусственный интеллект с «пассивным» алгоритмом – предназначен для достижения поставленной человеком цели, не изменяемым в процессе работы; искусственный интеллект с «активным» алгоритмом - предназначен для достижения поставленной человеком цели, меняющимся в процессе работы.
  2. по степени автономности: искусственный интеллект с полуавтономным режимом работы – влияет на реальную действительность опосредовано через санкционирование его действий человеком; искусственный интеллект с автономным режимом работы – влияет на реальную действительность без одобрения или санкционирования его действий человеком.

Предложенная классификации позволяет создать несколько моделей правового регулированию для охраны жизни и здоровья человека в процессе использования искусственного интеллекта.

Модели правовой регламентация искусственного интеллекта для охраны жизни и здоровья человека

Анализ эмпирического материала позволяет сформулировать вывод о том, что регулирование всех общественных отношений, возникающих в процессе использования искусственного интеллекта, затруднительно. Одновременно некоторые казусы требуют правовой регламентации в силу их влияния на жизнь и здоровье человека. Их условно можно разделить на две группы.

1. Причинение вреда жизни и здоровью человека системой искусственного интеллекта, не имеющей прямого воздействия на объект физического мира. Примером таких ситуаций являются случаи неверного решения выданного информационной системой пользователю, принимающему окончательное решение.

2. Причинение вреда жизни и здоровью человека системой искусственного интеллекта, управляющего объектом физической реальности. Примером таких ситуаций может быть ДТП с участием беспилотного транспортного средства или несчастный случай, спровоцированный производственным роботом.

Для создания правовых механизмов защиты прав человека от подобных ситуаций, учитывая предложенную в данной статье классификацию систем искусственного интеллекта, предлагается создание нескольких правовых моделей его регулирования.

1. Модель «мягкого» права для информационных систем, с «пассивным» и «активным» алгоритмом полуавтономной работы. Для охраны жизни и здоровья человека при использовании подобных систем целесообразно исходить из юридической ответственности лица, эксплуатирующего систему, если не доказано иное (prima facie). При этом ответственность в порядке суброгации может перейти на создателя, если он не довел достоверную информацию о ключевых показателях работы системы до пользователя.

В данной модели предполагается создание минимальной правовой регламентации с преобладанием элементов саморегулирования. Представляется, что существующих правовых институтов (сертификации и юридической ответственности) достаточно для охраны жизни и здоровья человека в процессе использования подобных систем искусственного интеллекта.

2. Модель машиночитаемого права для информационных систем с «пассивным» алгоритмом и автономным режимом работы. Примером таких технологий являются высоко автономные транспортные средства. Модель предполагает использование императивных правовых норм, направленных на регламентацию деятельности создателей информационных систем. Предполагается установление для них обязанности по трансформированию права в нормы-кода, ограничивающие протоколы искусственного интеллекта.

3. Модель правового моратория для информационных систем с «активным» алгоритмом и автономным режимом работы. Полагаем, что подобные информационные системы должны быть ограничены в обороте как сложно контролируемый источник повышенной опасности. Информационная система, отвечающая подобным характеристикам, является источником экзистенциальной угрозы, поэтому возможность ее применения в обычной жизни в условиях незрелости технологии высокого риска для жизни и здоровья человека.

Охрана жизни и здоровья человека в процессе использования искусственного интеллекта в рамках модели машиночитаемого права

В Послании Президента РФ Федеральному Собранию Российской Федерации 2020 г. отмечалось, что «скорость технологических изменений в мире многократно возрастает, и мы должны создать собственные технологии и стандарты по тем направлениям, которые определяют будущее. Речь прежде всего об искусственном интеллекте …»37. Аналогичная позиция закреплена в стратегических документах, например, в Национальной стратегии развития искусственного интеллекта на период до 2030 г.38, Перечне поручений по итогам конференции по искусственному интеллекту39 и т.д. Однако стандарты, гарантирующие охрану жизни и здоровья человека в процессе использования искусственного интеллекта, не появились. Следовательно, нет обязательных требований, которым должна следовать информационная система, например, не допускать причинение вреда жизни и здоровью человека.

37. Росс. газ. 2020. 16 янв.

38. См.: Указ Президента РФ от 10.10.2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // СЗ РФ. 2019. № 41, ст. 5700.

39. См.: Перечень поручений по итогам конференции по искусственному интеллекту (утв. Президентом РФ 31.12.2020 г. № Пр-2242) // В официальных источниках опубликован не был.

Исследование, проведенное нами в 2021 г., показало, что большинство отечественных юристов указывают на наличие в законе запрета искусственному интеллекту убить человека40. Однако участники исследования затруднились сказать, в каком нормативном правовом акте он содержится. Некоторые специалисты в области конституционного права указывали на Конституцию РФ, закрепляющую право каждого на жизнь. Другие - оперировали нормами Уголовного кодекса РФ. Одновременно все соглашались, что искусственный интеллект субъектом права или преступления быть не может. Для разрешения правовой коллизии в научной литературе предлагается считать субъектом преступления создателя системы искусственного интеллекта или пользователя41. Однако интервьюируемые, придерживающиеся схожей точки зрения, не смогли предложить решение, если создателем системы искусственного интеллекта является другая программа или искусственный интеллект самостоятельно меняет алгоритм своей работы самосовершенствуясь (самообучаясь).

40. Исследование проводилось под руководством автора с 31.05.2021 г. по 10.12.2021 г. методом интервьюирования. В исследовании приняли участие 117 юристов: 71 практик и 46 преподавателей юридических дисциплин, в том числе 31 преподаватель, имеющий ученую степень и / или ученое звание.

41. См.: Грачева Ю.В., Арямов А.А. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности // Актуальные проблемы росс. права. 2020. № 6. С. 169 - 178.

Затруднение интервьюированных вполне понятно. Включить в нормативные правовые акты запрет искусственному интеллекту убить человека затруднительно. Этот императив будет похож на закон, запрещающий дикому животному причинять вред здоровью человека. Для животного позитивного права не существует, как и для искусственного интеллекта. Первое действует на основе инстинктов, заложенных природой, а второй на основании алгоритмов, написанных другой программой. Разрешить эту проблему способно машиночитаемое право, под которым в юриспруденции понимается набор правовых норм на формальном языке (в том числе языке программирования, языке разметки), а инструменты применения таких норм в виде необходимых информационных систем и программного обеспечения42. Хотя в информационном праве не анализировались все возможности использования онтологических моделей машинного права для ограничения свободы действия искусственного интеллекта43, но идея кода как источника права (lex informatica) уже положительно оценена многими авторами44.

42. См.: Концепция развития технологий машиночитаемого права, утвержденная Правительственной комиссией по цифровому развитию, использованию информационных технологий для улучшения качества жизни и условий ведения предпринимательской деятельности, протокол от 15.09.2021 г. № 31 // В официальных источниках опубликована не была.

43. См.: Янковский Р., Вашкевич А., Иванов А. и др. Машиночитаемое право: правовой вызов современности // Закон. 2021. № 10. С. 20 - 26.

44. См.: Ефимова Л.Г. Источники правового регулирования общественных отношений в киберпространстве // Lex russica. 2020. № 3. С. 114 - 120.

Важно отметить, что пока отечественная юриспруденция не готова к полноценному использованию данного правового средства для охраны жизни и здоровья человека при использовании искусственного интеллекта. Например, при эксплуатации беспилотных транспортных средств обществу необходимо выбрать, должен ли искусственный интеллект сбивать пешехода, нарушающего ПДД, или, действуя в рамках теории утилитаризма, выбирать иную траекторию движения.

Россия не единственная страна, развивающая данную технологию, а следовательно, может возникнуть желание у отечественных правоприменителей использовать зарубежный опыт. Данное решение будет ошибочным, так как этико-правовая концепция должного поведения искусственного интеллекта должна основываться на культурном коде нации, а не компаративистских исследованиях. Для формирования этики использования искусственного интеллекта целесообразно создать платформу для исследования мнения общества. Подобные аналитические проекты проводятся и в других государствах. Например, в США собирают мнения о допустимых действиях беспилотного автомобиля при приучении вреда жизни и здоровью человека в экстремальных ситуациях45. Так, Массачусетский технологический институт предложил людям выбрать приемлемый протокол для систем искусственного интеллекта в следующей ситуации - «у автомобиля отказали тормоза и перед ним выбор: сбить переходящих дорогу пятерых пожилых людей или свернуть в сторону, задавив женщину с коляской». Несмотря на сложность выбора, нормы-коды, созданные по результатам сбора мнений о подобные ситуациях, могут стать единственной правовой гарантией охраны жизни и здоровья человека при использовании искусственного интеллекта.

45. См.: URL: >>>> (дата обращения: 21.04.2022).

Заключение

Обобщая изложенное, можно сформулировать несколько выводов.

В Российской Федерации уже используются технологии искусственного интеллекта, однако нормативные акты, регулирующие этот процесс, создают терминологическую путаницу и правовые коллизии46, что препятствует развитию цифровой технологии47 и ведет к необоснованным угрозам жизни и здоровью человека.

46. См.: Егорова М.А., Барабашев А.Г., Минбалеев А.В. Роль искусственного интеллекта в условиях пандемии // Юрид. мир. 2020. № 5. С. 29.

47. См.: Дюфло А., Егорова М.А., Минбалеев А.В., Пономарева Д.В. Тенденции правового регулирования искусственного интеллекта в Российской Федерации и во Французской Республике // Вестник Университета им. О.Е. Кутафина (МГЮА). 2020. № 9. С. 223 - 229.

Процесс эволюции общественных отношений и развитие цифровых технологий заставляет пересмотреть конструкции многих правовых институтов48. Среди них право на жизнь, которое не подвергалось трансформации длительный период времени.

48. См.: Полякова Т.А. Глобализация и национальная стратегия построения информационного общества в России // Человек: преступление и наказание. 2007. № 4 (59). С. 24 - 28.

Онтологические вопросы: «Запрещается ли искусственному интеллекту причинить вред человеку?», «Если искусственный интеллект должен выбирать, кому из людей причинить вред, то чем он должен руководствоваться?» пока остаются без должного осмысления. Если отечественное право не установит, что должен делать искусственный интеллект в той или иной ситуации, то при возникновении неблагоприятных кейсов затруднительно будет говорить о нарушении технологией или создателем действующего законодательства.

Представляется целесообразным инициировать дискуссию с фиксированием общественного мнения по этико-правовым аспектам использования цифровой технологии. Результатом ее должны стать правовые императивы, обязательные для создателя искусственного интеллекта. Императивы, используя механизмы машиночитаемого права, должны быть включены в программный код информационных систем, эксплуатируемых в Российской Федерации. Это предложение может стать фундаментом правовой охраны жизни и здоровья человека в процессе использования данной цифровой технологии.

Библиография

  1. 1. Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. № 6 (55). С. 46 - 62.
  2. 2. Афанасьев С.Ф. К вопросу о законодательном регулировании искусственного интеллекта // Росс. юстиция. 2020. № 7. С. 46–49.
  3. 3. Грачева Ю.В., Арямов А.А. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности // Актуальные проблемы росс. права. 2020. № 6. С. 169 - 178.
  4. 4. Дюфло А., Егорова М.А., Минбалеев А.В., Пономарева Д.В. Тенденции правового регулирования искусственного интеллекта в Российской Федерации и во Французской Республике // Вестник Университета им. О.Е. Кутафина (МГЮА). 2020. № 9. С. 223 - 229.
  5. 5. Егорова М.А., Барабашев А.Г., Минбалеев А.В. Роль искусственного интеллекта в условиях пандемии // Юрид. мир. 2020. № 5. С. 29.
  6. 6. Ефимова Л.Г. Источники правового регулирования общественных отношений в киберпространстве // Lex russica. 2020. № 3. С. 114 - 120.
  7. 7. Законодательное регулирование использования и развития технологий робототехники и искусственного интеллекта, зарубежный опыт / рук. исследования А.В. Минбалеев // Аналитический вестник. М., 2020. С. 129–134.
  8. 8. Кроткова Н.В. История и методология юридической науки («Круглый стол» кафедры теории государства и права и политологии юридического факультета МГУ им. М.В. Ломоносова и журнала «Государство и право») // Государство и право. 2016. № 4. С. 5–31.
  9. 9. Липчанская М.А., Заметина Т.В. Социальные права граждан в условиях использования искусственного интеллекта: правовые основы и пробелы законодательного регулирования в России // Журнал росс. права. 2020. № 11. С. 78–96.
  10. 10. Минбалеев А.В. Проблемы использования искусственного интеллекта в противодействии киберпреступности // Вестник Южно-Уральского гос. ун-та. Сер.: Право. 2020. Т. 20. № 4. С. 116 - 120.
  11. 11. Минбалеев А.В. Трансформация регулирования цифровых отношений // Вестник Университета им. О.Е. Кутафина (МГЮА). 2019. № 12. С. 31 - 36.
  12. 12. Минбалеев А.В., Евсиков К.С. Информационные технологии противодействия коррупции // Журнал Сибирского федерального ун-та. Сер.: Гуманитарные науки. 2021. Т. 14. № 11. С. 1674 - 1689.
  13. 13. Незнамов А.В. О концепции регулирования технологий искусственного интеллекта и робототехники в России // Закон. 2020. № 1. С. 171–185.
  14. 14. Незнамов А.В., Наумов В.Б. Стратегия регулирования робототехники и киберфизических систем // Закон. 2018. № 2. С. 69 - 89.
  15. 15. Полякова Т.А. Глобализация и национальная стратегия построения информационного общества в России // Человек: преступление и наказание. 2007. № 4 (59). С. 24 - 28.
  16. 16. Полякова Т.А., Минбалеев А.В. Глобальное информационное общество в условиях цифровизации и новых вызовов: правовые проблемы и исследования // Труды ИГП РАН. 2020. Т. 15. № 2. С. 199 - 210.
  17. 17. Полякова Т.А., Минбалеев А.В., Кроткова Н.В. Основные тенденции и проблемы развития науки информационного права // Государство и право. 2022. № 9. С. 94–104. DOI: 10.31857/S102694520022203-4
  18. 18. Полякова Т.А., Минбалеев А.В., Кроткова Н.В. Развитие науки информационного права и правового обеспечения информационной безопасности: формирование научной школы информационного права (прошлое и будущее) // Государство и право. 2021. № 12. С. 97–108. DOI: 10.31857/S102694520017761-8
  19. 19. Полякова Т.А., Минбалеев А.В., Кроткова Н.В. Формирование системы информационного права как научного направления: этапы развития и перспективы // Государство и право. 2019. № 2. С. 80–92. DOI: 10.31857/S013207690003854-1
  20. 20. Регулирование робототехники: введение в «робоправо». Правовые аспекты развития робототехники и технологий искусственного интеллекта / под ред. А.В. Незнамова. М., 2018.
  21. 21. Савенков А.Н. Глобальный кризис современности как предмет философии права // Государство и право. 2019. № 4. C. 5 - 19.
  22. 22. Савенков А.Н. Государство и право в период кризиса современной цивилизации. М., 2020.
  23. 23. Сырых В.М. История и методология юридической науки: учеб. М., 2012. С. 91.
  24. 24. Философия науки: учеб. пособие для вузов / С.А. Лебедев. 2-е изд., перераб. и доп. М., 2022. С. 249.
  25. 25. Янковский Р., Вашкевич А., Иванов А. и др. Машиночитаемое право: правовой вызов современности // Закон. 2021. № 10. С. 20 - 26.
QR
Перевести

Индексирование

Scopus

Scopus

Scopus

Crossref

Scopus

Высшая аттестационная комиссия

При Министерстве образования и науки Российской Федерации

Scopus

Научная электронная библиотека