- Код статьи
- S102694520024146-1-1
- DOI
- 10.31857/S102694520024146-1
- Тип публикации
- Статья
- Статус публикации
- Опубликовано
- Авторы
- Том/ Выпуск
- Том / Номер 1
- Страницы
- 68-78
- Аннотация
Политические боты стали важным инструментом политтехнологов. Во всех важнейших электоральных процессах в мире было зафиксировано активное использование чат-ботов в социальных сетях. При этом исследователи выявили негативное влияние таких ботов на политические процессы. Деструктивный характер политических ботов заключается в том, что они являются цифровыми инструментами манипулирования общественным сознанием. В связи с этим возникает необходимость в установлении правовых рамок и границ для использования таких систем искусственного интеллекта в социополитических коммуникациях. На основе анализа опыта зарубежных стран в статье обоснована необходимость законодательного закрепления принципа прозрачности систем искусственного интеллекта, что позволит обязать разработчиков и владельцев таких систем маркировать их. Информирование пользователей о том, что они взаимодействует с системой искусственного интеллекта, позволит снизить риск манипулирования общественным сознанием.
- Ключевые слова
- искусственный интеллект, политические чат-боты, социальные сети, политические технологии, правовое регулирование ИИ, прозрачность ИИ, маркировка ботов
- Дата публикации
- 20.02.2023
- Всего подписок
- 16
- Всего просмотров
- 749
Введение
Технологии искусственного интеллекта (ИИ) все активнее проникают во все сферы общественной жизни современного общества, существенно изменяя его. Однако не все происходящие изменения носят позитивный характер. Многие вопросы, связанные с применением искусственного интеллекта, вызывают обоснованные опасения и становятся объектом острых дискуссий. Одна из таких дискуссий ведется по поводу негативного влияния чат-ботов на политические процессы. Использование политических чат-ботов было выявлено в ходе проведения голосований по Брекзиту1, выборам президента США в 2016 г.2, отделению Каталонии3 и др. Нельзя не признать, что именно успешная предвыборная кампания экс-президента США Д. Трампа, которую он активно проводил в социальных сетях, обусловила обсуждение в зарубежном экспертном и научном сообществе перспектив правового регулирования использования ботов в социально-политических коммуникациях4.
Российские политологи и социологи также изучают использование ботов в социальных сетях, прогнозируя возможные политические риски5. Однако исследования о применении политических ботов (политботов) во внутриполитической жизни страны отсутствуют, основной акцент делается на внешнеполитические угрозы6. По мнению исследователей, политботы могут использоваться недружественными странами для дестабилизации обстановки в стране, особенно в условиях обострившегося геополитического противостояния. В связи с этим представляется актуальным исследовать необходимость установления правовых рамок и границ для использования таких интеллектуальных систем в социополитической коммуникации.
6. См.: Чесноков В.О. Применение алгоритма выделения сообществ в информационном противоборстве в социальных сетях // Вопросы кибербезопасности. 2017. № 1. С. 37 - 44.
Понятие и виды политботов
Под ботами понимаются автоматизированные или полуавтоматизированные программы, создаваемые на основе технологий искусственного интеллекта. Многообразие ботов нашло отражение в классификациях, предлагаемых исследователями. Так, Robert Gorwa и Douglas Guilbeault предложили выделять следующие виды ботов:
веб-роботы (краулеры и скреперы);
чат-боты (диалоговые системы «человек-компьютер», использующие естественный язык посредством текста или речи);
спам-боты;
социальные боты (различные системы автоматизации, работающие на платформах социальных сетей);
“sockpuppets” и тролли (поддельные личности, используемые для взаимодействия с обычными пользователями в социальных сетях);
киборги и гибридные аккаунты (боты, управляемые человеком).
Несмотря на широкое распространение данной типологии ботов в научной литературе, следует признать, что исследователям не удалось выделить и обосновать четкие критерии классификации. В представленной типологии имеет место простое перечисление различных видов ботов. Представляется, что к чат-ботам относятся социальные боты, которые, в свою очередь. могут быть “sockpuppets”, троллями, киборгами, гибридными аккаунтами.
Чат-боты - широкое понятие, объединяющее автоматизированные / полуавтоматизированные интеллектуальные системы. Они имитируют диалог с человеком, что позволяет выполнять запросы пользователей цифровой платформы без привлечения человеческих ресурсов. Чат-боты получили широкое распространение в самых различных сферах: финансовой, здравоохранения, образования, правовых услуг и др. Они активно используются для онлайн-консультаций, ответов на стандартные вопросы пользователей, организации сервисных рассылок и т.д. Таким образом, основная функция ботов заключается в распространении информации.
В социальных сетях чат-боты играют важную роль в коммуникациях с пользователями. Под социальным ботом понимается учетная запись, оснащенная программным обеспечением для автоматизации взаимодействия с другими учетными записями пользователей, прежде всего реальных людей. Создатели социальных ботов стремятся к максимальной имитации учетных записей реальных пользователей соцсети, в том числе путем размещения соответствующего контента (фальшивых фотографий и т.д.), чтобы у пользователя не возникало сомнение, что он получает сообщения от реального человека. Тем не менее существуют определенные признаки, по которым можно вычислить такие фейковые аккаунты (например, распространение одинаковых сообщений в одно и то же время). Следует особо отметить, что для создания ботов используются специальные сервисы, причем один сервис может обеспечивать разработку чат-ботов для нескольких разных социальных платформ.
Фейковые аккаунты могут использоваться пользователями соцсетей в различных целях (например, для «раскрутки» личного блога с целью увеличения числа подписчиков). В тех случаях, когда такие социальные боты участвуют в политических коммуникациях, например, в рамках обсуждения политических вопросов, в электоральном процессе и т.д., они могут обозначаться как политические боты. Наиболее часто политботы используются политтехнологами для формирования общественного мнения по самым острым проблемам.
Влияние политботов на политические коммуникации
Механизм функционирования политботов в социальных сетях и их влияние на политические процессы стали объектом многочисленных исследований. Сложность таких исследований заключается в непрозрачности алгоритмов («черный ящик»), что затрудняет понимание того, как проявляется их влияние. Зарубежные ученые активно изучают использование политботов в конкретных социальных сетях7, что позволяет им выявлять общие закономерности их применения в политических коммуникациях.
Изначально привлекательность политботов обусловливалась их широкими возможностями по распространению информации в социальных сетях благодаря сетевому эффекту. Для проведения политической кампании важно создать впечатление, что большое количество людей поддерживают кандидата или определенную позицию по вопросу, имеющему политическое значение. При отсутствии достаточного количества сторонников или финансов для их привлечения решением проблемы может быть использование политботов – фейковых учетных аккаунтов8. С помощью политботов, запрограммированных на распространение определенных мнений, суждений, мемов, ссылок на онлайн-ресурсы, в политическую кампанию вовлекаются реальные пользователи соцсетей, на которых подписываются боты. При этом у реальных пользователей сетей формируется ложное представление о политических предпочтениях большинства, что оказывает влияние и на их собственную позицию.
Как отмечают исследователи, люди предпочитают общение с теми, кто близок им по своим взглядам, интересам, образованию и т.д., образуя в соцсетях гомофильные (однородные) сообщества9. Соответственно, их участники склонны придерживаться мнения большинства, что может побуждать отдельного индивида либо высказывать свою позицию более активно, чувствуя поддержку большинства, либо скрывать ее, боясь негативной реакции, либо изменить свою позицию, исходя из мнения большинства. Таким образом, реакция пользователей соцсетей на деятельность политботов может быть различной: от «политической мобилизации» до «спирали молчания». Политическая мобилизация с помощью политических ботов достигается путем стимулирования пользователей к выражению своих политических предпочтений для объединения единомышленников, что использовалось политтехнологами для организации массовых протестов, «цветных революций» и т.д. Теория «спирали молчания» объясняет страх социальной изоляции, который может заставить пользователей соцсетей скрывать свое мнение, если оно отличается от позиции якобы большинства, создаваемого политботами10. В любом случае политические боты выступают инструментом манипуляции общественным сознанием11.
10. См.: Ross B., Pilz L., Cabrera B., Brachten F., Neubaum G., Stieglitz S. Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks // European Journal of Information Systems. 2019. No. 28(4). P. 394–412.
11. См.: Keller T.R., Klinger U. Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications // Political Communication. 2019. No. 36(1).
Описывая влияние политботов на политические процессы, исследователи12 отмечают распространение политботами незаконной или недостоверной информации, клеветы и т.д. Однако такая информация в эпоху «постправды» распространяется и традиционными способами, в частности через официальные СМИ. Основная опасность политботов заключается именно в манипулировании общественным мнением независимо от распространяемого ими контента. Негативный эффект от такого манипулирования лишь усиливается при распространении политботами клеветы, недостоверной или ложной информации.
Таким образом, большинство исследователей приходят к выводу о негативном влиянии политботов на политические процессы, выделяя при этом три их основные характеристики:
«- распространение незаконного контента и дезинформации;
- под ложным предлогом человеческой идентичности;
- с помощью потенциально неограниченного числа коммуникационных и сетевых действий»13.
Вместе с тем в литературе можно встретить и более позитивный взгляд на политботы. Сторонники такого подхода пытаются рассматривать последние в качестве нового цифрового инструмента политических технологий, который может использоваться и в общеполезных целях, например, для «демократического блага»14. В этом же ряду стоит и предложение J. Haeg выделять наряду с «вредоносными» политботами «святые» политботы, «запрограммированные делиться непредвзятой и политически значимой информацией, которая часто не распространяется в основных источниках»15. Российские исследователи выявили применение бот-технологий гражданскими активистами, что позволило им рассматривать использование социальных ботов как инструмента для реализации различных форм гражданского участия16.
15. Haeg J. The Ethics of Political Bots: Should We Allow Them for Personal Use? // Journal of Practical Ethics. 2017. No. 5(2). P. 85 - 104.
16. См.: Василькова В.В., Легостаева Н.И., Радушевский В.Б. Социальные боты как инструмент развития гражданского участия // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 5. С. 19—42. >>>>
Представляется, что такой подход имеет право на существование и может приниматься во внимание при разработке правового регулирования. Однако его сторонники не учитывают, что суть негативного эффекта политботов заключается в том, что это инструмент манипуляции общественным сознанием. Попытка оправдать использование политботов необходимостью распространения полезного контента или достижения общеполезной цели представляется не вполне убедительной. В ситуации общественной дискуссии или, тем более, конфликта в обществе у каждой из противостоящих сторон складывается свое представление о правдивости информации и поставленных целях. О манипуляции свидетельствует сам факт использования ложной человеческой идентичности политботами независимо от распространяемого ими контента и заданных целей.
Применение манипулятивных политтехнологий имеет долгую историю, однако с появлением Интернета и новых цифровых технологий, прежде всего искусственного интеллекта, способы и характер политической манипуляции претерпели существенные изменения. В.Б. Строганов предложил ввести новое понятие ризоморфной политической манипуляции, под которой понимается «неосознаваемый личностью способ ее ориентации в политической среде посредством создания и распространения политического контента в медиасфере, результатом реализации которого является формирование политических установок»17. И хотя автор не упоминает политботы в качестве разновидности, делая акцент на интернет-мемы, первые вполне могут быть отнесены к ризоморфным политтехнологиям, так как ориентированы строго на интернет-коммуникацию. Данное исследование представляет интерес и с той точки зрения, что автор предложил отказаться от этических оценок данного феномена. При этом он отмечает, что большинство ученых, как российских18, так и зарубежных19, признают деструктивный характер манипуляций общественным сознанием.
18. См.: Грачев Г., Мельник И. Манипулирование личностью. Изд-во «Алгоритм», формат PDF. 1999; Кара-Мурза С.Г. Манипуляция сознанием. М., 2012; Доценко Е.Л. Психология манипуляции: феномены, механизмы и защита. М., 1997.
19. См.: Шостром Э. Человек-манипулятор. Внутреннее путешествие от манипуляции к актуализации. Киев, 2003; Van Dijk T. Discourse and manipulation // Discourse & Society. 2006. No. 17(2).
Таким образом, несмотря на дискуссионный характер рассматриваемых вопросов, можно с уверенностью констатировать, что использование политботов в политических коммуникациях вызывает обоснованные опасения у исследователей. В связи с этим представляются довольно справедливыми их упреки в адрес законодателей, которые «сознательно или бессознательно не принимают стандарты против вредоносной деятельности ботов, операторов социальных сетей (включая их руководство, программистов и т.д.), чья сетевая инфраструктура и условия использования допускают или даже поощряют вредоносную деятельность ботов»20.
Правовые проблемы регулирования использования политботов
Для целей правового регулирования этический подход имеет принципиальное значение при решении вопроса о допустимости использования систем на основе искусственного интеллекта в качестве манипулятивных политических технологий. В силу принципа технологической нейтральности права, которого стремится придерживаться законодатель, ответ на данный вопрос позволит определить вектор развития законодательства в отношении не только политботов, но и других разработок в области искусственного интеллекта, применяемых в коммуникациях. Отказ от этической оценки таких интеллектуальных систем означал бы нецелесообразность разработки для них правового регулирования, так как задача права состоит не в регулировании той или иной цифровой технологии, а в минимизации социальных рисков при ее применении. Такой подход реализован в Предложениях Европейской комиссии о Регламенте, устанавливающем согласованные правила в отношении искусственного интеллекта, в которых указывается, что «эта технология также может использоваться не по назначению и предоставлять новые и мощные инструменты для манипулятивных, эксплуататорских и социальных методов контроля. Такая практика особенно вредна и должна быть запрещена…»21.
Признание деструктивного характера политических манипуляций закономерно приводит к выводу о деструктивном характере цифровых инструментов на основе искусственного интеллекта, используемых для таких манипуляций. При этом вряд ли целесообразно установление запрета на использование ботов. Такой запрет не вполне оправдан, когда речь не идет о распространении незаконной информации. Кроме того, технически его реализовать как минимум проблематично. Более взвешенный подход предполагает введение обязанности по информированию пользователя о том, что он взаимодействует с системой искусственного интеллекта. Информирование производится путем маркировки ботов, что позволяет пользователям соцсетей более критично относится к той информации, которую распространяют боты.
В целом требование о маркировке ботов соответствует общим принципам регулирования искусственного интеллекта, прежде всего принципу прозрачности22. Данный принцип получил признание как на международном, так и на национальном уровне в большинстве стран. В 2019 г. странами - членами и партнерами ОЭСР были подписаны Принципы ОЭСР в отношении искусственного интеллекта. В числе пяти основанных на ценностях принципов ответственного внедрения надежного искусственного интеллекта был назван принцип «прозрачности и открытости», согласно которому субъекты ИИ должны соблюдать прозрачность и ответственное раскрытие информации о системах ИИ23. В Рекомендациях ЮНЕСКО об этических аспектах искусственного интеллекта, принятых в 2021 г., «прозрачность и объяснимость» указаны в числе принципов деятельности. При этом под прозрачностью понимается, в частности, «предоставление должной информации соответствующим адресатам для обеспечения понимания и повышения доверия»24.
23. См.: URL: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
24. URL: https://unesdoc.unesco.org/ark:/48223/pf0000380455_rus
В Регламенте ЕС, устанавливающем согласованные правила в отношении искусственного интеллекта, разд. IV посвящен обязательствам по обеспечению прозрачности для определенных систем ИИ. Согласно ст. 52 Регламента провайдеры (разработчики или владельцы систем ИИ) должны обеспечить, чтобы системы ИИ, предназначенные для взаимодействия с физическими лицами, были спроектированы и разработаны таким образом, чтобы последние были проинформированы о том, что они взаимодействуют с системой ИИ, если это не очевидно из обстоятельств и контекста использования. В США принцип прозрачности ИИ в законопроекте о правах в области искусственного интеллекта (Blueprint for an AI Bill of Rights) сформулирован как «уведомление и разъяснение»: «Вы должны знать, когда используется автоматизированная система, и понимать, как и почему она способствует достижению результатов, которые влияют на вас»25.
В целях реализации принципа прозрачности ИИ на законодательном уровне должно быть установлено требование о маркировке ботов. В некоторых странах такое требование уже получило законодательное закрепление.
Первая попытка законодательного регулирования использования ботов была предпринята в штате Калифорния. В 2019 г. вступил в силу Закон California Senate Bill 1001, который также называется Законом о поддержке прозрачности в Интернете (Bolstering Online Transparency Act - CA Bot Act). Согласно ему признается незаконным использование бота для общения или взаимодействия в Интернете с жителями Калифорнии с целью стимулирования продажи или сделки с товарами или услугами или влияния на голосование на выборах без раскрытия информации о том, что общение осуществляется с помощью бота. Требование о раскрытии информации распространяется на публичные веб-сайты, приложения или социальные сети, которые имеют не менее 10 млн ежемесячных посетителей или пользователей в США. Закон не предоставляет пострадавшим потребителям право подать иск в суд, но дает генеральному прокурору штата широкие полномочия по взысканию штрафов до 2500 долл. за нарушение законов Калифорнии о недобросовестной конкуренции, а также возможность использования средств правовой защиты по праву справедливости.
В 2020 г. в Германии было принято Межгосударственное соглашение о СМИ (Medienstaatsvertrag - MStV), в котором установлена обязанность владельцев аккаунтов маркировать социальные боты путем указания на «факт автоматизации в случае контента или сообщений, созданных автоматически с помощью компьютерной программы» (§ 18(3))26. Данная обязанность распространяется и на социальные сети, которые должны обеспечить соблюдение поставщиками услуг обязательств по маркировке. Способ маркировки соцсети выбирают самостоятельно27.
27. См.: Holznagel B., Kalbhenn J.C. Media law regulation of social networks - country report: Germany // Perspectives on Platform Regulation: Concepts and Models of Social Media Governance Across the Globe / J. Bayer, Holznagel B., Korpisaari P., Woods L. (eds). Nomos, 2021.
Вместе с тем установление правовой обязанности должно быть обеспечено надлежащей ответственностью за ее неисполнение. В связи с этим возникает вопрос о возможной ответственности за нарушение требования о маркировке ботов. Привлечение к ответственности физических и юридических лиц, использующих боты без раскрытия соответствующей информации, представляется весьма проблематичным из-за сложностей доказывания. Поэтому большинство экспертов высказываются за необходимость установления ответственности в отношении онлайн-платформ. Так, по мнению B. Stricke, основным недостатком California Senate Bill 1001 является отсутствие в нем ответственности для онлайн-платформ: «Снятие всей ответственности с онлайн-платформ значительно снижает шансы закона на успех»28.
Для установления ответственности онлайн-платформ необходимо убедиться в наличии у них технических возможностей по выявлению ботов. Следует учитывать, что обнаружение ботов - сложная техническая проблема. Как и в других сферах, связанных с кибербезопасностью, боты эволюционируют, что заставляет представителей компьютерных наук постоянно развивать способы и методы их обнаружения. Для распознавания ботов использовалось машинное обучение на наборе данных с помеченными учетными записями ботов и не-ботов29. Такой подход не оправдал себя, так как обучение не успевало за эволюционированием ботов, соответственно, основанные на таком подходе инструменты не могли выявить новые виды ботов30. Широкое распространение получили методы распознавания ботов на основе анализа аномалий сетевого трафика, в частности, большие объемы трафика могут свидетельствовать о вредоносной атаке ботов. Для обнаружения новых поколений ботов требуется применение передовых технологий, таких как глубокое обучение, сложные / комплексные сети, роевый интеллект, защита с использованием подвижных целей (MTD), программно-конфигурируемая сеть (SDN)31.
30. См.: Sayyadiharikandeh M., Varol O, Yang KC. et al. Detection of novel social bots by ensembles of specialized classifiers // Proceedings of the 29th ACM International Conference on Information & Knowledge Management (CIKM ‘20). 2020. P. 2725–2732.
31. См.: Xing Y., Shu H., Zhao H. et al. Survey on Botnet Detection Techniques: Classification, Methods, and Evaluation // Mathematical Problems in Engineering. 2021. P. 1 - 24. https://doi.org/10.1155/2021/6640499
Создаваемые с использованием таких технологий цифровые сервисы позволяют выявлять и удалять боты из социальных сетей. В качестве примера можно привести Botometer, который проверяет активность учетной записи в Twitter и дает ей оценку32. Однако эффективность таких цифровых сервисов остается недостаточно высокой, что наглядно продемонстрировало исследование социологов33, в котором был проведен сравнительный анализ результатов применения трех различных цифровых сервисов идентификации ботов в Twitter. Результаты академического исследования нашли косвенное подтверждение и в преддоговорном споре Илона Маска с соцсетью Twitter в процессе приобретения последней. Представители Twitter утверждали, что боты составляют не более 5% от всех учетных записей. Анализ, проведенный компанией Cyabra позаказу Илона Маска, показал, что количество ботов в соцсети составляет 11%. Уровень достоверности результатов проведенного анализа генеральный директор Cyabra Дэн Брами оценил в 80%, отметив существующие ограничения на использование его компанией алгоритмов машинного обучения для определения того, являются ли учетные записи подлинными34.
33. См.: Martini F., Samula P., Keller T. R., Klinger U. Bot, or not? Comparing three methods for detecting social bots in five political discourses // Big Data & Society. 2021. No. 8(2). https://doi.org/10.1177/20539517211033566
34. См.: Duffy C., Fung B. Elon Musk commissioned this bot analysis in his fight with Twitter. Now it shows what he could face if he takes over the platform // CNN. 2022. October 10. URL: https://edition.cnn.com/2022/10/10/tech/elon-musk-twitter-bot-analysis-cyabra/index.html
Следовательно, у онлайн-платформ отсутствуют надежные инструменты для выявления ботов, что, в свою очередь, затрудняет и возможность эффективного контроля за тем, как сами социальные сети предпринимают усилия по борьбе с ботами. Как справедливо указывают исследователи, «регулирующие органы не могут эффективно отслеживать, достаточно ли усилий предпринимают такие платформы, как Twitter, против манипулирования платформой с помощью автоматических учетных записей, или даже делают ли они то, о чем они заявляют»35.
Таким образом, в настоящее время эффективный правовой механизм реализации требования об обязательной маркировке ботов не создан ни в одной правовой системе мира. Тем не менее первые шаги в этом направлении уже предпринимаются. Так, социальная сеть Twitter потребовала от разработчиков раскрытия информации об учетной записи в своих обновленных правилах 2020 г., а в начале 2022 г. у разработчиков появилась возможность маркировать свои боты в Twitter36. При несоблюдении владельцами ботов обязанности по их маркировке социальные сети, обладая определенными полномочиями по модерации размещаемого контента, вправе удалять такие фальшивые аккаунты.
Рассматривая проблему борьбы с политботами в более широком контексте, как борьбу с распространением незаконного или ложного контента в соцсетях, необходимо указать на наличие существенных различий в законодательствах разных стран. В США ситуация с политботами осложняется тем, что онлайн-платформы по общему правилу, установленному в разд. 47 U.S. Code § 23037, освобождены от ответственности за размещаемый сторонний контент.
В отличие от США российское законодательство устанавливает обязанности для владельцев социальных сетей в ст. 10.6 Федерального закона от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации». Обязанности владельцев соцсетей заключаются в соблюдении требования законодательства Российской Федерации при распространении информации, прежде всего недопущение распространения незаконной информации, такой как призывы к терроризму и экстремизму, пропаганда порнографии, культа насилия и жестокости и др. В рамках исполнения данной обязанности владельцы соцсетей должны осуществлять мониторинг соцсети, направленный на выявление такой информации и в случае обнаружения ограничивать доступ к ней пользователей. За нарушение порядка ограничения доступа к такой информации и (или) порядка ее удаления в ст. 13.41. КоАП РФ предусмотрена административная ответственность в виде штрафов, размер которых для юридических лиц может достигать восьми миллионов рублей.
Таким образом, нормы российского законодательства не только позволяют, но и обязывают социальные сети бороться с политботами, распространяющими незаконную информацию. Однако они не решают проблему манипулирования общественным сознанием с использованием политботов в полном объеме. В связи с этим возникает вопрос о целесообразности разработки особых правовых норм, регламентирующих использование ботов в электоральных и других политических процессах.
Учитывая отсутствие данных о широком использовании политботов в российском политическом пространстве, такой подход вряд ли будет востребован. Необходимо также учитывать, что в настоящее время основные угрозы использования политботов возникают не из-за внутриполитических дискуссий, для которых требовалось бы установление правовых границ, а из-за геополитического противостояния. Возможные попытки дестабилизации политической ситуации внутри страны с использование политботов, действующих из недружественных стран, не могут быть эффективно пресечены с помощью национального законодательства. На низкую эффективность национального законодательства указывают и зарубежные исследователи: «Поскольку деятельность социальных ботов не ограничена национальными границами, национальное регулирование представляется несколько анахроничным»38.
Тем не менее представляется целесообразным в рамках формирующегося российского законодательства об искусственном интеллекте предусмотреть обязанность разработчиков и владельцев ботов маркировать их таким образом, чтобы это было понятно взаимодействующему с ними человеку. В настоящее время в России действует Кодекс этики в сфере искусственного интеллекта, подписанный в 2021 г. В нем содержится указание на необходимость идентификации ИИ в общении с человеком в рамках ответственного подхода к созданию и использованию искусственного интеллекта: «Акторам ИИ рекомендуется осуществлять добросовестное информирование пользователей об их взаимодействии с СИИ, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию пользователя»39.
Необходимо переходить от этических правил в области ИИ к правовым нормам, четко регламентирующим обязанности разработчиков и владельцев систем ИИ, в том числе в отношении использования ботов. Ограниченные технические возможности по обнаружению ботов на данном этапе развития цифровых технологий могут рассматриваться в качестве аргумента для отказа от установления ответственности для онлайн-платформ за выявление и удаление ботов, но не для отказа от обязательной маркировки ботов. Представляется, что законодательное закрепление требования о маркировке будет способствовать снижению риска манипуляции общественным сознанием с использованием ботов, в том числе и в политических коммуникациях.
Заключение
Проведенное исследование позволило выявить деструктивный характер политических ботов, который заключается в манипулировании общественным сознанием. О манипуляции свидетельствует сам факт использования ложной человеческой идентичности политботами независимо от распространяемого ими контента и заданных целей. Снизить риск негативного влияния позволит маркировка ботов, которая информирует пользователя о том, что он взаимодействует с системой ИИ. Обязанность по маркировке должна быть возложена на разработчиков и владельцев таких систем. При этом установление ответственности для социальных сетей за обнаружение и удаление ботов нецелесообразно ввиду отсутствия в настоящее время технических возможностей для создания эффективных цифровых сервисов. Владельцы социальных сетей должны нести ответственность согласно действующему законодательству только за блокировку ботов, распространяющих незаконную информацию. Законодательно закрепить обязанность по маркировке ботов предлагается в формирующемся российском законодательстве об искусственном интеллекте в рамках реализации общепризнанного принципа прозрачности искусственного интеллекта.
Библиография
- 1. Василькова В.В., Легостаева Н.И. Социальные боты в политической коммуникации // Вестник РУДН. Сер.: Социология. 2019. Т. 19. № 1. С. 121—133.
- 2. Василькова В.В., Легостаева Н.И., Радушевский В.Б. Социальные боты как инструмент развития гражданского участия // Мониторинг общественного мнения: экономические и социальные перемены. 2019. № 5. С. 19—42. https://doi.org/10.14515/monitoring.2019.5.02
- 3. Грачев Г., Мельник И. Манипулирование личностью. Изд-во «Алгоритм», формат PDF. 1999.
- 4. Доценко Е.Л. Психология манипуляции: феномены, механизмы и защита. М., 1997.
- 5. Кара-Мурза С.Г. Манипуляция сознанием. М., 2012.
- 6. Мартьянов Д.С. Политический бот как профессия // ПОЛИТЭКС. 2016. № 1. С. 74 - 89.
- 7. Строганов В.Б. Технологии политической манипуляции в интернете: дис. … канд. полит. наук. 23.00.02. Екатеринбург, 2019. С. 10 (209).
- 8. Чесноков В.О. Применение алгоритма выделения сообществ в информационном противоборстве в социальных сетях // Вопросы кибербезопасности. 2017. № 1. С. 37 - 44.
- 9. Шостром Э. Человек-манипулятор. Внутреннее путешествие от манипуляции к актуализации. Киев, 2003.
- 10. Bessi A., Ferrara E. Social Bots Distort the 2016 U.S. Presidential Election Online Discussion // First Monday. 2016. No. 21(11).
- 11. Bonneau J., Grondin-Robillard L., Ménard M., Mondoux A. Fighting the “System”: A Pilot Project on the Opacity of Algorithms in Political Communication // Hepp A., Jarke J., Kramp L. (eds). New Perspectives in Critical Data Studies. Transforming Communications – Studies in Cross-Media Research. Palgrave Macmillan, Cham, 2022. https://doi.org/10.1007/978-3-030-96180-0_5
- 12. Caldarelli G., De Nicola R., Del Vigna F. et al. The role of bot squads in the political propaganda on Twitter // Commun Phys. 2020. No. 3. P. 81. DOI: 10.1038/s42005-020-0340-4
- 13. Duffy C., Fung B. Elon Musk commissioned this bot analysis in his fight with Twitter. Now it shows what he could face if he takes over the platform // CNN. 2022. October 10. URL: https://edition.cnn.com/2022/10/10/tech/elon-musk-twitter-bot-analysis-cyabra/index.html
- 14. Ferrara E. Disinformation and Social Bot Operations in the Run up to the 2017 French Presidential Election. // First Monday. 2017. No. 22(8). DOI: 10.5210/fm.v22i8.8005
- 15. Haeg J. The Ethics of Political Bots: Should We Allow Them for Personal Use? // Journal of Practical Ethics. 2017. No. 5(2). P. 85 - 104.
- 16. Holznagel B., Kalbhenn J.C. Media law regulation of social networks - country report: Germany // Perspectives on Platform Regulation: Concepts and Models of Social Media Governance Across the Globe / J. Bayer, Holznagel B., Korpisaari P., Woods L. (eds). Nomos, 2021.
- 17. Howard P.N., Kollanyi B. Bots, #Strongerin, and #Brexit: Computational Propaganda During the UK-EU Referendum // SSRN. 2016. DOI: 10.2139/ssrn.2798311
- 18. Howard P., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration // Journal of Information Technology & Politics. 2018. No. 15 (2). P. 81 - 93. DOI: 10.1080/19331681.2018.1448735
- 19. Keller T.R., Klinger U. Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications // Political Communication. 2019. No. 36(1).
- 20. Larsson S., Heintz F. Transparency in artificial intelligence // Internet Policy Review. 2020. No. 9(2). https://doi.org/10.14763/2020.2.1469
- 21. Martini F., Samula P., Keller T. R., Klinger U. Bot, or not? Comparing three methods for detecting social bots in five political discourses // Big Data & Society. 2021. No. 8(2). https://doi.org/10.1177/20539517211033566
- 22. Massimo S., Ferrara E., De Domenico M. Bots Increase Exposure to Negative and Inflammatory Content in Online Social Systems // Proceedings of the National Academy of Sciences 115. 2018. No. 49. P. 12435–1240. DOI: 10.1073/pnas.1803470115
- 23. McPherson M., Smith-Lovin L., Cook J.M. Birds of a Feather: Homophily in Social Networks // Annual Review of Sociology. 2001. No. 27(1). P. 415 - 444.
- 24. Pedrazzi S., Oehmer F. Communication Rights for Social Bots? Options for the Governance of Automated Computer-Generated Online Identities // Journal of Information Policy. 2020. No. 10. P. 549–81.
- 25. Ramalingaiah A., Hussaini S., Chaudhari S. Twitter bot detection using supervised machine learning // Journal of Physics: Conference Series. 2021. Vol. 1950 012006. 1950. https://iopscience.iop.org/article/10.1088/1742-6596/1950/1/012006/meta
- 26. Ross B., Pilz L., Cabrera B., Brachten F., Neubaum G., Stieglitz S. Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks // European Journal of Information Systems. 2019. No. 28(4). P. 394–412.
- 27. Sainath Gannarapu S., Dawoud A., Dawoud A. et al. Bot Detection Using Machine Learning Algorithms on Social Media Platforms: Conference: 5th International Conference on Innovative Technologies in Intelligent Systems and Industrial Applications (CITISIA). 2020.
- 28. Santia G., Mujib M., Williams J. Detecting Social Bots on Facebook in an Information Veracity Context // Proceedings of the International AAAI Conference on Web and Social Media. 2019. No. 13(01). P. 463 - 472.
- 29. Sayyadiharikandeh M., Varol O, Yang KC. et al. Detection of novel social bots by ensembles of specialized classifiers // Proceedings of the 29th ACM International Conference on Information & Knowledge Management (CIKM ‘20). 2020. P. 2725–2732.
- 30. Stricke B. People v. Robots: A Roadmap for Enforcing California's New Online Bot Disclosure Act // Vanderbilt Journal of Entertainment and Technology Law. 2020. No. 22(4). P. 839 - 894.
- 31. Subrahmanian V.S., Azaria A., Durst S. et al. The DARPA Twitter bot challenge // Computer. 2016. No. 49(6). P. 38–46.
- 32. Van Dijk T. Discourse and manipulation // Discourse & Society. 2006. No. 17(2).
- 33. Xing Y., Shu H., Zhao H. et al. Survey on Botnet Detection Techniques: Classification, Methods, and Evaluation // Mathematical Problems in Engineering. 2021. P. 1 - 24. https://doi.org/10.1155/2021/6640499
- 34. Walmsley J. Artificial intelligence and the value of transparency // AI & Soc. 2021. No. 36. P. 585–595. https://doi.org/10.1007/s00146-020-01066-z
- 35. Woolley S. Bots and Computational Propaganda: Automation for Communication and Control // Persily N., Tucker J. (eds.). Social Media and Democracy: The State of the Field, Prospects for Reform. Cambridge, 2020. P. 89 - 110.
- 36. Woolley S., Guilbeault D. Computational Propaganda in the United States of America: Manufacturing Consensus Online / S. Woolley, Ph. N. Howard (eds). Working Paper. 2017.5. Oxford, P. 1–28.
2. См.: Bessi A., Ferrara E. Social Bots Distort the 2016 U.S. Presidential Election Online Discussion // First Monday. 2016. No. 21(11); Woolley S., Guilbeault D. Computational Propaganda in the United States of America: Manufacturing Consensus Online / S. Woolley, Ph. N. Howard (eds). Working Paper. 2017.5. Oxford, P. 1 - 28; Howard P., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration // Journal of Information Technology & Politics. 2018. No. 15 (2). P. 81 - 93. DOI: 10.1080/19331681.2018.1448735
3. См.: Massimo S., Ferrara E., De Domenico M. Bots Increase Exposure to Negative and Inflammatory Content in Online Social Systems // Proceedings of the National Academy of Sciences 115. 2018. No. 49. P. 12435–1240. DOI: 10.1073/pnas.1803470115
4. См.: Pedrazzi S., Oehmer F. Communication Rights for Social Bots? Options for the Governance of Automated Computer-Generated Online Identities // Journal of Information Policy. 2020. No. 10. P. 549–81.