Анализ практики применения законодательства об охране здоровья детей в Российской Федерации в 2015–2020 гг. позволил выявить актуальные проблемы, связанные с доступностью медицинской помощи (в т.ч. высокотехнологической), медико-социальной экспертизой детей-инвалидов и обеспечением их средствами реабилитации (абилитации), санитарно-эпидемиологическим благополучием детей в образовательных учреждениях, и предложить подходы к их решению с учетом существующих международных стандартов в данной сфере отношений. Обращено также внимание на охрану здоровья детей в условиях пандемии коронавирусной инфекции COVID-19.
Принцип гендерного равенства тесно связан с правом на недискриминацию, которое «пришло» в национальные законодательства из международного права. На эволюции принципа равенства от формального к материальному сказалось влияние англосаксонского подхода на законодательство Европейского Союза, основное внимание в котором уделяется равному обращению. В целом в мире сформировалась довольно единообразная модель антидискриминационного законодательства.
Процессы цифровизации принесли с собой новые угрозы, в ряде стран уже констатируется гендерный разрыв в доступе к технологиям. Однако наибольшие риски таит цифровая гендерная дискриминация - прямые или косвенные дискриминационные действия, которые основаны на автоматических решениях, принимаемых алгоритмами (искусственным интеллектом). Такое принятие решений нельзя назвать технологически нейтральным, поскольку алгоритм может отражать предубеждения и предвзятости программистов. Выносимые алгоритмами дискриминационные решения будут последовательны и системны, что значительно опаснее отдельных и подчас случайных человеческих решений. Причины цифровой дискриминации заключаются в моделировании и составлении прогнозных рекомендаций на основе дискриминационных по отношению к женщинам данных, в обучении алгоритмов на основе дискриминационных данных. Для преодоления этой комплексной проблемы с точки зрения права необходимо нормативно закрепить правило прозрачности алгоритмов, равно как и принимаемых ими решений. Нужно проводить аудит алгоритмов – специальную оценку алгоритма на предмет потенциальных нарушений прав человека. Сама возможность и порядок использования искусственного интеллекта для принятия решений также должны быть нормативно урегулированы. При этом некоторые системы искусственного интеллекта должны быть запрещены полностью, а другие – строго контролироваться. Это убедительно демонстрирует проект европейского регламента по искусственному интеллекту.
В отсутствие общепризнанного определения больших данных их признаки описаны в современной литературе. Обработка больших данных пока находится вне зоны действия законодательства, поэтому наиболее значимую юридическую проблему представляет «соприкосновение» с персональными данными, в отношении которых правила уже установлены. Любые нарушения в этой сфере напрямую затрагивают права человека, особенно право на частную жизнь. Применительно к большим данным конфиденциальность (частная жизнь) все чаще рассматривается как экономическое право, а персональные данные – как имеющие экономическую ценность. Необходимость соблюдения права на конфиденциальность ставит субъекта данных в центр правовой конструкции законного доступа к персональным данным, который должен выразить информированное согласие на операции с персональными данными.
В условиях оборота больших данных необходимо подобрать более подходящую и динамичную модель информированного согласия. Хотя данные как таковые вряд ли могут быть собственностью, это не означает, что они не должны защищаться с помощью других механизмов, например, направленных на обеспечение подконтрольности и подотчетности. Именно развитие механизмов подконтрольности становится одним из главных направлений в регулировании больших данных.
Scopus
Crossref
Higher Attestation Commission
At the Ministry of Education and Science of the Russian Federation
Scientific Electronic Library