
В статье проводится сравнительно-правовой анализ моделей регулирования искусственного интеллекта в государственном секторе на примере Европейского союза (жесткая, риско-ориентированная модель) и Сингапура (гибкая, ориентированная на доверие и инновации модель).
В результате исследования предложен путь гибридизации лучших практик: заимствование у ЕС принципа системного законодательного регулирования с установлением императивных требований для систем высокого риска, а у Сингапура — инструментов «гибкого права», этических рамок, моделей публично-частного партнерства и активной поддержки инновационной экосистемы.
Ключевые слова: искусственный интеллект, международное регулирование ИИ, государственный сектор.
Legal Challenges of Algorithmic Accountability in Public Administration: Insights from the EU, Singapore, and Russia
Abstract: This article conducts a comparative legal analysis of artificial intelligence (AI) regulatory models in the public sector, using the European Union (a stringent, risk-based model) and Singapore (a flexible, trust- and innovation-oriented model) as key examples.
As a result of the study, a path of hybridising best practices is proposed: adopting from the EU the principle of systematic legislative regulation with the establishment of mandatory requirements for high-risk systems, and from Singapore — the tools of ‘soft law’, ethical frameworks, public-private partnership models, and active support for the innovation ecosystem.
Keywords: artificial intelligence, international AI regulation, public sector.
Внедрение технологий искусственного интеллекта в государственный сектор по всему миру создает необходимость поиска баланса между стимулированием инноваций, обеспечением безопасности и защитой прав граждан. В России наблюдается фрагментарность и отставание правового регулирования ИИ в публичной сфере, что создает риски непрозрачности, дискриминации, отсутствия подотчетности и технологического отставания.
В Европейском союзе сформирован подход, который ориентирован на обеспечение всестороннего контроля над технологиями ИИ, особенно в публично-правовой сфере. Активное использование интеллектуальных систем в государственном управлении сопряжено с потенциальными рисками масштабных социально-экономических дисфункций[1]. Ключевым элементом европейского правового поля в данной области стал Регламент об искусственном интеллекте («ИИ-акт»)[2]. Этот документ закладывает единые базовые принципы для всего Союза, тем самым консолидируя ранее разрозненные инициативы (Резолюция Европейского парламента 2017 года, а также положения, изложенные в Белой книге по ИИ)[3].
В основу Европейского регламента положена концепция, дифференцирующая нормативные требования в зависимости от потенциального уровня опасности, который системы ИИ могут представлять для фундаментальных прав, гражданских свобод и общественной безопасности. Данная классификация выделяет три ключевые категории риска: неприемлемый, высокий и ограниченный.
К первому классу отнесены технологии, чье применение признано социально вредным и несовместимым с демократическими ценностями. Под прямой запрет подпадают практики, связанные с применением биометрической идентификации в публичных пространствах с целью распознавания лиц. Ко второй категории относятся системы высокого риска, используемые в сферах, включая управление критической инфраструктурой, отправление правосудия или предоставление государственных услуг. К обязательным предписаниям относятся: внедрение непрерывной системы оценки, обеспечение полной прозрачности алгоритмических решений, гарантия постоянного человеческого контроля, а также использование для обучения исключительно непредвзятых данных[4].
Наконец, к системам с ограниченным риском, например, интерактивным чат-ботам, применяются требования по обеспечению прозрачности взаимодействия. Пользователи должны быть уведомлены о факте коммуникации с ИИ, а такое контент подлежит маркировке[5].
К формированию правового режима в сфере ИИ в Европейском союзе привела предшествующая фаза этического нормотворчества. Знаковым событием этого этапа стало утверждение в 2019 году Руководящих принципов разработки надежного ИИ[6]. Данный документ закрепил концептуальные особенности, основанные на семи требованиях: сохранение человеческого контроля над системами, обеспечение их технической надежности и безопасности, гарантия приватности данных, прозрачность алгоритмических процессов, предотвращение дискриминации, ориентация на общественное благополучие и установление четких механизмов подотчетности[7]. Эти принципы послужили основой для последующего законодательства.
Сингапур, занимающий лидирующие позиции в глобальной повестке цифровой трансформации, развивает уникальную модель управления технологиями ИИ в публичном секторе. Данная стратегия базируется на принципах отраслевого саморегулирования, активного публично-частного партнерства и целенаправленного формирования прогрессивной экосистемы доверия между государством, бизнесом и обществом[8]. Её методологическим ядром выступает Рамочная модель регулирования ИИ (The Model AI Governance Framework)[9]. Коммерческие организации и государственные ведомства интегрируют предложенные стандарты в свои внутренние нормативные документы и операционные процедуры, тем самым де-факто придавая им обязательный характер[10].
Регуляторная система Сингапура в области ИИ, в особенности применительно к государственному сектору, основана на двух фундаментальных принципах. Первый — это требование объяснимости, прозрачности и справедливости. То есть, все решения, принимаемые с использованием алгоритмических систем, должны быть интеллектуально доступными для понимания, подлежать внешней проверке и общественному контролю. Второй принцип — антропоцентричность. Он утверждает, что технологии ИИ должны выступать в роли инструментов, расширяющих человеческие способности, а не заменяющих их. Приоритетной целью провозглашается защита благополучия, физической и цифровой безопасности, а также законных интересов граждан[11].
В области государственного управления базовым документом выступает Закон о публичном секторе (Public Sector (Governance) Act 2018, PSGA), устанавливающий строгие стандарты работы с информацией. Его положения предусматривают уголовную ответственность должностных лиц за неправомерное разглашение или использование конфиденциальных данных[12].
Для регулирования деятельности коммерческих организаций действует Закон о защите персональных данных (PDPA) 2012 года, который был существенно модернизирован поправками 2020 года. Ключевыми нововведениями стали закрепление концепции «предполагаемого согласия» пользователя в определенных ситуациях, а также расширение перечня исключений, позволяющих использовать данные без прямого согласия для целей, связанных с исследованиями. Дальнейшим шагом по адаптации законодательства к вызовам эпохи ИИ стало опубликование в марте 2024 года Руководящих указаний по использованию персональных данных в алгоритмических системах. Данный документ призывает операторов минимизировать использование идентифицирующей информации, отдавая предпочтение анонимизированным данным[13].
Государственная политика Сингапура в области ИИ институционализирована через Национальную стратегию искусственного интеллекта. Стратегический фокус сконцентрирован на реализации масштабных национальных проектов в социально-экономические отрасли. Для формирования целостной инновационной экосистемы в стране задействуются специализированные механизмы, обозначаемые как «Инструменты развития экосистемы ИИ». Фундаментальным элементом данной модели является принцип тройной спирали. Практическое воплощение этого партнерства реализуется через такие инициативы, как общенациональная программа «AI Singapore», нацеленная на кооперативную разработку решений и масштабную подготовку высококвалифицированных кадров [14].
Сингапур проводит активную политику по интеграции собственных регуляторных разработок в области ИИ в глобальное нормативное пространство. Важным шагом в этом направлении стало заключение в 2023 года двустороннего соглашения с США, направленного на достижение взаимного соответствия между сингапурской рамкой AI Verify и американской системой NIST AI RMF. В рамках партнерства также создана совместная рабочая группа по управлению ИИ, что способствует выработке согласованных подходов[15].
Основным фактором сингапурского подхода выступает целенаправленное формирование доверительной среды, которая призвана поддерживать тонкий баланс между стимулированием технологических прорывов и обеспечением надежной защиты прав и свобод человека. На стратегическом уровне функционирует Консультативный совет по этичному использованию ИИ и данных, который вырабатывает рекомендации для политики. Параллельно для критически важных сфер экономики разрабатываются отраслевые регуляторные кодексы. Ярким примером служат принципы FEAT (Fairness, Ethics, Accountability and Transparency — Справедливость, Этика, Подотчетность и Прозрачность), утвержденные Валютным управлением Сингапура (MAS) для финансового сектора[16].
Созданию благоприятных условий для инноваций способствует модернизация правового режима в сфере интеллектуальной собственности. Управление Сингапура (IPOS) внедрило специализированную программу ускоренного патентования AI² (Accelerated Initiative for Artificial Intelligence). Эта инициатива позволяет изобретателям и компаниям получить патентную охрану на технологии, связанные с искусственным интеллектом, в рекордно короткие сроки — в течение шести месяцев, что существенно ускоряет коммерциализацию разработок и укрепляет конкурентные позиции национального технологического сектора на мировой арене.
В Российской Федерации внедрение технологий ИИ в государственное управление является ключевым направлением цифровой трансформации[17]. ИИ уже применяется для анализа обращений граждан через чат-боты, маршрутизации заявлений, видеоаналитики в аварийных ситуациях, автоматизированной проверки платежных документов (например, в Департаменте финансов Москвы) и перевода бумажных документов в цифровой формат[18]. По данным исследования 2024 года, федеральные органы исполнительной власти используют около 90 систем ИИ, а ещё 20 находятся на стадии внедрения[19].
Основу правового регулирования формирует Национальная стратегия развития искусственного интеллекта на период до 2030 года[20]. Стратегия устанавливает общие принципы: безопасность, прозрачность и приоритет человека[21]. Однако действующее законодательство не содержит специальных норм, детально регулирующих использование ИИ в публичной власти, отсутствуют требования к алгоритмической подотчетности и механизмы обжалования решений, принятых ИИ[22].
Ключевой проблемой является терминологическая неопределенность. Указ Президента № 490 определяет ИИ как «комплекс технологических решений, позволяющих воспроизводить когнитивные функции человека»[23], но это определение носит рамочный характер. В научной литературе обосновывается необходимость чёткого разграничения понятий «системы искусственного интеллекта» (СИИ), обладающие способностью к автономному обучению, и «интеллектуальные информационные системы» (ИИС), представляющие собой прикладные комплексы с ограниченной автономией, функционирующие под контролем человека[24].
Правовая база в данной сфере носит фрагментарный характер и включает ряд документов: Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций»[25], создающий основу для «регуляторных песочниц» для тестирования ИИ; Федеральный закон, устанавливающий правила использования персональных данных при работе с ИИ-системами[26]; Федеральный закон «О персональных данных»[27]; Концепция регулирования ИИ и робототехники[28], определяющая приоритетные сферы, такие как здравоохранение и транспорт; Федеральный закон «Об информации, информационных технологиях и о защите информации»[29].
Современный этап цифровой трансформации публичного управления актуализирует вопрос о формировании адекватной и перспективной правовой экосистемы для технологий ИИ. В контексте государственного сектора Российской Федерации можно выявить ряд системных вызовов.
Основополагающей проблемой является отсутствие кодифицированного нормативного акта, выполняющего функцию базового регулятора. Подобный акт был бы призван консолидировать терминологический аппарат, закрепить фундаментальные принципы разработки и внедрения ИИ, а также установить дифференцированную классификацию рисков, сопряженных с его применением. Основу нормативного каркаса должна составить регламентация, заимствующая принцип системности у европейской модели. Это предполагает разработку и принятие базового законодательного акта, который установит исчерпывающую классификацию алгоритмических систем по уровням потенциального вреда.
Внедрение ИИ в процессы принятия государственных решений происходит на фоне недостаточно развитых институтов, обеспечивающих публичный контроль и легитимацию. К числу ключевых лакун относятся: отсутствие обязательных процедур алгоритмического аудита; неразвитость каналов для эффективного обжалования решений, принятых с использованием алгоритмических систем; дефицит прозрачности относительно фактов и оснований применения ИИ в деятельности органов власти. Другим серьезным вызовом связан с непрозрачностью алгоритмических систем, так называемым эффектом «черного ящика», и дефицитом механизмов подотчетности. Для сфер высокого риска, особенно в области публичного управления, должны быть введены императивные требования к безопасности, валидации, документированию и человеческому надзору. Со стороны европейского опыта следует заимствовать нормы, обязывающие вводить для систем ИИ высокого риска в госуправлении строгие требования к технической документации, оценке рисков и объяснимости решений. Параллельно, следуя примеру Сингапура, необходимо разработать и внедрить национальный инструментарий для самооценки и аудита алгоритмов. В областях среднего и низкого риска эффективной альтернативой жестким предписаниям могут стать механизмы совместного регулирования — внедрение добровольных отраслевых стандартов объяснимости и инструментов самооценки.
Таким образом, для Российской Федерации наиболее перспективным представляется стратегический синтез ключевых элементов ведущих международных моделей — европейской и сингапурской. Адаптация и комбинирование проверенных зарубежных практик представляется эффективным путем для построения в России сбалансированной, предсказуемой и стимулирующей инновации системы регулирования искусственного интеллекта в публичной сфере. Стратегический выбор в пользу интегрированной гибридной модели, сочетающей превентивную правовую защиту с проактивным стимулированием инноваций, представляется императивным для обеспечения долгосрочного суверенитета, технологической конкурентоспособности и социальной устойчивости цифровой трансформации в России.
Литература
- AI Act. URL: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (дата обращения: 07.12.2025)
- AI, Machine Learning & Big Data Laws and Regulations 2025 – Singapore. URL: https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/singapore/ (дата обращения: 07.12.2025)
- Ethics guidelines for trustworthy AI. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (дата обращения: 07.12.2025)
- Singapore’s Approach to AI Governance. URL: https://www.pdpc.gov.sg/help-and-resources/2020/01/model-ai-governance-framework (дата обращения: 07.12.2025)
- Алексеева М.В. Правовое регулирование искусственного интеллекта в государственном управлении в Российской Федерации: вызовы и возможности. Правовой порядок и правовые ценности. 2025. № 3(2) С. 23–32.
- Буньков А.В., Репин Д.А., Щеголев П.Е. Правовые проблемы внедрения ИИ-технологий в систему государственного управления и администрирования: российский и международный опыт // Социология и право. 2025. №3. С. 386-396
- Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура // Юридические исследования. 2020. № 8 С. 62-73
- Дремлюга И.Р. Основы национального регулирования применения искусственного интеллекта: опыт Сингапура // Тихоокеанский регион: экономика, политика, право. 2022. Т. 24. № 1. С. 214–224.
- Зезина Е.С., Владимирова О.А., Ращупкина М,Г. Правовое регулирование деятельности искусственного интеллекта в сфере государственного управления // Вестник Международного института рынка. 2025. № 1. С. 89-92
- Ли Яо. Особенности нормативно-правового регулирования генеративного искусственного интеллекта в Великобритании, США, Евросоюзе и Китае // Право. Журнал Высшей школы экономики. 2023. Том 16. № 3. С. 245–267.
- Малова Е.А., Сорокова Е.Д. Диалектика этики и права в регулировании технологии искусственного интеллекта: опыт ЕС // Современная Европа. 2022. № 5. С. 19-33
- Овчинников А. И. Регламент Евросоюза об искусственном интеллекте: эксперимент в сфере правового регулирования цифровых технологий // Юридическая техника. – 2025. – № 19: Материалы XXVI Международного междисциплинарного научно-практического форума «Юртехнетика» на тему «Эксперимент в правовом регулировании (доктрина, практика, техника)» (Нижний Новгород, 25–28 сентября 2024 года) / гл. ред. проф. В. М. Баранов. Нижний Новгород: ЮНИКОПИ, 2025. С. 207-209.
- Распоряжение Правительства РФ от 19.08.2020 N 2129-р <Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года> // Собрание законодательства РФ, 31.08.2020, N 35, ст. 5593
- Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // Собрание законодательства РФ, 14.10.2019, N 41, ст. 5700
- Федеральный закон от 08.08.2024 N 233-ФЗ «О внесении изменений в Федеральный закон «О персональных данных» и Федеральный закон «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» // Парламентская газета, N 30с, 15.08.2024
- Федеральный закон от 27.07.2006 N 149-ФЗ (ред. от 24.06.2025) «Об информации, информационных технологиях и о защите информации» (с изм. и доп., вступ. в силу с 01.09.2025) // Парламентская газета, N 126-127, 03.08.2006.
- Федеральный закон от 27.07.2006 N 152-ФЗ (ред. от 24.06.2025) «О персональных данных» // Парламентская газета, N 126-127, 03.08.2006.
- Федеральный закон от 31.07.2020 N 258-ФЗ (ред. от 31.07.2025) «Об экспериментальных правовых режимах в сфере цифровых и технологических инноваций в Российской Федерации» // Российская газета, N 173, 06.08.2020
Literature
1. AI Act. URL: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (дата обращения: 07.12.2025)
2. AI, Machine Learning & Big Data Laws and Regulations 2025 – Singapore. URL: https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/singapore/ (дата обращения: 07.12.2025)
3. Ethics guidelines for trustworthy AI. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (дата обращения: 07.12.2025)
4. Singapore’s Approach to AI Governance. URL: https://www.pdpc.gov.sg/help-and-resources/2020/01/model-ai-governance-framework (дата обращения: 07.12.2025)
5. Alekseeva, M.V. (2025). Legal Regulation of Artificial Intelligence in Public Administration in the Russian Federation: Challenges and Opportunities. Pravovoi poryadok i pravovye tsennosti, 3(2), pp. 23–32.
6. Bun’kov, A.V., Repin, D.A., Shchegolev, P.E. Legal Problems of Implementing AI Technologies in the System of Public Administration and Governance: Russian and International Experience. Sotsiologiya i pravo. – 2025. – №3. – р. 386-396
7. Goryan, E.V. National Approaches to the Application of Artificial Intelligence: The Experience of Singapore. Yuridicheskie issledovaniya. – 2020. – № 8 – р. 62-73
8. Dremlyuga, I.R. Fundamentals of National Regulation of Artificial Intelligence Application: The Experience of Singapore. Tikhookeanskii region: ekonomika, politika, pravo. –2022. –Т. 24. – № 1. – р. 214–224.
9. Zezina, E.S., Vladimirova, O.A., Rashchupkina, M.G. Legal Regulation of Artificial Intelligence Activities in the Sphere of Public Administration. Vestnik Mezhdunarodnogo instituta rynka. – 2025. — № 1. – р. 89-92
10. Li Yao. Features of Regulatory and Legal Framework for Generative Artificial Intelligence in the UK, USA, European Union and China. Pravo. Zhurnal Vysshei shkoly ekonomiki. – 2023. – Том 16. – № 3. – р. 245–267.
11. Malova, E.A., Sorokova, E.D. Dialectics of Ethics and Law in the Regulation of Artificial Intelligence Technology: The EU Experience. Sovremennaya Evropa. – 2022. № 5. – р. 19-33
12. Ovchinnikov, A.I. The European Union Artificial Intelligence Regulation: An Experiment in the Legal Regulation of Digital Technologies. In: Baranov, V.M. (ed.). Yuridicheskaya tekhnika, 19: Proceedings of the XXVI International Interdisciplinary Scientific and Practical Forum «Jurtechnetics» on the Topic «Experiment in Legal Regulation (Doctrine, Practice, Technique)» (Nizhny Novgorod, September 25–28, 2024). Nizhny Novgorod: UNIKOPI, 2025. – р. 207-209.
13. Decree of the Government of the Russian Federation No. 2129-r of August 19, 2020 «On Approval of the Concept for the Development of Regulation of Relations in the Sphere of Artificial Intelligence and Robotics Technologies until 2024». Sobraniye zakonodatel’stva Rossiyskoy Federatsii, 35, Art. 5593.
14. Decree of the President of the Russian Federation No. 490 of October 10, 2019 (as amended on February 15, 2024) «On the Development of Artificial Intelligence in the Russian Federation» (together with the «National Strategy for the Development of Artificial Intelligence for the Period until 2030»). Sobraniye zakonodatel’stva Rossiyskoy Federatsii, 41, Art. 5700.
15. Federal Law No. 233-FZ of August 8, 2024 «On Amending the Federal Law ‘On Personal Data’ and the Federal Law ‘On Conducting an Experiment to Establish Special Regulation for Creating the Necessary Conditions for the Development and Implementation of Artificial Intelligence Technologies in the Subject of the Russian Federation — the Federal City of Moscow’ and on Amending Articles 6 and 10 of the Federal Law ‘On Personal Data'». Parliamentskaya gazeta, No. 30s, 15.08.2024.
16. Federal Law No. 149-FZ of July 27, 2006 (as amended on June 24, 2025) «On Information, Information Technologies and Information Protection» (with amendments and additions, effective from September 1, 2025). Parliamentskaya gazeta, No. 126-127, 03.08.2006.
17. Federal Law No. 152-FZ of July 27, 2006 (as amended on June 24, 2025) «On Personal Data». Parliamentskaya gazeta, No. 126-127, 03.08.2006.
18. Federal Law No. 258-FZ of July 31, 2020 (as amended on July 31, 2025) «On Experimental Legal Regimes in the Sphere of Digital and Technological Innovations in the Russian Federation». Rossiyskaya gazeta, No. 173, 06.08.2020.
Информация об авторе: Решетняков С.А.
Information about the author: Reshetnyakov S.A.
Иллюстрация подготовлена с использованием ИИ
[1] Овчинников А. И. Регламент Евросоюза об искусственном интеллекте: эксперимент в сфере правового регулирования цифровых технологий // Юридическая техника. – 2025. – № 19: Материалы XXVI Международного междисциплинарного научно-практического форума «Юртехнетика» на тему «Эксперимент в правовом регулировании (доктрина, практика, техника)» (Нижний Новгород, 25–28 сентября 2024 года) / гл. ред. проф. В. М. Баранов. Нижний Новгород: ЮНИКОПИ, 2025. С. 207-209.
[2] AI Act. URL: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (дата обращения: 07.12.2025)
[3] Ли Яо. Особенности нормативно-правового регулирования генеративного искусственного интеллекта в Великобритании, США, Евросоюзе и Китае // Право. Журнал Высшей школы экономики. 2023. Том 16. № 3. С. 245–267.
[4] Ли Яо. Особенности нормативно-правового регулирования генеративного искусственного интеллекта в Великобритании, США, Евросоюзе и Китае // Право. Журнал Высшей школы экономики. 2023. Том 16. № 3. С. 245–267.
[5]Овчинников А. И. Регламент Евросоюза об искусственном интеллекте: эксперимент в сфере правового регулирования цифровых технологий // Юридическая техника. – 2025. – № 19: Материалы XXVI Международного междисциплинарного научно-практического форума «Юртехнетика» на тему «Эксперимент в правовом регулировании (доктрина, практика, техника)» (Нижний Новгород, 25–28 сентября 2024 года) / гл. ред. проф. В. М. Баранов. Нижний Новгород: ЮНИКОПИ, 2025. С. 207-209.
[6] Ethics guidelines for trustworthy AI. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (дата обращения: 07.12.2025)
[7] Малова Е.А., Сорокова Е.Д. Диалектика этики и права в регулировании технологии искусственного интеллекта: опыт ЕС // Современная Европа. 2022. № 5. С. 19-33
[8] Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура // Юридические исследования. 2020. № 8 С. 62-73
[9] Singapore’s Approach to AI Governance. URL: https://www.pdpc.gov.sg/help-and-resources/2020/01/model-ai-governance-framework (дата обращения: 07.12.2025)
[10] Дремлюга И.Р. Основы национального регулирования применения искусственного интеллекта: опыт Сингапура // Тихоокеанский регион: экономика, политика, право. 2022. Т. 24. № 1. С. 214–224.
[11] 1Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура// Юридические исследования. 2020. № 8 С. 62-73
[12] Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура// Юридические исследования. 2020. № 8 С. 62-73
[13] AI, Machine Learning & Big Data Laws and Regulations 2025 – Singapore. URL: https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/singapore/ (дата обращения: 07.12.2025)
[14] Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура// Юридические исследования. 2020. № 8 С. 62-73
[15] AI, Machine Learning & Big Data Laws and Regulations 2025 – Singapore. URL: https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/singapore/ (дата обращения: 07.12.2025)
[16] Горян Э.В. Национальные подходы к применению искусственного интеллекта: опыт Сингапура// Юридические исследования. 2020. № 8 С. 62-73
[17] Буньков А.В., Репин Д.А., Щеголев П.Е. Правовые проблемы внедрения ИИ-технологий в систему государственного управления и администрирования: российский и международный опыт // Социология и право. 2025. №3. С. 386-396
[18] Зезина Е.С., Владимирова О.А., Ращупкина М,Г. Правовое регулирование деятельности искусственного интеллекта в сфере государственного управления // Вестник Международного института рынка. 2025. № 1. С. 89-92
[19] Буньков А.В., Репин Д.А., Щеголев П.Е. Правовые проблемы внедрения ИИ-технологий в систему государственного управления и администрирования: российский и международный опыт // Социология и право. 2025. №3. С. 386-396
[20] Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // Собрание законодательства РФ, 14.10.2019, N 41, ст. 5700
[21] Алексеева М.В. Правовое регулирование искусственного интеллекта в государственном управлении в Российской Федерации: вызовы и возможности. Правовой порядок и правовые ценности. 2025. № 3(2) С. 23–32.
[22] Буньков А.В., Репин Д.А., Щеголев П.Е. Правовые проблемы внедрения ИИ-технологий в систему государственного управления и администрирования: российский и международный опыт // Социология и право. 2025. №3. С. 386-396
[23] Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // Собрание законодательства РФ, 14.10.2019, N 41, ст. 5700
[24] Алексеева М.В. Правовое регулирование искусственного интеллекта в государственном управлении в Российской Федерации: вызовы и возможности. Правовой порядок и правовые ценности. 2025. № 3(2) С. 23–32.
[25] Федеральный закон от 31.07.2020 N 258-ФЗ (ред. от 31.07.2025) «Об экспериментальных правовых режимах в сфере цифровых и технологических инноваций в Российской Федерации» // Российская газета, N 173, 06.08.2020
[26] Федеральный закон от 08.08.2024 N 233-ФЗ «О внесении изменений в Федеральный закон «О персональных данных» и Федеральный закон «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» // Парламентская газета, N 30с, 15.08.2024
[27] Федеральный закон от 27.07.2006 N 152-ФЗ (ред. от 24.06.2025) «О персональных данных» // Парламентская газета, N 126-127, 03.08.2006.
[28] Распоряжение Правительства РФ от 19.08.2020 N 2129-р <Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года> // Собрание законодательства РФ, 31.08.2020, N 35, ст. 5593
[29] Федеральный закон от 27.07.2006 N 149-ФЗ (ред. от 24.06.2025) «Об информации, информационных технологиях и о защите информации» (с изм. и доп., вступ. в силу с 01.09.2025) // Парламентская газета, N 126-127, 03.08.2006.