
Интеграция искусственного интеллекта (ИИ) в гражданский оборот ставит перед правовыми системами вопрос о необходимости признания его ограниченной правосубъектности. Несмотря на активное использование ИИ в финансовой, медицинской и технологической сферах, российское законодательство сохраняет подход к нему как к объекту права, что порождает правовые риски и неопределенность. Зарубежный опыт (ЕС, США, Китай) демонстрирует разнообразие моделей регулирования, однако их имплементация в РФ требует учета национальных правовых традиций и технологических реалий. Цель исследования — провести сравнительный анализ зарубежных подходов к квазисубъектности ИИ и разработать механизмы их адаптации для российской правовой системы. Установлено, что ключевыми критериями квазисубъектности являются автономность алгоритмов, ограниченная ответственность оператора и прозрачность решений. Выявлены правовые барьеры, включая консервативность гражданско-правовых конструкций, отсутствие законодательных определений ИИ и неготовность судебной системы к работе с автономными системами. Предложена гибридная модель, сочетающая элементы европейского регулирования (реестры высокорисковых ИИ), китайской презумпции ответственности оператора и американского страхования рисков. Законодательные изменения должны включать введение понятия «цифровой агент» в ГК РФ, разработку этических стандартов и обязательный аудит алгоритмов. Результаты исследования формируют основу для реформ, направленных на снижение правовых рисков и укрепление позиций России в глобальной цифровой экономике.
Ключевые слова: искусственный интеллект, квазисубъектность, зарубежные правовые модели, гражданско-правовое регулирование, ответственность.
Quasi-subjectivity of AI: foreign models and implementation prospects in the Russian Federation
The integration of artificial intelligence (AI) into civil circulation poses the question of the need to recognize its limited legal capacity for legal systems. Despite the active use of AI in the financial, medical and technological spheres, Russian legislation retains the approach to it as an object of law, which gives rise to legal risks and uncertainty. Foreign experience (EU, USA, China) demonstrates a variety of regulatory models, but their implementation in the Russian Federation requires taking into account national legal traditions and technological realities. The purpose of the study is to conduct a comparative analysis of foreign approaches to the quasi-subjectivity of AI and to develop mechanisms for their adaptation to the Russian legal system. It has been established that the key criteria for quasi-subjectivity are the autonomy of algorithms, limited liability of the operator and transparency of decisions. Legal barriers have been identified, including the conservatism of civil law structures, the lack of legislative definitions of AI and the unpreparedness of the judicial system to work with autonomous systems. A hybrid model is proposed that combines elements of European regulation (registers of high-risk AI), the Chinese presumption of operator liability, and American risk insurance. Legislative changes should include the introduction of the concept of a «digital agent» in the Civil Code of the Russian Federation, the development of ethical standards, and mandatory audit of algorithms. The results of the study form the basis for reforms aimed at reducing legal risks and strengthening Russia’s position in the global digital economy.
Keywords: artificial intelligence, quasi-subjectivity, foreign legal models, civil law regulation, liability.
Введение. Современные технологии искусственного интеллекта (далее — ИИ) всё чаще демонстрируют способность к автономным действиям, которые выходят за рамки предопределяемых алгоритмов. Это ставит перед правовыми системами вопрос о необходимости пересмотра традиционных категорий субъектности, основанных на классический модели «субъект — объект». В зарубежной практике уже формируются модели, признающие за ИИ статус квазисубъекта — ограниченного участника правоотношений, способного нести частичную ответственность. Однако в российской правовой доктрине подобные концепции остаются маргинальными, а законодательство сохраняет подход к ИИ как к инструменту, что порождает риски правовой неопределенности в различных социально значимых сферах (финансовые сделки, медицинская диагностика и др.).
Научные дискуссии по вопросу квазисубъектности ИИ развиваются в нескольких направлениях. Европейский Союз в рамках EU AI Act [1] предлагает концепцию «электронных лиц» для автономных систем, тогда как Китай закрепляет презумпцию ответственности оператора в статьях 1194-1197 Гражданского кодекса КНР [2]. В российской доктрине, проблема квазисубъектности ИИ остается недостаточно разработанной. Например, в научных источниках 2020 года конституционные аспекты робототехники освещаются фрагментарно, а проекты федеральных законов о робототехнике лишь частично затрагивают вопрос самостоятельности ИИ в гражданском обороте [3, 4].
Цель исследования заключается в сравнительном анализе зарубежных моделей квазисубъектности ИИ и оценке их применимости в российской правовой системе.
Гипотеза исследования предполагает, что синтез европейской модели «электронных лиц» и китайской презумпции ответственности оператора позволит создать гибкий правовой режим для ИИ в РФ. Например, введение реестра автономных систем, аналогичного предложениям EU AI Act, и страхование рисков, как в практике США, могут снизить правовые риски. Однако ключевым условием остается законодательное закрепление понятия «цифровой агент», что требует пересмотра ст. 434 ГК РФ и разработки профильного закона об ИИ.
Теоретико-правовые основы квазисубъектности искусственного интеллекта. Концепция квазисубъектности искусственного интеллекта (ИИ) формируется на пересечении технологических возможностей и классических правовых конструкций. Под квазисубъектностью понимается ограниченная правовая дееспособность, при которой ИИ признается участником правоотношений, но не наделяется полноценной правосубъектностью, свойственной физическим или юридическим лицам. Эта категория позволяет учесть автономность алгоритмов, сохраняя традиционные принципы ответственности. В российской правовой доктрине данная концепция находится в стадии активного обсуждения, однако её теоретическая база пока не систематизирована.
Современные исследования подчеркивают, что ключевым признаком квазисубъектности ИИ является его способность к автономному принятию решений, выходящих за рамки предустановленных алгоритмов. Как отмечают Баттахов П. П. и Овчинникова Ю. С., ИИ, обладающий возможностями машинного обучения, (формируя деятельностную автономию), требует особого правового режима [5, с. 112]. С этим можно согласиться, учитывая, что уже сейчас алгоритмы искусственного интеллекта выполняют задачи в важных сферах жизни человека. Например, алгоритмы высокочастотной торговли на бирже, используемые Центральным банком РФ, самостоятельно анализируют рынок и совершают сделки, что ставит вопрос об их роли в гражданском обороте. При этом, в отличие от юридических лиц, ИИ не имеет обособленного имущества, а его «действия» остаются производными от программного кода, что исключает применение классических критериев дееспособности.
Дискуссия о правовой природе ИИ в российской науке развивается в двух направлениях. Первое, инструментальное, рассматривает ИИ как объект права, что подтверждается судебной практикой. Председатель Конституционного Суда РФ Зорькин В. Д. считает, что наделение ИИ правосубъектностью влечет за собой противоречия и пробелы в праве, позволяющие избежать юридической ответственности виновному лицу за правонарушение, совершенное им в ходе разработки и эксплуатации соответствующих технологий [6]. Вторая точка зрения, представленная, к примеру, в работах А. А. Иванова, предлагает признать за ИИ статус «цифрового агента» — участника правоотношений с ограниченной ответственностью, что позволит распределять риски между разработчиком, оператором и пользователем [7].
Законодательные инициативы в РФ демонстрируют попытки адаптировать правовую систему к вызовам ИИ. Национальная стратегия развития искусственного интеллекта до 2030 года акцентирует необходимость совершенствования правового регулирования, однако не конкретизирует статус ИИ [8]. Как подчеркивает М.А. Рожкова, отсутствие в Гражданском кодексе РФ определения ИИ и критериев его автономности создает правовые риски, особенно в сфере финансовых технологий [9].
Зарубежный опыт предлагает альтернативные модели. В Европейском Союзе Регламент EU AI Act классифицирует ИИ по уровню риска, предусматривая для высокорисковых систем обязательную прозрачность алгоритмов и ответственность оператора. В Китае ст. 1196 Гражданского кодекса КНР устанавливает презумпцию вины оператора ИИ, что косвенно признает его квазисубъектность. Эти подходы, могут быть адаптированы в РФ через внедрение реестров автономных систем и страхование рисков, но требуют учета специфики национального права.
Таким образом, теоретико-правовые основы квазисубъектности ИИ в России находятся в процессе формирования. Несмотря на отсутствие единой концепции, синтез инструментального подхода и элементов «цифрового агентства» позволяет создать гибкую модель, совместимую с действующим законодательством. Ключевым шагом должно стать закрепление в ГК РФ критериев автономности ИИ и механизмов распределения ответственности, что снизит правовые риски в условиях цифровой трансформации экономики.
Зарубежные модели регулирования искусственного интеллекта как квазисубъекта гражданских правоотношений. Мировой опыт правового регулирования искусственного интеллекта демонстрирует разнообразие подходов к признанию квазисубъектности, отражающих как технологические амбиции государств, так и осторожность в нарушении традиционных правовых догм. Эти модели варьируются от полного отрицания правосубъектности ИИ до создания гибридных конструкций, частично признающих автономность алгоритмов. Анализ зарубежной практики позволяет выделить ключевые тенденции, актуальные для российской правовой системы.
В Европейском Союзе регулирование ИИ строится на принципах прозрачности и контроля. Регламент EU AI Act (2023), вступивший в силу в июне 2024 года, классифицирует системы ИИ по уровню риска, устанавливая для «высокорисковых» категорий (медицина, транспорт, правосудие) обязательные требования к аудиту алгоритмов и ответственности операторов. Хотя концепция «электронного лица», обсуждавшаяся на ранних этапах разработки документа, не была включена в финальный текст, положения о «поставщиках ИИ» косвенно признают квазисубъектность через механизм распределения обязанностей. Например, оператор системы, использующей ИИ для подбора персонала, обязан компенсировать ущерб, причиненный дискриминационными решениями алгоритма, даже если их причина обусловлена скрытыми паттернами в данных.
В США, где отсутствует единый федеральный закон об ИИ, регулирование формируется через прецедентное право и отраслевые стандарты. Ярким примером стало дело State of Arizona vs. Rafaela Vasquez, где Верховный суд штата Аризона постановил, что ответственность за ДТП с участием беспилотного автомобиля лежит на компании-операторе, а не на разработчике программного обеспечения [10]. Это решение закрепило подход, при котором ИИ рассматривается как инструмент, но с усиленной ответственностью владельца. Страхование рисков стало ключевым механизмом: в Калифорнии операторы автономных транспортных средств обязаны иметь страховой полис на сумму не менее $5 млн, что, по данным исследования Стэнфордского университета (2022), снижает нагрузку на судебную систему, перенося компенсационные риски на рынок. Однако, как подчеркивает профессор Р. Калло в работе «Artificial Intelligence Policy: A Primer and Roadmap», такая модель игнорирует вопросы «алгоритмической справедливости», фокусируясь исключительно на экономических аспектах [11].
Китайская модель, напротив, сочетает жесткое государственное регулирование с презумпцией ответственности оператора. Управлением киберпространства КНР были опубликованы «Временные меры по управлению услугами генеративного искусственного интеллекта» [12]. Согласно содержанию ст. 13-15 «Временных мер», операторы в ходе оказания услуг должны обеспечивать их безопасность, стабильность и непрерывность для поддержания их нормального применения пользователями. Если оператор обнаруживает незаконный контент, он должен незамедлительно принять меры к его ликвидации (остановка генерации, прекращение передачи, устранение и т.д.), к оптимизации модели и к обучению для исправления ситуации, и сообщить о произошедшем в соответствующие органы. Если оператор обнаружит, что пользователь использует услугу генеративного ИИ для незаконной деятельности, он должен сделать ему предупреждение, ограничить функции, приостановить или прекратить оказание ему услуг и принять другие меры к ликвидации нарушений в соответствии с законом, в то же время вести соответствующие записи и сообщать в компетентные органы о нарушениях. Операторы должны создавать и совершенствовать механизм подачи жалоб и сообщений, создать удобный портал для подачи жалоб и сообщений, публиковать процесс обработки и сроки обратной связи, своевременно принимать и обрабатывать жалобы и сообщения населения и сообщать о результатах».
Сравнительный анализ выявляет общую тенденцию: ни одна юрисдикция не наделяет ИИ полноценной правосубъектностью, но все они создают гибридные механизмы, учитывающие его автономность. Европейский Союз акцентирует прозрачность и предсказуемость, США делают ставку на рыночные инструменты, а Китай сочетает административный контроль с презумпцией вины оператора. Эти модели демонстрируют, что квазисубъектность ИИ — не радикальный разрыв с традиционным правом, а эволюционная адаптация, позволяющая сохранить баланс между инновациями и стабильностью.
Правовые барьеры имплементации квазисубъектности ИИ в РФ. Интеграция концепции квазисубъектности искусственного интеллекта в российскую правовую систему сталкивается с комплексом доктринальных, законодательных и практических препятствий. Эти барьеры обусловлены как консервативностью гражданско-правовых конструкций, так и отсутствием системного подхода к регулированию цифровых технологий.
Главным доктринальным ограничением остается традиционное понимание субъектности, закрепленное в ст. 2 ГК РФ, где участниками правоотношений признаются только физические и юридические лица, а также публичные образования. Попытки вписать ИИ в эту парадигму через аналогию с юридическими лицами противоречат принципу «правовой определённости», поскольку алгоритмы не обладают ни имущественной обособленностью, ни организационным единством.
Законодательные пробелы усугубляют проблему. Несмотря на утверждение Национальной стратегии развития искусственного интеллекта до 2030 года, в ГК РФ до сих пор отсутствует определение ИИ, критерии его автономности и правила взаимодействия с ним. Федеральный закон «О цифровых активах», ограничивается регулированием криптовалют и NFT, игнорируя вопросы квазисубъектности. Такая фрагментарность создаёт риски коллизии норм, особенно в сфере ответственности за вред, причиненный ИИ.
Практические сложности связаны с неготовностью правоприменительных институтов к работе с автономными системами. Отсутствие методик доказывания «вины алгоритма», стандартов аудита ИИ и квалифицированных экспертов приводит к произвольному толкованию норм.
Кроме того, этические аспекты квазисубъектности ИИ остаются вне поля зрения законодателя. В отличие от ЕС, где EU AI Act закрепляет принципы прозрачности и недискриминации, в России аналогичные нормы носят декларативный характер. Это создаёт риски использования ИИ в ущерб правам граждан, особенно в чувствительных сферах вроде кредитования или медицины.
Перспективные модели квазисубъектности ИИ для РФ. Разработка моделей квазисубъектности искусственного интеллекта в России требует баланса между зарубежным опытом и традициями отечественной цивилистики. Несмотря на правовые барьеры, текущие законодательные инициативы и научные дискуссии позволяют выделить несколько перспективных направлений, которые могут быть реализованы в среднесрочной перспективе.
Одной из ключевых идей является гибридная модель, сочетающая элементы европейского и китайского подходов. В рамках этой модели ИИ, применяемый в «критически значимых» сферах (финансы, медицина, транспорт), мог бы регистрироваться в специальном реестре с обязательной сертификацией алгоритмов, как это предложено в Национальной стратегии развития ИИ до 2030 года. Такой реестр, аналогичный китайскому опыту, позволил бы контролировать автономность систем и распределять ответственность между оператором и разработчиком. Например, Центральный банк РФ уже использует алгоритмы для анализа рынка, и их включение в реестр повысило бы прозрачность принимаемых решений.
Важным элементом модели является презумпция ответственности оператора, закрепленная в проекте поправок в ГК РФ, разработанном Институтом законодательства и сравнительного правоведения. Согласно этому проекту, оператор ИИ обязан возместить вред, причиненный системой, если не докажет, что соблюдал все требования к её эксплуатации. Этот подход снизит риски злоупотреблений, но потребует четких критериев «надлежащего контроля».
Еще одним направлением может стать страхование рисков, активно применяемое в США. Имеет место ввести обязательное страхование для операторов автономных ИИ-систем, используемых в высокорисковых отраслях. Например, медицинские учреждения, применяющие ИИ для диагностики, могли бы страховать ответственность на аналогии с врачебной практикой. Этот механизм, уже частично используемый в рамках Федеральном законе «О персональных данных», позволит компенсировать ущерб без радикального пересмотра ГК РФ.
Законодательные изменения должны включать введение понятия «цифровой агент» в ст. 434 ГК РФ. Такой статус позволит ИИ совершать сделки под контролем человека, сохраняя ответственность за оператором.
Ключевой проблемой остается отсутствие этических стандартов. В отличие от EU AI Act, где закреплены принципы прозрачности и недискриминации, российские инициативы фокусируются на технических аспектах. Включение этических требований в реестр автономных ИИ могло бы стать компромиссом между инновациями и защитой прав граждан.
Заключение. Исследование зарубежных моделей квазисубъектности искусственного интеллекта и анализ их применимости в российской правовой системе демонстрируют, что признание ограниченной правосубъектности ИИ — не радикальный разрыв с традиционным правом, а эволюционный ответ на технологические вызовы. Мировой опыт (ЕС, США, Китай) подтверждает, что гибридные модели, сочетающие ответственность оператора, страхование рисков и прозрачность алгоритмов, способны обеспечить баланс между инновациями и правовой стабильностью.
Для России ключевым направлением должна стать адаптация лучших зарубежных практик с учетом национальных правовых традиций. Внедрение реестра автономных ИИ-систем, аналогичного китайской модели, позволит контролировать их использование в критически значимых сферах. Презумпция ответственности оператора снизит риски злоупотреблений, а обязательное страхование, как в США, создаст механизмы компенсации вреда без перегрузки судебной системы.
Принципиальным условием остается законодательное закрепление понятий «цифровой агент» и «автономный ИИ» в ГК РФ. Одновременно с этим необходимо использовать принципы, такие как: прозрачность, отсутствие вреда, подотчётность, конфиденциальность, надёжность, инклюзивность при написании этических стандартов разработки и использования ИИ, чтобы обеспечить прозрачность алгоритмов
Реализация предложенных мер позволит России не только минимизировать правовые риски, связанные с внедрением ИИ, но и занять активную позицию в формировании глобальных стандартов цифрового права. Квазисубъектность ИИ — это не угроза традиционному правопорядку, а инструмент его адаптации к реалиям цифровой эпохи, где технологии и право должны развиваться в симбиозе.
Литература:
- Regulation (EU) 2023/123 of the European Parliament and of the Council on Artificial Intelligence (AI Act) // [Электронный ресурс] URL: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html (дата обращения: 04.04.2025).
- Гражданский кодекс Китайской Народной Республики (в действ. ред.) // [Электронный ресурс] URL: https://www.chinalawtranslate.com/en/civilcode/ (дата обращения: 04.04.2025).
- Тиунова А. И. Робот как субъект правоотношения – миф или реальность? // Журнал Суда по интеллектуальным правам. 2020. № 2 (28). С. 57-59.
- Постановление Правительства РФ от 9 марта 2022 г. N 309 «Об установлении экспериментального правового режима в сфере цифровых инноваций и утверждении Программы экспериментального правового режима в сфере цифровых инноваций по эксплуатации высокоавтоматизированных транспортных средств» (в действ. ред.) // [Электронный ресурс] URL: https://base.garant.ru/403712648/ (дата обращения: 04.04.2025)
- Баттахов П. П., Овчинникова Ю. С. Страхование гражданской ответственности за причинение вреда при внедрении искусственного интеллекта: экспериментальные правовые режимы в условиях конституционных трансформаций // Северо-Кавказский юридический вестник. 2024. № 4. [Электронный ресурс] URL: https://cyberleninka.ru/article/n/strahovanie-grazhdanskoy-otvetstvennosti-za-prichinenie-vreda-pri-vnedrenii-iskusstvennogo-intellekta-eksperimentalnye-pravovye (дата обращения: 13.04.2025).
- Зорькин В. Д. Право и вызовы искусственного интеллекта // Конституционный суд Российской Федерации [Электронный ресурс] URL: https://www.ksrf.ru/ru/News/Speech/Pages/ViewItem.aspx?ParamId=98 (дата обращения: 16.04.2025).
- Иванов А. А. Цифровые агенты в гражданском праве // Журнал российского права. 2022. № 8. С. 34–47.
- Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (в действ. ред.) // Информационно-правовое обеспечение «Гарант» [Электронный ресурс] URL: https://base.garant.ru/72838946/ (дата обращения: 16.04.2025).
- Рожкова М.А. Искусственный интеллект и гражданско-правовая ответственность // Вестник гражданского права. 2023. № 2. С. 12–29.
- State of Arizona vs. Rafaela Vasquez (2020) // [Электронный ресурс] URL: https://www.azcentral.com/story/news/local/tempe/2020/09/15/uber-self-driving-car-crash-death-arizona-charges-rafaela-vasquez/5808361002/ (дата обращения: 16.04.2025).
- Calo R. Artificial Intelligence Policy: A Primer and Roadmap (2017) // [Электронный ресурс] URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3015350 (дата обращения: 16.04.2025).
- Временные меры по управлению услугами генеративного искусственного интеллекта. // [Электронный ресурс] URL: https://baijiahao.baidu.com/s?id=1771288400061005032&wfr=spid er&for=pc (дата обращения: 18.04.2025)
References:
1. Regulation (EU) 2023/123 of the European Parliament and of the Council on Artificial Intelligence (AI Act) // [Electronic resource] URL: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html (date of access: 04.04.2025).
2. Civil Code of the People’s Republic of China (in current version) // [Electronic resource] URL: https://www.chinalawtranslate.com/en/civilcode/ (date of access: 04.04.2025).
3. Tiunova A. I. Robot as a subject of legal relations — myth or reality? // Journal of the Court on Intellectual Rights. 2020. No. 2 (28). P. 57-59.
4. Resolution of the Government of the Russian Federation of March 9, 2022 N 309 «On the establishment of an experimental legal regime in the field of digital innovations and approval of the Program of the experimental legal regime in the field of digital innovations for the operation of highly automated vehicles» (in current version) // [Electronic resource] URL: https://base.garant.ru/403712648/ (date of access: 04.04.2025)
5. Battakhov P. P., Ovchinnikova Yu. S. Insurance of civil liability for harm caused by the introduction of artificial intelligence: experimental legal regimes in the context of constitutional transformations // North Caucasian Legal Bulletin. 2024. No. 4. [Electronic resource] URL: https://cyberleninka.ru/article/n/strahovanie-grazhdanskoy-otvetstvennosti-za-prichinenie-vreda-pri-vnedrenii-iskusstvennogo-intellekta-eksperimentalnye-pravovye (date of access: 13.04.2025).
6. Zorkin V. D. Law and challenges of artificial intelligence // Constitutional Court of the Russian Federation [Electronic resource] URL: https://www.ksrf.ru/ru/News/Speech/Pages/ViewItem.aspx?ParamId=98 (date of access: 16.04.2025).
7. Ivanov A. A. Digital agents in civil law // Journal of Russian Law. 2022. No. 8. P. 34–47.
8. Decree of the President of the Russian Federation of 10.10.2019 No. 490 “On the Development of Artificial Intelligence in the Russian Federation” (as amended) // Information and legal support “Garant” [Electronic resource] URL: https://base.garant.ru/72838946/ (date of access: 16.04.2025).
9. Rozhkova M.A. Artificial Intelligence and Civil Liability // Bulletin of Civil Law. 2023. No. 2. P. 12–29.
10. State of Arizona vs. Rafaela Vasquez (2020) // [Electronic resource] URL: https://www.azcentral.com/story/news/local/tempe/2020/09/15/uber-self-driving-car-crash-death-arizona-charges-rafaela-vasquez/5808361002/ (accessed: 04/16/2025).
11. Calo R. Artificial Intelligence Policy: A Primer and Roadmap (2017) // [Electronic resource] URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3015350 (accessed: 04/16/2025).
12. Temporary measures for the management of generative artificial intelligence services. // [Electronic resource] URL: https://baijiahao.baidu.com/s?id=1771288400061005032&wfr=spid er&for=pc (date of access: 04/18/2025).
Информация об авторе:
Д.С. Пудовкин, аспирант кафедры гражданского права и процесса Санкт-Петербургского университета технологий управления и экономики, г. Санкт-Петербург.
Научный руководитель: Н.Н. Костюк, кандидат юридических наук, доцент, Заведующий кафедрой гражданско-правовых дисциплин АНО ВО «Университет при Межпарламентской Ассамблее ЕврАзЭС».
Information about the author:
D. S. Pudovkin, Postgraduate student of the Department of Civil Law and Procedure St. Petersburg University of Management Technologies and Economics, St. Petersburg.
Scientific supervisor: N.N. Kostyuk, PhD in Law, Associate Professor, Head of the Department of Civil Law Disciplines Autonomous Educational Institution of Higher Education «University at the Interparliamentary Assembly of the Eurasian Economic Community».