Прозрачность государственного управления в условиях автоматизированного принятия решений

  • Павел Кабытов Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации https://orcid.org/0000-0001-8656-5317
  • Никита Назаров Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации https://orcid.org/0000-0002-3997-0886
Ключевые слова: автоматизированное решение, система искусственного интеллекта, прозрачность государственного управления, право на объяснение, контрфактологические объяснения, алгоритмическая подотчетность

Аннотация

В условиях активного внедрения автоматизированных систем принятия решений и систем искусственного интеллекта в деятельность органов публичной власти актуализируется проблема поддержания надлежащего уровня прозрачности государственного управления, имеющая критическое значение для соблюдения принципов верховенства права и защиты фундаментальных прав граждан. Настоящая работа ставит целью провести комплексную систематизацию и критический анализ сложившихся в российском и зарубежном праве, а также в правовой теории подходов к решению указанной проблемы. Методологическую основу исследования составили общенаучные (анализ, синтез, системный подход) и частные (сравнительно-правовой, формально-юридический) методы изучения. В статье рассматриваются концептуальные основания и практические вызовы реализации требований прозрачности и объяснимости автоматизированного принятия решений и систем искусственного интеллекта, включая их роль в повышении доверия, обеспечении подотчетности, предотвращении дискриминации и укреплении легитимности публичного управления. Основное внимание уделено критическому анализу широкого спектра механизмов прозрачности (классифицируемых, в частности, по направленности на систему в целом или на отдельное решение, а также по моменту сообщения информации — ex ante или ex post): раскрытие порядка или логики принятия решений, «право на объяснение», контрфактологические объяснения, раскрытие данных и программного кода/модели, аудит и общественный контроль, информирование о применении, а также использование объяснимых/интерпретируемых моделей и иных технических решений. По каждому механизму выявлены преимущества, недостатки и трудности реализации — конфликт с защитой интеллектуальной собственности, техническая затрудненность имплементации и интерпретации, «эффект Расёмона» и фундаментальная проблема «черного ящика» систем искусственного интеллекта. Обосновывается вывод о недостаточности применения отдельных инструментов и необходимости разработки гибкого, риск-ориентированного и контекстуально-зависимого комплексного подхода. Подчеркивается актуальность имплементации адаптированных и системно увязанных механизмов в российское законодательство для поддержания надлежащего уровня прозрачности в условиях автоматизации государственного управления в России.

Биографии авторов

Павел Кабытов, Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации

Кандидат юридических наук, ведущий научный сотрудник. Адрес: Россия 117218, Москва, Большая Черемушкинская ул., д. 34. E-mail: kapavel.v@yandex.ru

Никита Назаров, Институт законодательства и сравнительного правоведения при Правительстве Российской Федерации

Младший научный сотрудник. Адрес: Россия 117218, Москва, Большая Черемушкинская ул., д. 34. E-mail: naznikitaal@gmail.com

Литература

Bathaee Y. (2017) The Artificial Intelligence Black Box and the Failure of Intent and Causation. Harvard Journal of Law & Technology, no. 2, pp. 889–938.

Diver L., Schafer B. (2017) Opening the Black Box: Petri Nets and Privacy by Design. International Review of Law, Computers & Technology, no. 1, pp. 1–39.

Edwards L., Veale M. (2018) Enslaving the Algorithm: From a Right to an Explanation to a Right to Better Decisions? IEEE Security & Privacy, no. 3, pp. 46–54.

Felzmann H., Villaronga E.F. et al. (2019) Transparency You Can Trust: Transparency Requirements for Artificial Intelligence between Legal Norms and Contextual Concerns. Big Data & Society, no. 1, pp. 1–14.

Ferrario A., Loi M. (2022) The Robustness of Counterfactual Explanations over Time. IEEE Access, no. 10, pp. 82736–82750.

Goodman B., Flaxman S. (2017) European Union Regulations on Algorithmic Decision Making and a Right to Explanation. AI Magazine, no. 3, pp. 50–57.

Guidotti R., Monreale A. et al. (2019) A Survey of Methods for Explaining Black Box Models. ACM Computing Surveys, no. 5, pp. 1–42.

Guidotti R. (2022) Counterfactual Explanations and How to Find them: Literature Review and Benchmarking. Data Mining and Knowledge Discovery, vol. 38, pp. 2770–2824.

Kuner C., Bygrave L.A., Docksey C. (2019) The EU General Data Protection Regulation (GDPR): a commentary. Oxford: University Press, 1393 p.

Mittelstadt B. (2016) Auditing for Transparency in Content Personalization Systems. International Journal of Communication. no. 10, pp. 4991–5002.

Pilipenko A.N. (2019) France: towards Digital Democracy. Pravo. Journal Vysshey shkoly ekonomiki=Law. Journal of the Higher School of Economics, vol. 12, no. 4, pp. 185–207. (in Russ.)

Santosuosso A., Pinotti G. (2020) Bottleneck or Crossroad? Problems of Legal Sources Annotation and some Theoretical Thoughts Stats, vol. 3, no. 3, pp. 376–395.

Selbst A.D., Powles J. (2017) Meaningful Information and the Right to Explanation. International Data Privacy Law, vol. 7, no. 4, pp. 233–242.

Talapina E.V. (2024) Principle of Transparency in the use of Artificial Intelligence. Gosudarstvennaya vlast i mestnoe samoupravlenie=State Power and Local Self-Government, no. 7, pp. 36–39 (in Russ.)

Troisi E. (2022) Automated Decision Making and Right to Explanation. The Right of Access as ex post Information. European Journal of Privacy Law & Technologies, no. 1, pp. 182–202.

Tutt A. (2017) An Fda for Algorithms. Administrative Law Review, no. 1, pp. 83–123.

Vengerov A.B. (1979) Legal Bases of Management Automation in the National Economy of the USSR. Moscow: Vysshaya shkola, 245 p. (in Russ.)

Wachter S., Mittelstadt B., Floridi L. (2017) Why a Right to Explanation of Automated Decision-Making does not Exist in the General Data Protection Regulation. International Data Privacy Law, vol. 7, no. 2, pp. 76–99.

Wulf A.J., Seizov O. (2024) Please Understand We Cannot Provide Further Information: Evaluating Content and Transparency of GDPR-Mandated AI Disclosures. AI & SOCIETY, vol. 39, no. 1, pp. 235–256.

Опубликован
2025-09-14
Как цитировать
КабытовП., & НазаровН. (2025). Прозрачность государственного управления в условиях автоматизированного принятия решений. Право. Журнал Высшей школы экономики, 18(3), 28-55. https://doi.org/10.17323/2072-8166.2025.3.28.55
Выпуск
Раздел
Российское право: состояние, перспективы, комментарии