Прозрачность алгоритмов искусственного интеллекта
Аннотация
В эпоху активного освоения искусственного интеллекта (ИИ) перед юристами встает вопрос, как решить проблему «черного ящика», непонятности и непредсказуемости решений, принимаемых искусственным интеллектом. Разработка правил, обеспечивающих прозрачность и понятность алгоритмов ИИ, позволяет вписать его в классические правоотношения, устраняя угрозу институту юридической ответственности. В частном праве защита потребителей перед лицом крупных онлайн-платформ выдвигает прозрачность алгоритмов на первый план, меняя само обязательство по предоставлению информации потребителю, которое теперь описывается формулой «знать + понимать». Аналогично и в праве публичном — государства не в состоянии должным образом защитить граждан от вреда, причиняемого зависимостью от алгоритмов при оказании государственных услуг. Противопоставить этому можно только знание и понимание функционирования алгоритмов. Требуется принципиально новое регулирование, позволяющее ввести использование искусственного интеллекта в легальные рамки, в которых следует формулировать требования к прозрачности алгоритмов. Эксперты активно обсуждают создание нормативной базы для формирования системы наблюдения за внедрением и использованием технологий ИИ. Разрабатываются меры «политики алгоритмической подотчетности», фреймворк «Прозрачность через проектирование» с акцентом на постоянном взаимодействии с заинтересованными сторонами и организационной открытости, обосновывается внедрение объяснимых систем ИИ. В целом предлагаемые подходы к регулированию ИИ и обеспечению прозрачности схожи, равно как и прогнозы о смягчающей роли прозрачности алгоритмов ИИ в вопросах доверия к ИИ. Интересна концепция «алгоритмического суверенитета», относящаяся к способности государства управлять разработкой, развертыванием и воздействием систем ИИ в соответствии с собственными правовыми, культурными и этическими нормами. Обеспечение прозрачности алгоритмов ИИ — направление общей политики управления в области ИИ, важнейшей частью которой является этика ИИ. Несмотря на кажущуюся универсальность, этика ИИ не всегда учитывает все разнообразие этических конструкций в разных уголках мира, что демонстрирует африканский пример и опасения алгоритмической колонизации.
Литература
Adams R. (2021) Can artificial intelligence be decolonized? Interdisciplinary Science Reviews, vol. 46, pp. 176-197.
Badawy W. (2025) Algorithmic sovereignty and democratic resilience: rethinking AI governance in the age of generative AI. AI and Ethics, vol. 5, pp. 4402-4410.
Batool A. et al. (2025) AI governance: a systematic literature review. AI and Ethics, vol. 5, pp. 3265-3279.
Birhane A. (2023) Algorithmic colonization of Africa. In: S. Cave S., K. Dihal (eds.). Imagining AI: How the world sees intelligent machines. Oxford: University Press, pp. 247-260.
Buriaga V.O., Djuzhoma V.V., Artemenko E.A. (2025) Shaping an artificial intelligence regulatory model: international and domestic Experience. Legal Issues in the Digital Age, vol. 6, no. 2, pp. 50-68.
Goldstein S. (2025) Will AI and humanity go to war? AI & Society.
Han S. (2025) The question of AI and democracy: four categories of AI governance. Philosophy & Technology, vol. 38, pp. 1-26.
Kabytov P.P., Nazarov N.A. (2025) Transparency in public administration in the digital age: legal, institutional and mechanisms. Legal Issues in the Digital Age, vol. 6, no. 2, pp. 161-182.
Mohamed S. et al. (2020) Decolonial AI: Decolonial theory as sociotechnical foresight in artificial intelligence. Philosophy & Technology, vol. 33, pp. 659-684.
Nihei M. (2022) Epistemic injustice as a philosophical conception for considering fairness and diversity in human-centered AI principles. Interdisciplinary Information Sciences, vol. 28, pp. 25-43.
O’Neil C. (2016) Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 272 p.
Park K., Yoon Ho Y. (2025) AI algorithm transparency, pipelines for trust not prisms: mitigating general negative attitudes and enhancing trust toward AI. Humanities and Social Sciences Communities, no. 12.
Rachovitsa A., Johann N. (2022) The human rights implications of the use of AI in the digital welfare state: lessons learned from the dutch SyRI case. Human Rights Law Review, no. 22, pp. 1-15.
Saleem M. et al. (2025) Responsible AI in fintech: addressing challenges and strategic solutions. In: S. Dutta et al. Generative AI in FinTech: Revolutionizing Finance through Intelligent Algorithms. Cham: Springer, pp. 61-72.
Spina Alì G., Yu R. (2021) Artificial Intelligence between transparency and secrecy: from the EC Whitepaper to the AIA and beyond. European Journal of Law and Technology, vol. 12, no. 3, pp. 1-25.
Sposini L. (2024) The governance of algorithms: profiling and personalization of online content in the context of European Consumer Law. Nordic Journal of European Law, vol. 7, no. 1, pp. 1-22.
Thaler R. (2018) New behavioral economics. Why people break the rules of traditional economics and how to make money on it. Moscow: Eksmo, 367 p. (in Russ.)
Visave J. (2025) Transparency in AI for emergency management: building trust and accountability. AI and Ethics, no. 5, pp. 3967-3980.
Yilma K. (2025) Ethics of AI in Africa: interrogating the role of Ubuntu and AI governance initiatives. Ethics and Information Technology, vol. 27, pp. 1-14.
Copyright (c) 2025 Талапина Э.В.

Это произведение доступно по лицензии Creative Commons «Attribution-ShareAlike» («Атрибуция — На тех же условиях») 4.0 Всемирная.












