Правові механізми аудиту та підзвітності в системах штучного інтелекту в контексті міжнародного права

Автор(и)

  • В.А. Афган Baku State University, Faculty of Law, UNESCO Department of Human Rights and Information Law, PhD student, Азербайджан

DOI:

https://doi.org/10.24144/2307-3322.2025.90.5.8

Ключові слова:

штучний інтелект, нагляд, підзвітність, міжнародне право, правове регулювання, правові механізми, правова природа, міжнародні ініціативи, регіональні ініціативи, стандарти аудиту, механізми сертифікації, модель контролю

Анотація

Ця стаття присвячена нагляду за діяльністю систем штучного інтелекту та забезпеченню зо- бов’язань щодо підзвітності в рамках міжнародно-правових норм. Дослідження надає порівняль- ний аналіз існуючих регуляторних механізмів у різних правових системах, розглядаючи правові та нормативні виклики, які вони створюють під час впровадження. У статті розглядаються меха- нізми нагляду та підзвітності систем штучного інтелекту на основі ключових міжнародно-право- вих джерел, включаючи Закон Європейського Союзу про штучний інтелект, Рекомендацію ЮНЕ- СКО щодо етики у штучному інтелекті, Принципи Організації економічного співробітництва та розвитку (ОЕСР) щодо штучного інтелекту та Рамкову конвенцію Ради Європи про штучний ін- телект, права людини, демократію та верховенство права (проект).

У дослідженні також розглядаються методологічні основи технологічних та процесно-орієнто- ваних видів ІТ-аудитів, включаючи алгоритмічні, продуктивні, безпекові та етичні аудити. Також уточнюється відповідальність різних учасників ланцюжка підзвітності (розробників, постачаль- ників, користувачів та регуляторів). У статті висвітлено практичні наслідки технологічних викли- ків, таких як «чорна скринька» ІТ-систем, їхня динамічна та адаптивна природа, інформаційна упередженість, а також регуляторні прогалини, такі як проблеми міжюрисдикційної координації та невизначеність щодо юридичної відповідальності. У цьому контексті проводиться порівняль- ний аналіз різних регуляторних практик, таких як ризикоорієнтована модель Європейського Со- юзу, галузевий підхід Сполучених Штатів та модель державного контролю Китаю. Аналіз демон- струє, що ці різні підходи перешкоджають встановленню єдиних глобальних стандартів та ство- рюють правову невизначеність для компаній, що працюють за кордоном. Підкреслюється роль міжнародних стандартів та механізмів сертифікації, а також важливість забезпечення людського контролю та прозорості у вирішенні цих викликів.

Результати дослідження показують, що ефективний аудит та підзвітність ІТ-систем у контексті міжнародного права вимагає інтеграції технологічно-орієнтованих та процесоорієнтованих під- ходів та зміцнення міжнародно-правового співробітництва. У статті пропонуються конкретні ре- комендації щодо усунення існуючих регуляторних прогалин, включаючи прийняття національної правової бази, впровадження обов’язкових оцінок впливу на права людини, посилення зобов’я- зань щодо прозорості та підзвітності, забезпечення людського нагляду та створення незалежних органів нагляду. Ці кроки забезпечать справедливий та безпечний розвиток і впровадження тех- нологій штучного інтелекту, що поважають права людини.

Посилання

Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707.

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399.

Winfield, A.F., & Jirotka, M. (2018). Ethical governance is essential to building trust in robotics and artificial intelligence systems. Philosophical Transactions of the Royal Society A, 376(2133), 20180085.

Brynjolfsson, E., & McAfee, A. (2017). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO.

OECD. (2024). OECD AI Principles. OECD Publishing.

Council of Europe. (2024). Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. Council of Europe.

Smuha, N.A. (2019). The EU approach to ethics guidelines for trustworthy artificial intelligence. Computer Law Review International, 20(4), 97–106.

European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.

OECD. (2019). Recommendation of the Council on Artificial Intelligence. OECD/LEGAL/0449.

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence – Section I: Scope and Definitions. UNESCO.

Council of Europe. (2024). Framework Convention on Artificial Intelligence – Article 2: Definitions. Council of Europe Treaty Series.

Gupta, K. (2004). Contemporary Auditing (7th ed.). Tata McGraw-Hill Education.

Mökander, J., Axente, M., Casolari, F., Floridi, L. (2023). Auditing of AI: Legal, Ethical and Technical Approaches. Digital Society, 2, 49.

Bovens, M. (2007). Analysing and assessing accountability: a conceptual framework. European Law Journal, 13(4), 447–468.

Cath, C., Wachter, S., Mittelstadt, B., Taddeo, M., & Floridi, L. (2018). Artificial intelligence and the ‘good society’: the US, EU, and UK approach. Science and Engineering Ethics, 24(2), 505–528.

Raji, I.D., Smart, A., White, R.N., Mitchell, M., Gebru, T., Hutchinson, B., ... & Barnes, P. (2020). Closing the AI accountability gap: defining an end-to-end framework for internal algorithmic auditing. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, 33–44.

Koshiyama, A., Kazim, E., Treleaven, P., Rai, P., Szpruch, L., Pavey, G., ... & Hamid, F. (2022). Towards algorithm auditing: A survey on managing legal, ethical and technological risks of AI, ML and associated algorithms. Computer Science Review, 43, 100435.

Veale, M., & Borgesius, F. Z. (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, 22(4), 97–112.

NIST. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology.

Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: an analysis of policy, ethics, and regulation. AI & Society, 36(1), 59–77.

UK Government. (2023). A Pro-Innovation Approach to AI Regulation. HM Government White Paper.

Castelvecchi, D. (2016). Can we open the black box of AI? Nature News, 538(7623), 20.

Lior, Y. (2020). Can artificial intelligence be held accountable? A comparative analysis of the liability of AI systems. Computer Law & Security Review, 39, 105474.

Smuha, N.A. (2019). The EU approach to ethics guidelines for trustworthy artificial intelligence. Computer Law Review International, 20(4), 97–106.

Moses, L.B. (2013). How to think about law, regulation and technology: Problems with ‘technology’ as a regulatory target. Law, Innovation and Technology, 5(1), 1–20.

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35.

Arrieta, A.B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., ... & Herrera,

F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82–115.

Bandy, J. (2021). Problematic machine behavior: A systematic literature review of algorithm auditing. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 440–455.

Selbst, A.D., Boyd, D., Friedler, S.A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical systems. Proceedings of the Conference on Fairness, Accountability, and Transparency, 59–68.

Diakopoulos, N. (2016). Accountability in algorithmic decision making. Communications of the ACM, 59(2), 56–62.

Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.

Dignum, V. (2019). Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Springer.

Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning: Limitations and Opportunities. MIT Press.

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.

##submission.downloads##

Опубліковано

2025-10-14