Проблема «Чорної скриньки» в юридичному ШІ: чи достатньо існуючих методів XAI для задоволення вимог належного правового процесу?
DOI:
https://doi.org/10.24144/2307-3322.2025.90.3.63Ключові слова:
штучний інтелект, належна правова процедура, пояснюваний ШІ (XAI), проблема «чорної скриньки», юридичне обгрунтуванняАнотація
Інтеграція штучного інтелекту (ШІ) в юридичну практику створює проблему “чорної скриньки”, де непрозорі моделі ставлять під сумнів принципи належної правової процедури. Ця непрозорість суперечить праву на обґрунтоване та оскаржуване рішення.
Стаття досліджує фундаментальний розрив між технічними поясненнями, які надають сучасні методи ХАI (LIME, SHAP), та нормативними обгрунтуваннями, що вимагаються доктриною належного правового процесу. Метою є критична оцінка обмежень ХАІ та, на основі цих висновків, формулювання нового стандарту прозорості для юридичного ШІ.
Дослідження базується на комплексному застосуванні правових та наукових методів, включаючи порівняльно-правовий та формально-логічний аналіз. Цей підхід використовувався для вивчення взаємозвʼязку між технологією ШІ та правовими доктринами, аналізуючи правові акти та наукові праці для виявлення розбіжностей між технічними поясненнями та юридичними вимогами.
У статті доведено, що популярні пост-хок методи ХАI є принципово недостатніми для юридичних потреб. Вони генерують нестабільні технічні апроксимації поведінки моделі, а не юридично значущі обгрунтування. Такі пояснення можуть бути ненадійними та створювати «ефект Расьомона» (кілька суперечливих пояснень для одного результату), що робить право на ефективну апеляцію ілюзорним. Право вимагає обгрунтування, а не лише пояснення.
У статті пропонується новий стандарт: «Обгрунтований ШI» (JAI). Ця концепція зміщує фокус з пояснення непрозорих моделей на проєктування інтерпретованих гібридних систем, що поєднують компоненти на основі правил з моделями на основі даних. Подальші дослідження мають зосередитися на розробці архітектур JAI, створенні правових стандартів сертифікації та вивченні довіри користувачів до таких систем.
Посилання
Richmond, K. M., Muddamsetty, S. M., Gammeltoft-Hansen, T., Olsen, H. P., & Moeslund, T.B. Explainable AI and Law: An Evidential Survey. Digital Society. 2024. 3(1). URL: https://doi.org/10.1007/s44206-023-00081-z.
Rudin, C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nat Mach Intell. 2019. No 1. pp. 206–215. URL: https://doi.org/10.1038/s42256-019-0048-x.
Wachter, S., Mittelstadt, B., & Russell, C. Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology. 2018. 31(2). pp. 841-887. URL: https://jolt.law.harvard.edu/assets/articlePDFs/v31/Counterfactual-Explanations-without-Opening-the-Black-Box-Sandra-Wachter-et-al.pdf.
The Council of Europe. The European Convention on Human Rights. The Council of Europe Website. 1953. URL: https://www.coe.int/en/web/portal.
Završnik, A. Criminal justice, artificial intelligence systems, and human rights. ERA Forum. 2020. No 20. pp. 567–583. URL: https://doi.org/10.1007/s12027-020-00602-0.
Pasquale, F. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press. 2015. 260P. URL: https://www.jstor.org/stable/j.ctt13x0hch.
Yeung, K. Algorithmic regulation: A critical interrogation. King’s College London Law School Research Paper. 2017. No. 2017-27. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2972505.
Hildebrandt, M. Law as computation in the era of artificial legal intelligence: Speaking law to the power of statistics. University of Toronto Law Journal. 2018. Vol. 68. No 1. URL: https://doi.org/10.3138/utlj.2017-0044.
Molnar, C. Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. 2022. URL: https://christophm.github.io/interpretable-ml-book/.
Selbst, A. & Barocas, S. The Intuitive Appeal of Explainable Machines. Fordham Law Review. 2018. 87/1085. URL: http://dx.doi.org/10.2139/ssrn.3126971.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 О. А. Шамов

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.