Алгоритмічні системи і презумпція невинуватості: правовий аналіз упереджень та механізмів захисту
DOI:
https://doi.org/10.24144/2307-3322.2025.90.4.41Ключові слова:
досудове розслідування, гарантії та захист прав особи, алгоритмічні системи, презумпція невинуватості, кримінальне провадження, підозра, обвинувачення, захист, упередження, ШІАнотація
У статті розглядається вплив сучасних технологій штучного інтелекту на фундаментальне право особи бути визнаною невинуватою до набрання вироком суду законної сили. В результаті прове- деного аналізу встановлено, як автоматизоване розпізнавання обличчя, алгоритмічні інструменти оцінки ризику рецидиву та системи прогнозного поліцейського профілювання можуть породжувати упередження внаслідок некоректної вибірки даних, непрозорих алгоритмічних припущень та недо- сконалої методології моделювання. Встановлено, що застосування таких технологій без належно- го контролю загрожує зміщенням тягаря доказування й порушенням принципу «in dubio pro reo», закріпленого в ст. 6 Європейської конвенції з прав людини. У роботі проаналізовано Директи- ву (EU) 2016/343 та Regulation (EU) 2024/1689 (AI Act), що встановлює мінімальні стандарти кри- мінального судочинства, вимоги прозорості та відповідальності алгоритмічних систем, а також єв- ропейські резолюції й рекомендації організацій Fair Trials та Amnesty International щодо забезпечен- ня доступу захисту до вихідного коду й результатів аудиту алгоритмів. На основі виявлених ризиків обґрунтовано необхідність запровадження інструментів пояснюваності (explainability), створення незалежних органів аудиту ШІ та законодавчих обмежень на автономне застосування високоризи- кових технологій без участі людини. Також наголошено на потребі професійного навчання суддів, прокурорів і адвокатів у сфері застосування штучного інтелекту та алгоритмічної справедливості, а також на гарантуванні захисту права підозрюваного на ознайомлення з експертними висновками щодо роботи алгоритмічних систем, що слугують доказами. Встановлено необхідність законодав- чого закріплення права сторони захисту на доступ до технічної документації алгоритму (включно з описом джерел навчальних даних, методів валідації і результатів незалежних аудитів) з урахуван- ням режимів захисту комерційної таємниці. Проаналізовано важливість передбачення механізмів конфіденційного ознайомлення в суді та фінансування експертних перевірок за рахунок держави у випадку, коли особа не може самостійно забезпечити таку перевірку. Обґрунтовано доцільність встановлення процесуальної заборони на використання повністю автономних рішень у питаннях, що безпосередньо обмежують свободу особи (наприклад, підстави для арешту або продовження запобіжного заходу) – у таких випадках рішення повинно ухвалюватися людиною з обов’язковим врахуванням наданого алгоритмом пояснення та з фіксацією підстав для відхилення або прийняття його висновків. Рекомендовано запровадити на національному рівні наглядові та сертифікаційні процедури для алгоритмів високого ризику, включно з періодичними незалежними аудитами й пу- блічними звітами про їхню ефективність та виявлені упередження. У контексті транснаціональних електронних доказів акцентовано на доцільності врахування практики проєктів SIRIUS і TREIO при гармонізації правил доступу до даних і співпраці з іноземними юрисдикціями, щоб не допусти- ти, аби алгоритмічні докази, отримані з-за кордону, уникали належної перевірки.
Посилання
Конвенція про захист прав людини і основоположних свобод URL: https://zakon.rada.gov. ua/laws/show/995_004#Text (дата звернення: 14.08.2025).
Guide on Article 6 of the European Convention on Human Rights: Right to a fair trial (criminal limb). Council of Europe. 2022. URL: https://rm.coe.int/1680304c4e (дата звернення: 24.07.2025).
Directive (EU) 2016/343 of the European Parliament and of the Council of 9 March 2016 on strengthening certain aspects of the presumption of innocence and of the right to be present at the trial in criminal proceedings : Directive EU from 09.03.2016 // Official Journal of the European Union. L65, 1–11, 11.03.2016. URL: https://eur-lex.europa.eu/eli/dir/2016/343/oj (дата звер- нення: 24.07.2025).
Regulation (EU) 2024/1689 of the European Parliament and of the Council of 12 July 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) : Regulation EU from 12.07.2024. Official Journal of the European Union. L229, 1–181, 12.07.2024. URL: https://eur-lex.europa.eu/eli/reg/2024/1689/oj (дата звернення: 24.07.2025).
European Parliament resolution of 6 October 2021 on artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters (2020/2016(INI)) : Resolution of European Parliament from 06.10.2021. Official Journal of the European Union. C132, 17–26, 14.03.2022. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=uriserv:OJ.C_.2022.132.01.0017.01.ENG (дата звернення: 24.07.2025).
Automating injustice: The impact of predictive policing and risk assessment algorithms on fair trial rights. Fair Trials. 2022. URL: https://www.fairtrials.org/report/automating-injustice (дата звернення: 24.07.2025).
Facial recognition technology needs stricter regulation. The Guardian. 17.06.2025. URL: https://www.theguardian.com/technology/2025/jun/17/facial-recognition-technology-needs-stricter- regulation (дата звернення: 24.07.2025).
Predictive policing has prejudice built in. The Guardian. 10.04.2025. URL: https://www. theguardian.com/uk-news/2025/apr/10/predictive-policing-has-prejudice-built-in (дата звер- нення: 24.07.2025).
Angwin J., Larson J., Mattu S., Kirchner L. Machine bias: There’s software used across the country to predict future criminals. And it’s biased against Blacks. ProPublica. 23.05.2016. URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (дата звернення: 24.07.2025).
Pattison-Gordon J. Risk assessment algorithms can unfairly impact court decisions. GovTech. 27.09.2021. URL: https://www.govtech.com/public-safety/risk-assessment-algorithms-can- unfairly-impact-court-decisions (дата звернення: 24.07.2025).
Pretrial algorithms and racial disparities. The Bail Project. 2022. URL: https://bailproject.org/ policy/pretrial-algorithms/ (дата звернення: 24.07.2025).
Koctiuchenko O., Akhtyrska N., Sereda Y., Vynohradova A., Miroshnykov I. The role of transnational electronic evidence in the investigation of crimes . Amazonia Investiga, Volume 12 – Issue 71 / November (2023). Р. 293-303. URL: https://doi.org/10.34069/AI/2023.71.11.26 (дата звернення: 14.08.2025).
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Я.І. Крикніцький

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.