Обмеження свободи штучного інтелекту та окремі ініціативи Інституту майбутнього життя
DOI:
https://doi.org/10.24144/2307-3322.2024.86.3.40Ключові слова:
штучний інтелект, свобода штучного інтелекту, межі свободи штучного інтелекту, управління штучним інтелектом, Інститут майбутнього життя, Асиломарські принципи штучного інтелекту, відкриті листиАнотація
Дискусії щодо свободи штучного інтелекту пов’язані з існуванням різних позицій з приводу того, що важливіше – технологічний прогрес чи традиційно важливі суспільні цінності, охорону яких забезпечує право. Пошук балансу між ними сприяє вирішенню проблеми управління штучним інтелектом, яка набула особливої актуальності за останні 2-3 роки з появою генеративного штучного інтелекту. У цій статті зроблена спроба визначити передумови та напрями обмеження штучного інтелекту, які повинні бути врахованими при виробленні та реалізації державної політики у сфері штучного інтелекту. Для того, щоб показати межу, за перетину якої обмеження ймовірно стануть надмірними, автори досліджують ініціативи Інституту майбутнього життя – однієї з найбільш авторитетних у світі некомерційних організацій, діяльність яких має відношення до новітніх технологій. Порушені у відкритих листах, які складені, оприлюднені та представлені для підписання Інститутом майбутнього життя, проблеми дозволяють виокремити головні обмеження для штучного інтелекту, зокрема: призупинення навчання ультрасучасних систем штучного інтелекту, більш потужних за GPT-4; формування правил у вигляді окремого зведення принципів, наприклад, розроблених Інститутом майбутнього життя Асиломарських принципів штучного інтелекту; недопустимість автономної зброї, здатної уражати без людського нагляду тощо. Крім того, у відкритих листах наголошена необхідність поглибленого вивчення штучного інтелекту як явища. Окрема увага приділена майже невідомому в українській науці Інституту майбутнього життя, заснованому приблизно десять років тому для того, щоб використання сучасних технологій було ефективним та збалансованим. Результати дослідження містять інтелектуальну карту, яка може стати цінною для кращого розуміння реальних та потенційних небезпек, зумовлених свободою штучного інтелекту та необмеженим технологічним прогресом. Крім того, автори підготували лінію часу, де систематизовані відкриті листи Інституту майбутнього життя, які стосуються штучного інтелекту та були оприлюднені за останні десять років.
Посилання
Larsson S. On the Governance of Artificial Intelligence through Ethics Guidelines. Asian Journal of Law and Society. 2020. Volume 7, Issue 3. Pp. 437–451. DOI: https://doi.org/10.1017/als.2020.19.
Radu R. Steering the Governance of Artificial Intelligence: National Strategies in Perspective. Policy and Society. 2021. Volume 40, Issue 2. Pp. 178–193. DOI: https://doi.org/10.1080/14494035.2021.1929728.
de Almeida P., dos Santos C., Farias J. Artificial Intelligence Regulation: a Framework for Governance. Ethics and Information Technology. 2021. Volume 23. Pp. 505–525. DOI: https://doi.org/10.1007/s10676-021-09593-z.
Butcher J., Beridze I. What is the State of Artificial Intelligence Governance Globally? The RUSI Journal. 2019. Volume 164, Issue 5–6. Pp. 88–96. DOI: https://doi.org/10.1080/03071847.2019.16942605.
Li G., Deng X., Gao Z., Chen F. Analysis on Ethical Problems of Artificial Intelligence Technology. Proceedings of the 2019 International Conference on Modern Educational Technology. New York, 2019. Pp. 101–105. DOI: https://doi.org/10.1145/3341042.3341057.
Brodecki Z., Konopacka M. Thinking out of the box: The human being in the AI era. Per mare ad astra. Space technology, governance and law. 2022. Volume II. Pp. 195–214.
Leikas J., Koivisto R., Gotcheva N. Ethical Framework for Designing Autonomous Intelligent Systems. Journal of Open Innovation: Technology, Market, and Complexity. 2019. Volume 5, Issue 1, Article 18. DOI: https://doi.org/10.3390/joitmc5010018.
Future of Life Institute. URL: https://futureoflife.org/ (дата звернення: 10.12.2024 р.).
Paura R. The Notion of Existential Risk and Its Role for the Anticipation of Technological Development’s Long-Term Impact. Anticipation, Agency and Complexity. Cham, 2019. Pp. 79–97. DOI: https://doi.org/10.1007/978-3-030-03623-2_6.
Tegmark M. Life 3.0. Being Human in the Age of Artificial Intelligence. New York, 2017.
Future of Life Institute (FLI). URL: https://www.influencewatch.org/non-profit/future-of-life-institute-fli/ (дата звернення: 10.12.2024 р.).
AI Economics Open Letter. URL: https://futureoflife.org/open-letter/ai-economics-open-letter/ (дата звернення: 10.12.2024 р.).
Digital Economy Open Letter. URL: https://futureoflife.org/open-letter/digital-economy-open-letter/ (дата звернення: 10.12.2024 р.).
Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter. URL: https://futureoflife.org/open-letter/ai-open-letter/ (дата звернення: 10.12.2024 р.).
Russell S., Dewey D., Tegmark M. Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine. 2015. Volume 36, Number 4. Pp. 105–114. https://doi.org/10.48550/arXiv.1602.03506.
Autonomous Weapons Open Letter: AI & Robotics Researchers. URL: https://futureoflife.org/open-letter/open-letter-autonomous-weapons-ai-robotics.
Asilomar AI Principles. URL: https://futureoflife.org/open-letter/ai-principles/ (дата звернення: 10.12.2024 р.).
The Principles – Signatories List. URL: https://futureoflife.org/open-letter/principles-signatories/ (дата звернення: 10.12.2024 р.).
An Open Letter to the United Nations Convention on Certain Conventional Weapons. URL: https://futureoflife.org/open-letter/autonomous-weapons-open-letter-2017 (дата звернення: 10.12.2024 р.).
2018 Statement to United Nations on Behalf of LAWS Open Letter Signatories. URL: https://futureoflife.org/open-letter/statement-to-united-nations-on-behalf-of-laws-open-letter-signatories (дата звернення: 10.12.2024 р.).
Lethal Autonomous Weapons Pledge. URL: https://futureoflife.org/open-letter/lethal-autonomous-weapons-pledge/ (дата звернення: 10.12.2024 р.).
Autonomous Weapons Open Letter: Global Health Community. URL: https://futureoflife.org/open-letter/medical-lethal-autonomous-weapons-open-letter/ (дата звернення: 10.12.2024 р.).
Foresight in AI Regulation Open Letter. URL: https://futureoflife.org/open-letter/foresight-in-ai-regulation-open-letter/ (дата звернення: 10.12.2024 р.).
Pause Giant AI Experiments: An Open Letter. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (дата звернення: 10.12.2024 р.).
FAQs about FLI’s Open Letter Calling for a Pause on Giant AI Experiments. URL: https://futureoflife.org/ai/faqs-about-flis-open-letter-calling-for-a-pause-on-giant-ai-experiments/ (дата звернення: 10.12.2024 р.).
AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats. URL: https://futureoflife.org/open-letter/ai-policy-for-a-better-future-on-addressing-both-present-harms-and-emerging-threats/ (дата звернення: 10.12.2024 р.).
Open letter calling on world leaders to show long-view leadership on existential threats https://futureoflife.org/open-letter/long-view-leadership-on-existential-threats/ (дата звернення: 10.12.2024 р.).
Kosheliev H., Hachkevych A. Open Letters as an Instrument of Public Influence on the Governance of Artificial Intelligence (Manuscript). URL: https://peers.international/paper/open-letters-instrument-public-influence-governance-artificial-intelligence (дата звернення: 10.12.2024 р.).
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Г. Кошелєв, А. Гачкевич
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.