Search:

Штучний інтелект у правосудді
Штучний інтелект. Актуальність цього явища якнайкраще характеризує цитата виконавчого директора Google Сундара Пічаї: "Штучний інтелект — це нова електрика. Зовсім скоро нейронні мережі проникнуть у всі сфери життєдіяльності". Одна зі сфер "проникнення" нових технологій – сфера правосуддя. І це не питання майбутнього, а вже доступна реальність: у судових системах деяких країн уже спостерігається впровадження новітніх технологій й алгоритмів, які доволі легко та швидко можуть опрацювати великий масив даних та, що найголовніше, зробити систему справедливою, прозорою та ефективною. Разом з тим, відбувається й відхилення від "праведного шляху": машина також здатна виявляти й упередження. То чи зможе штучний інтелект замінити суддю?
Що таке штучний інтелект?
Штучний інтелект (далі – ШІ) — це сукупність наук і методів, яка здатна обробляти дані для розробки дуже складних комп'ютерних задач. ШІ наділений людськими якостями й окрім вирішення проблем він здатний навчатися. Тому важливою частиною ШІ є машинне навчання (Machine Learning, або ML). Найважливішою умовою навчання ШІ у сфері правосуддя є наявність великого масиву відкритих даних і безперешкодний доступ до них. Це дозволяє краще проаналізувати судову практику та спрогнозувати результат. Чим більше доступних даних, тим більше ШІ в змозі вдосконалити моделі й тим самим покращити здатність прогнозування. ШІ імітує роботу людського мозку за допомогою системи нейронних мереж, що побудована на принципі організації і функціонування біологічних нейронних клітин — нервових клітин живого організму. Проте очевидним недоліком ШІ є брак такої людської якості, як емпатія, тобто співпереживання: у той час, як суддя може прийняти доводи відповідача, наприклад, при несвоєчасній сплаті аліментів або ж погашення заборгованості, машина ніяких поступок робити не буде.
Чи може штучний інтелект замінити суддю?
У статті 6 Європейській конвенції про захист прав людини та основоположних свобод (далі – ЄКПЛ, Конвенція) закріплене право розгляду справ незалежним і безстороннім судом. Проте ні в статті 6, ні в коментарях до неї немає прямої заборони використання ШІ й не сказано, що правосуддя здійснюється лише суддею-людиною. Практики Європейського суду з прав людини у світлі порушення статті 6 Конвенції через застосування ШІ при прийнятті рішення ще не було. Національне право деталізує норму Конвенції у статті 127 Конституції України, де закріплено, що правосуддя здійснюють судді та судову владу покладено саме на них. Аналогічна правова позиція міститьсяу статті 92 Основного Закону ФРН. Таким чином, штучний інтелект не може замінити суддів, однак, ніщо не забороняє оптимізувати роботу судді та суду шляхом залучення ШІ.
Етичні передумови функціонування штучного інтелекту
в судовій системі
Ідея залучення ШІ у сферу правосуддя підіймає й низку етичних питань. У 2018 році Європейська комісія з ефективності правосуддя Ради Європи прийняла вагомий міжнародний акт — Етичну хартію по використанню штучного інтелекту у судовій системі та її середовищі (англ. European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment). Основною метою Хартії є підвищення ефективності та якості здійснення правосуддя шляхом опрацювання алгоритмами судових рішень і даних при дотриманні основних прав і свобод, які гарантуються, зокрема, ЄКПЛ й Конвенцією Ради Європи про захист персональних даних.
Етична хартія закріплює п'ять принципів щодо використання штучного інтелекту під час здійснення правосуддя:
Принцип дотримання основних прав людини при використанні ШІ.
Розробники програм повинні віддавати перевагу підходу "етичний з моменту розробки" (ethical-by-design). Цей підхід впроваджується вже на етапі розробки алгоритму, що унеможливлюють пряме або опосередковане порушення ЄКПЛ, Конвенції про захист персональних даних і тд.
Принцип недискримінації, а саме запобігання розвитку будь-якої дискримінації між окремими особами чи групами осіб.
Особи державного та приватного сектору, залучені до розробки алгоритму, мають пересвідчитися в тому, що методи обробки не породжують дискримінацію. Особлива увага при цьому звертається на правомірне використання конфіденційних та персональних даних.
Принцип якості та безпеки, який стосується обробки судових рішень і даних у безпечному технологічному середовищі.
Розробники моделей машинного навчання мають перейняти досвід суддів, адвокатів, прокурорів, науковців та інших спеціалістів у сфері правосуддя. Дані, які використовуються алгоритмами, повинні надходити тільки з сертифікованих джерел інформації та не підлягають зміні.
Принцип "під контролем користувача" (under user control).
Учасник судового процесу повинен бути проінформований зрозумілою мовою про всі процесуальні аспекти та про можливості й функції штучного інтелекту відповідно до статті 6 ЄКПЛ. Також варто проводити публічні обговорення задля підвищення обізнаності громадськості при впровадженні нових систем.
Принцип прозорості, неупередженості та справедливості.
Методи обробки даних повинні бути доступними та зрозумілими. Необхідно знайти баланс між захистом інтелектуальної власності та вимогою забезпечення прозорості й нейтральності в залежності від правових наслідків і впливу на осіб.
Міжнародний досвід використання штучного інтелекту в правосудді
США
Передовими користувачами ШІ в правосудді залишаються Сполучені Штати Америки, які використовують технології переважно в цивільних і кримінальних справах. Дослідники зі Стенфордського університету (Stanford Computational Policy Lab) розробили алгоритм, який асистує судді під час обрання запобіжного заходу для підсудного: тримання під вартою або застава. Розглянувши близько 100 тисяч процесуальних документів, пов'язаних з обранням запобіжних заходів, розробники виявили, що одні судді в 90% випадків дозволяють громадянам виходити під заставу, тоді як інші – тільки в 50%. Програма дає змогу справедливо оцінити ризики й тримати під вартою значно меншу кількість осіб, не наражаючи на небезпеку громадськість.
Китай

За звання лідера з використання технологій із США може поборотися Китай, який є її прямим конкурентом на технологічній арені. З 2017 році там функціонує онлайн суд у вигляді мобільного додатку головної китайської програми WeChat. Замість приміщення суду — відеочат, замість судді — аватар, за яким працює ШІ. Першим цифровим судом став суд Ханчжоу, далі уряд КНР створив аналогічні суди в Пекіні і Гуанчжоу. Разом суди розглянули близько 119 тисяч справ й ухвалили рішення щодо 88 тисяч справ. Суд наділений повноваженнями розглядати спори у сфері авторського права, господарські спори в Інтернеті й порушення в сфері електронної комерції.
Франція

У європейських судових системах використання алгоритмів ШІ поки що залишається переважно ініціативою приватного сектору і нечасто інтегрується в державну політику. Проте, як то кажуть — ініціатива кари гідна. У Франції введена кримінальна відповідальність за аналіз судової практики, що дозволяє спрогнозувати, яке рішення у справі може винести суддя. Ці поправки до законодавства були прийняті під тиском суддівського корпусу, аргументуючи це тим, що судові рішення використовуються для аналізу моделі поведінки конкретного судді, тим самим порушуючи його особисті права.
Україна

Передумовою впровадження ШІ в Україні є запуск єдиної судової інформаційно-телекомунікаційної системи (ЄСІТС). Загалом система передбачає повністю безпаперове діловодство шляхом використання електронного цифрового підпису та електронного документообігу, створення особистих кабінетів з метою вчинення будь-яких процесуальних дій, вдосконалення єдиного державного реєстру судових рішень, додавши в нього систему гіперпосилань на правові позиції Верховного Суду, що дасть змогу алгоритму підібрати релевантне до конкретної справи рішення Верховного Суду та сконструювати без участі людини драфт рішення. Цілком реально, що в подальшому малозначні спори можуть бути вирішені за допомогою системи ШІ в режимі онлайн, що дасть змогу значно розвантажити суди.

Сьогодні у тестовому режимі функціонує підсистема Електронний суд, за допомогою якої є можливість самостійно подавати вичерпний перелік позовів, відслідковувати хід справи, подавати процесуальні документи, оплачувати судовий збір й контролювати надходження позовів проти себе, і всі ці дії провадяться онлайн.

Проте повноцінне впровадження ЄСІТС — питання не одного року. Наразі лише у деяких судах працюють певні модулі, а електронні позови доводиться дубдювати в паперовій формі. Це спричинено низкою проблем, проте у час активної політики уряду щодо цифрової трансформації можна очікувати стрімкого розвитку цієї сфери та подальшої ефективної й прозорої роботи українських судів.


Ризик надання дискримінаційних висновків штучним інтелектом
Унікальність сучасної обробки даних полягає в тому, що вона не намагається відтворити людську модель пізнання, а створює контекстну статистику на основі даних, але (!) без будь-якої гарантії появи помилкових автокореляцій. Ба більше, є реальний ризик того, що алгоритм може надавати дискримінаційні висновки. Прикладом є програмне забезпечення COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) — продукт комерційної компанії "Northpointe" (з 2017 року компанія називається "Equivant"). Ця програма оцінює ризик повторного скоєння злочину особою, щодо якої суддя повинен ухвалити вирок. Вона є найбільш використовуваною програмою в системі кримінального правосуддя США.

COMPAS базується на даних, отриманих з 137 анкетних питань, на які відповідає підсудний, або у разі відмови інформація береться з його досьє. Дані поділяються на динамічні, які мають мінливий характер та можуть змінюватися — наркоманія, оточення, професійний статус, і статистичні, які не можуть змінюватися і є більш визначальними для формування висновку — вік, стать, кримінальна історія, статус злочинця при скоєнні першого злочину. Під час опитування особам ставляться такі питання: "Як часто ви вступали в бійки, коли були у школі?", "Скільки ваших друзів/знайомих коли-небудь були заарештовані?", "Скільки вам було років, коли ваші батьки розлучилися, якщо таке було?", "Чи має право красти голодна людина?" Під час підрахунку підсудні поділяються на групи ризику діапазоном від 1 до 10 (від 1 до 4 — низький ризик; 5-7 — середній ризик; 8-10 — високий ризик). Таким чином суддя ухвалює вирок, ґрунтуючись на такій оцінці ризику.

Американська неурядова організація ProPublica виявила порушення етичних норм алгоритмами, які використовуються в програмі COMPAS, а саме расову упередженість: алгоритм вдвічі частіше позначав чорношкірих обвинувачених як рецидивістів, у той час як білошкірі були визначені як особи з низьким ступенем ризику. Оцінка виявилася ненадійною в прогнозуванні, адже тільки 20% чорношкірих з передбачених 40% фактично скоїли повторний злочин.
Дві чорношкірі дівчинки-підлітки — Бріша Борден і Сейд Джонс, у 2014 році намагалися вкрасти дитячий велосипед і самокат вартістю 80jQuery. До того Борден вчиняла дрібні проступки. У 2015 році білошкірого 41-річного Вернона Пратера заарештували за крадіжку інструментів на суму 86,35 доларів. Пратер був більш досвідченим злочинцем: він уже був засуджений за розбій та замах на розбій, за який він відбув п'ять років в'язниці. Програма показала, що Бріша Борден має високий ризик рецидиву злочину, хоча протягом двох років вона не мала ніяких нових звинувачень. У той час Пратер був оцінений як особа з низьким ризиком, у подальшому він отримав восьмирічний строк ув'язнення за викрадення електроприладів на суму в тисяча доларів.

Приклад того, як суддя змінив своє рішення після побаченого висновку, може бути історія темношкірого Пола Зіллі, яка також наведена в цьому дослідженні. У 2013 році чоловік з Вісконсіна був засуджений за крадіжку газонокосарки і деяких інструментів. Його адвокат пішов з прокурором на угоду — Пол визнав свою вину, за що йому передбачалося провести один рік у в'язниці і подальший адміністративний нагляд. Northpointe оцінив Зіллі як особу з високим ризиком скоєння подальших злочинів, і саме після цього суддя Джеймс Бейблер змінив своє рішення, скасувавши угоду і призначивши Зіллі два роки у державній в'язниці і три роки нагляду.

Кожне рішення повинно бути обґрунтованим. Однак програми, які використовують ШІ, такі як СOMPAS, розкривають не весь процес аналізу, а лише результат. Тому ні підсудний, ні громадськість, ні навіть суддя не мають можливості побачити, на якому процесі прийняття рішення ґрунтується цей прогноз. Ця таємниця існує, з одного боку, через наявні патентні права розробників цих програм, які мають ризик плагіату, а з іншого — через проблему Black Box, при якій вже власники патенту не в змозі повністю зрозуміти механізми прийняття рішень. Компанія Northpointe відмовилася надавати роз'яснення, яким чином алгоритм обчислював оцінку ризику, так як ця інформація конфіденційна. На жаль, у цій всій історії не знайшлося розумного балансу між забезпеченням патентних прав розробників та основних прав осіб, які свого часу були підсудними та чия інформація опрацьовувалась алгоритмом COMPAS.


Висновки
Майбутнє правосуддя, безумовно, за технологіями й автоматизацією судових процесів. Так, у штучного інтелекту є величезний потенціал прискорити процес обробки даних, розвантажити роботу судів, зробити її ефективною. Однак, дуже важливим при використанні ШІ є дотримання фундаментальних принципів, таких як верховенство права, недискримінація, неупередженість, справедливість, безпека та ін.

Для світового співтовариства питання впровадження штучного інтелекту в правосудді наразі залишається дискусійним та супроводжується різними підходами від активного використання штучного інтелекту при вирішенні різних категорій спорів (спори у сфері авторського права, господарські спори) до встановлення кримінальної відповідальності за використання алгоритмів штучного інтелекту для прогнозування судових рішень. Національне законодавство не передбачає можливості заміни судді алгоритмом, однак можливим є обговорення часткового залучення ШІ до судової системи.
Валерія Шемшученко
аналітик кампанії "ЧЕСНО. Фільтруй суд!", ЦЕДЕМ