31.10.2020

Чи врятують роботи-судді російську судову систему

Оригінал тут.
У баченні пересічного роботи-судді позбавлені симпатій і інших ірраціональних якостей, не вміють лінуватися і не піддаються позапроцесуального тиску.

Розроблена в кабінетах модель Джона Клейнберг і ін. В 2017 р показала на історичних даних краще розуміння ризику рецидиву, ніж у суддів-людей. Автори заявили, що їх алгоритм дасть зниження на 42% кількості обрань запобіжного заходу у вигляді взяття під варту без збільшення ризику рецидиву в Нью-Йорку. З 2016 року світова і російська преса повідомляла, що «штучний інтелект» навчився пророкувати рішення Європейського суду з прав людини (ЄСПЛ) з точністю 79%.

Але чи зберігається технооптимізм в наші дні? У випадку з прогнозом рішень ЄСПЛ дослідження Маші Медведєвої і ін. В 2019 р показало, що 79% точності в 79% завищені.

У штаті Віргінія впровадили систему, яка автоматично оцінювала ризик рецидиву. Місяць тому Меган Стівенсон і Дженніфер Долеак розповіли про своє дослідження підсумків роботи цієї системи на Конференції з емпірико-правовим дослідженням. Результати не вселяють оптимізму. Так, судді стали більш жорстко карати тих, кого алгоритм відніс до більш високої групи ризику. Але при цьому введення системи оцінки ризику ніяк не відбилося на рівні рецидивів і не знизило кількість рішень про позбавлення волі.

Робот-суддя не вчиться приймати абстрактні рішення, керуючись буквою і духом закону. Якщо тренувати алгоритм машинного навчання на російських судових рішеннях у кримінальних справах, то кількість виправдувальних вироків в країні не зміниться. Машина в кращому випадку буде копіювати поведінку людей, вчитися приймати рішення так само, як людина-суддя.

Існують системи, які спираються не на навчання, а на правила, але вони підходять для відносно простих завдань. Такі речі, як правова кваліфікація дії, та й взагалі юридична робота, не можна звести до набору правил. Так що залишиться тільки робот, який приймає рішення на основі існуючих даних.

Там, де мова йде про складні багатофакторні рішення, особливо про такі, де поряд з раціональними є і моральні аргументи, все, що може зробити машина, – це неточно відтворити поведінку людини, причому часто неточність ця буде виглядати швидше несправедливою або аморальною.


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *