23.10.2020

Штучний інтелект в суді: реальність і міфи

Оригінал тут.

Автор: Елефтеріос Челюдакіс

Найчастіше термін «штучний інтелект» розуміють як один із проявів технологічного прогресу, багато хто бачить в ньому надію на вирішення проблем, що нависли над нашим суспільством.

Наша команда в багатьох статтях вже роз’яснювала читачам не тільки поняття штучного інтелекту, але і те, чому зараз потрібно крайня обережність у ставленні до нього.

У цій статті ми розглянемо пристрасті, які вирують навколо штучного інтелекту, з’ясуємо, чи дійсно його застосування в правосудді – така вже нова ідея, а потім перейдемо до проблем, які потребують особливої уваги. Відзначимо, що Homo Digitalis не вперше звертається до теми використання ШІ в судочинстві, адже ми вже публікували статтю про філософському аспекті цього питання.

Ми живемо в інформаційному суспільстві, а в ньому постійне поширення Інтернету і комп’ютерних технологій веде до того, що людині стає все важче зробити крок, не залишивши за собою цифрового сліду. Смартфони та інші інтелектуальні пристрої, гаджети для контролю стану здоров’я, кавомашини, холодильники, зубні щітки – всі вони накопичують і обробляють інформацію про осіб своїх власників і про всі сторони їхнього повсякденного життя.

Всеосяжність цієї інформації настільки велика, що її цінність величезна. Вона використовується великими компаніями для побудови бізнес-моделей. Свої товари та послуги вони надають формально безкоштовно, але користувачі платять за них своїми особистими даними. Ці дані можна проаналізувати і передати тому, хто на їх основі буде розробляти рекламу, орієнтовану на конкретну цільову аудиторію.

Суспільство в цілому все більше переконується, що збір інформації веде до розширення наших знань. Але окремої людини бракує інтелектуальних сил обробляти цю інформацію, якої стає все більше і більше. В результаті надії покладають на машини, у яких цих сил досить. Ключ до перемоги над хворобами і злочинністю, до поліпшення управління міським господарством, до благополуччя кожної людини – збір і аналіз даних, виявлення зв’язків між ними і побудова прогнозів. Необхідно зрозуміти і прийняти, що це так і є.

Ще два десятиліття тому область штучного інтелекту викликала мало інтересу – вона вважалася застарілою і неефективною. Але сьогодні вона – і зокрема, дослідження здатності машин до самонавчання – привертає набагато більше уваги. Інтернет, сучасні смартфони, все більш досконалі процесори і все більша ємність носіїв даних – все це дає електронного розуму достатньо інформації, щоб він міг сам себе навчати.

Проаналізувавши зібрані дані, штучний інтелект допомагає, як за помахом чарівної палички, вирішити безліч проблем в різних сферах: охорони здоров’я, міського господарства, транспорту, підвищення кваліфікації, охорони правопорядку. Звичайно, і судочинство тут не могло залишитися осторонь.

З цього моменту ми повинні розрізняти застосування можливостей штучного інтелекту в судовому діловодстві (сюди відноситься використання коштів NLP – обробки природної мови – для автоматизації роботи з документами), і в власне процесі здійснення правосуддя і прийняття судових рішень. У даній статті не розглядається перший напрямок, оскільки проблеми застосування засобів NLP тут такі ж, як і в інших сферах. Ми зосередимося на другому напрямку, зокрема, на питанні про можливість впливу ІІ на прийняття рішень судом.

Насправді, нічого нового або новаторського в ідеї використання ШІ в процесі винесення судових рішень немає. Такі методи відомі вже давно, вони з кінця минулого століття широко використовувалися в судових системах США, Канади та Австралії, вони добре відомі в судовій психології та психіатрії. Системи на зразок «перероблених оцінки кримінально-виправної інспекції» (Level of Service Inventory-Revised, LSI-R) або «корекційного управління профілюванням обвинувачених на предмет альтернативних покарань» (Correctional Offender Management Profiling for Alternative Sanctions, COMPAS) допомагали суддям оцінювати ризики на різних етапах кримінального судочинства: затримання підозрюваного, засудження, призначення покарання і рішення про дострокове звільнення. Нерідко подібні системи, які лише використовують математичні та статистичні методи оцінки ризику, отримували від своїх розробників і мас-медіа назву «штучного інтелекту». За останні десятиліття їх неодноразово тестували і аналізували, але кінцеві висновки досліджень залежали від того, яке агентство їх фінансував.

Хоча сумніви щодо використання подібних технологій в сфері правосуддя не раз висловлювалися і Радою Європи (1. Парламентська асамблея (ПАРЄ), Рекомендація 2101 (2017) 1, Технологічна конвергенція, штучний інтелект і права людини, 2. Парламентська асамблея: Пропозиція по рекомендації щодо правосуддя за алгоритмом – роль штучного інтелекту в системах поліцейської діяльності і кримінального правосуддя; 3. Європейська комісія з ефективності правосуддя (CEPEJ): Європейська етична хартія про використання позовом сственного інтелекту в судових системах), і Європейським Союзом (1. Європейська комісія: повідомлення «Штучний інтелект для Європи» і 2. Незалежна Високорівнева експертна група зі штучного інтелекту (Independent high-level expert group on artificial intelligence, AI HLEG »Європейської комісії: керівні принципи етики ЄС для технологій штучного інтелекту, що заслуговує на довіру) тільки за останні два роки, проте, в державах-членах ЄС, як і раніше досліджуються можливості застосування ЄС в правосудді.

Ми виступаємо проти участі ШІ в прийнятті судових рішень, і вважаємо, що такий крок не вирішить жодної з проблем, що стоять перед судовою владою, однак через пристрасті, що вирують в останні роки, вважаємо за потрібне дати ряд рекомендацій про те, що слід було б вжити на цьому шляху, особливо в кримінальному судочинстві. Ось лише приблизний список:

1.Рішення штучним інтелектом приймається виключно на основі автоматизованої обробки даних. Однак, згідно зі статтею 11 Директиви 2016/680, подібні рішення, які створюють для суб’єкта даних несприятливі наслідки або надають на нього значний вплив, заборонені. Виняток допускається лише в тих випадках, коли закон забезпечує суб’єкту даних захист його прав і свобод у вигляді, щонайменше, можливості апелювати до людини. Звідси випливає, що неодмінною частиною процедури прийняття рішень повинен бути людський фактор.

2. Існує ризик дискримінації та використання низькоякісних даних. Якщо механізм штучного інтелекту навчається в ході обробки даних, то він повністю залежить від їх якості. Наприклад, поведінка конкретної людини прогнозується на основі даних про вчинки інших людей, на яких система навчалася. Але щодо цих людей можуть існувати упередження, або ж самі дані можуть бути низької якості, і тоді такі прогнози вважаються неспроможними. Або ж незаконними – в тому випадку, якщо використовуються делікатні дані особистого характеру, як наказують 10 і 11 статті згаданої Директиви 2016/680.

3.Проблему становить також рівень технічної підготовки суддів та адвокатів. Для використання систем штучного інтелекту в процесі прийняття судових рішень неодмінною умовою є тісне знайомство з принципами роботи таких систем. На жаль, в більшості своїй судді і адвокати мають слабкі пізнання в цій області, не знайомі з програмуванням і можливостями ШІ. Тому юристам необхідна відповідна підготовка, починаючи з рівня бакалаврату, а потім на курсах підвищення професійної кваліфікації.

4. Потрібні суворі правила, що забезпечують захист даних, що використовуються системами ШІ. Компанії, що випускають ці системи, ні за яких умов не повинні отримувати доступ до персональної інформації засуджених або виправданих осіб для комерційних або дослідницьких цілей. Правосуддя не може бути джерелом прибутку.

5.Механізм роботи ШІ в суді повинен бути простий і зрозумілий. Від правосуддя по визначенню потрібні неупередженість та прозорість. Якщо суддя хоч в якійсь мірі засновує своє рішення на висновках ШІ, необхідна можливість пояснити, чому машина прийшла саме до такого висновку. У разі, якщо це неможливо, судове рішення не може вважатися прозорим і неупередженим. Слід зазначити, що складні механізми, на зразок нейронних мереж, роблять виконання цієї вимоги особливо важким.

6. Перевіряти ефективність роботи систем штучного інтелекту в судах повинні незалежні влади. Потрібні регулярні, планові перевірки достовірності прогнозів таких систем. Найкращим чином для цього підійшов би незалежний наглядовий орган, який володіє достатніми фінансовими ресурсами і висококваліфікованим персоналом. Свої оцінки він повинен засновувати як на кількісних показниках (статистичні дані, що підтверджують ефективність прогнозів), так і на якісних (рішення, прийняті в кожному конкретному випадку).

Впровадження систем ШІ не тільки в судочинстві, а й в будь-якій сфері життя сучасного суспільства – це складне питання, що вимагає комплексного підходу на стику різних дисциплін. Проблема тут в будь-якому випадку не чисто юридична, навпаки, вона має етичні і соціальні сторони, які заслуговують серйозного розгляду. Дійсно, стрімкий розвиток технологій змінює наше життя на краще, і новітні досягнення прогресу повинні ставати реальністю. Але їх не слід впроваджувати в життя бездумно – все необхідно ретельно готувати і планувати. Тільки тоді ми зможемо отримати всі плюси сучасних технологій, уникнувши їх мінусів, в тому числі загроз для прав людини.


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *