23.10.2020

Десять речей, які слід знати суддям про ШІ

Оригінал тут.

Джефф Уорд
Оригінал статті опубліковано у виданні Judicature навесні 2019 року.

Останнім часом ми спостерігаємо, як завдяки технологіям машинного навчання, механізми штучного інтелекту (ШІ) все більш активно вступають у свої права. Для судової системи це важливо не тільки тому, що вона сама діє у світі, де ШІ зміцнює становище, але і в силу того, що відповідні механізми стають важливою частиною роботи суду. Це породжує безліч питань. Наприклад, якщо використання ШІ змусило лікаря поставити неправильний діагноз, то хто повинен за це відповідати? Яким чином закони, спрямовані проти дифамації, можуть контролювати дії ШІ? Якщо штучний інтелект використовується для винесення вироку, то які правила повинні його регулювати? Яку роль в якості доказу може грати абсолютно реалістичне, але підроблене відео?

Чим швидше розвивається ШІ, тим більш бурхливу реакцію він породжує. Обіцяє багато чого, але водночас ставить під сумнів наші уявлення про справедливість, юридичну процедуру, і навіть саму істину. При цьому роль судової влади в нашому житті залишається все такою ж значною. Тому існує не менше десяти речей, які кожен суддя повинен знати про штучний інтелект.

1.Це не чари. І розробка й використання ШІ – звичайна частина діяльності людини.

Включаючи свою посудомийну машину, я іноді замислююся про те, скільки часу і сил вона мені економить. Людство вже звикло до того, що машини рятують нас від фізичної праці. Але раніше вони звільняли від роботи тільки наші м’язи, тепер прийшла черга і розуму. По суті,ШЇ – це застосування машинних засобів для тих завдань, які раніше покладалися на людський розум.

Але при цьому штучний інтелект – не чари. Навпаки, всі його засоби – лише породження людського задуму, заснованого на вже давно існуючому розумінні статистичних методологій, зростаючому нині знайомству з інформатикою, і можливості людського розуму. Потужного ефекту останнім досягненням ШІ надали не магічні заклинання, а зростаюча доступність величезних обсягів даних і поява комп’ютерів, досить сильних для їх обробки. Ці процеси задумані і реалізовані виключно самими людьми.

Чому це важливо?

Головне, що потрібно знати про ШІ: його майбутній розвиток не визначено, і цілком залежить від нас. Тому для стійкості цього розвитку необхідно участь в процесі різних зацікавлених сторін. Якщо ж бачити в ШІ свого роду чаклунство, керівництво процесом залишиться в руках технічних компаній, всі інші будуть відсічені від нього. Розробка, розвиток, вдосконалення ШІ – все це не «начакловане», а створене людьми, і залишається в їх владі.

2.Нині існуючі механізми ШІ ефективні лише в вузькоспеціалізованій сфері, і ми самі обираємо, де, як і для чого їх використовувати.

Наявний на сьогодні штучний інтелект – це C-3PO з «Зоряних війн», ні HAL 9000 з «Космічної Одіссеї»2001 року. На відміну від них, в ньому немає нічого людиноподібного, і він має досить вузьку сферу застосування. Моя посудомийна машина зі своїм завданням справляється на відмінно – але вона не може змусити мене ні працювати, ні, наприклад, косити газон. Точно так само всі пристрої ШІ мають своє конкретне призначення – від ведення настільних ігор до виявлення діабетичної ретинопатії. Тут немає нічого спільного з універсальним розумом, знайомої нам по фільмах і книгах.

Чому це важливо?

C-3PO може застосувати свої здібності для вирішення будь-яких завдань. Стосовно існуючого ШІ від нас самих залежить, для яких цілей його використовувати. Тому люди не лише створюють ці інструменти, але й обирають область їх застосування. Кожен раз, використовуючи штучний інтелект, ми ставимо конкретну машину лицем до лиця з конкретними обставинами. Це дає нам в руки засоби управління – але і відповідальність за них. Такий інструмент, результати дій якого відрізняються високою точністю, але низькою прозорістю, може бути використаний, наприклад, у роботі транспортних засобів, де точність понад усе. Інша справа юридичні процеси, в яких на першому місці стоять чітко сформульовані судження. Певний інструмент ШІ може володіти високою точністю, але не годиться для використання у сфері права, якщо його рішення непрозорі, і їх важко пояснити. Тут альтернативним шляхом може стати розробка абсолютно прозорих алгоритмів, які нехай навіть можуть зменшити точность. Необхідно бути готовими до подібних рішень, і для них будуть потрібні фахівці у різних сферах, включаючи право. Зараз господарі становища – люди, і тільки від них залежить, де, як і в яких обставинах які рішення приймати.

3.Сьогоденний стрімкий розвиток ШІ – це лише початок. Будь-хто,що залишається осторонь, ризикує втратити свій шанс вплинути на нього.

Зараз засоби штучного інтелекту демонструють свою ефективність у вузьких областях. Ми тільки починаємо спостерігати стрімкий прогрес ШІ, його все більш широке застосування, і, як наслідок, зростання ринкової привабливості цього сектора, який притягує все більше грошей і талантів для нових розробок.Єдиний

цифровий світ, в якому живуть мільярди користувачів, породжує величезні маси даних, яких вже давно бракувало ШІ для ефективного навчання. Якщо представляти розвиток штучного інтелекту у вигляді кривої зростання, то сьогодні ми знаходимося на початку дуги, яка починає експоненціально підніматися вгору.

Чому це важливо?

Доступність широкому загалу даних,  в поєднанні зі зростанням обчислювальних потужностей зіграли роль стартового пістолета – і змагання почалося. Тепер темпи зростання ШІ такі, що за ними важко встежити. Традиційні політичні методи і правові норми виявляються неефективними, і штучний інтелект, що стрімко розвивається, часто ставить нас у глухий кут, впливаючи на наше життя, перш ніж ми стаємо до цього готові. Самоусуваючись від цього процесу і втрачаючи пильність, ми поступаємося ініціативою тим учасникам гри, для яких інтереси суспільства не є пріоритетом.

4.Багатодієві інструменти ШІ позбавлені прозорості, що ускладнює пояснення принципів їх роботи та обробку результатів.

Спочатку символьні системи ШІ були сформовані таким чином, щоб імітувати людську логіку експертів у визначеній області, і, отже, шукати висновки на основі тих самих правил, символів і логіки, якими керується людина. Навпаки, сучасний штучний інтелект створений для самостійного вивчення і аналізу даних. У першому випадку ШІ буде намагатися визначити кішку за запропонованими ознаками: наприклад, як пухнаста тварина з чотирма лапами. У другому варіанті машину будуть навчати, демонструючи їй тисячі зображень, за якими вона сама виявить відмінні риси кішки. Системи машинного навчання самі визначають критерії прийняття рішень, а не діють за заданими правилами. Тому людина може виявитися не в змозі відстежити їх

логіку. Але найбільш ефективними показують себе саме «глибокі», непрозорі системи, які до обчислень додають нові виміри. Ці системи роблять процеси, за допомогою яких машина перетворює дані висновки, закритими навіть для своїх розробників.

Чому це важливо?

Оскільки ШІ навчається сам по собі, перетворюючи отримані відомості у висновки способами, неочевидними для людини, це створює певні ризики: штучний інтелект підвищує свою точність натомість мінімізує прозорості. Якщо не приділити цій проблемі достатньо уваги, подібні методи можуть суперечити  з базовій потребі людини,  знати, розуміти і бути впевненим в правильності прийнятого рішення. Не знаючи, яким чином ШІ прийшов до своїх висновків, ми не зможемо задовільнити їх поясненням. Крім того, неможливо гарантувати, що ШІ не зробив помилку через неточності початкових даних. Наприклад, якщо в якості таких даних представлена велика кількість рудих смугастих кішок, то система не зможе розпізнати сіамську кішку. Навіть якщо на стадії розробки заздалегідь вжити заходів, щоб позбавити систему від упередженості, в ході навчання машини можуть виникнути такі збої, які важко виявити.

5.Сучасний ШІ може створювати інформацію для прийняття рішень, або для фабрикації медіа-матеріалів. Те й інше породжує проблеми для судової системи.

Засоби штучного інтелекту на виході породжують два можливих види інформації: власне інформація, яка є основою для прийняття рішень, і сфабриковані медіа-матеріали, такі, як підроблені фотографії і відеоролики.

Чому це важливо?

Здебільшого інструменти ШІ формують інформацію для прийняття рішень. Тут їх завдання полягає в класифікації, категоризації та оцінці ймовірності. Ось деякі приклади:

-Об’єкт, виявлений на дорозі – це людина, транспортний засіб, або просто тінь?

-Було використано в пошуковій системі слово «їх» або «там» (в англійській мові слова their і there співзвучні. – Прикл. пер.)?

-Яка статистична ймовірність того, що даний обвинувачений знову вчинить злочин?

У кожному з цих випадків машина буде працювати з деяким набором ймовірностей, перетворюючи вхідні дані в рішення – щодо автомобілів, пошукових систем, судів, і так далі.

6 і 7.Якщо використовувати штучний інтелект належним чином, він зробить нашу діяльність більш ефективною і підвищить якість і точність прийнятих нами рішень. Навпаки, при неналежному застосуванні він підриває наше прагнення до пізнання, розуміння і справедливості, під маскою об’єктивності продовжуючи зберігати упередження.

У процесі правосуддя інструменти ШІ можуть допомогти подолати людські забобони, забезпечити винесення вироку, заснованого виключно на фактах, і сприяти прозорості судочинства. Судді чудово розуміють значення цих переваг. Зокрема, нещодавно історія винесення вироків продемонструвала, як діє ця судова функція, грунтуючись на алгоритмі, в який була включена складна статистика, щоб досягти цих переваг. Вже зараз багато штатів США використовують механізми ШІ у досудових і постсудових справах, таких, як призначення суми застави, умовно-дострокове звільнення і винесення вироку. Якщо ці інструменти розроблені і застосовані належним чином, вони дозволяють досягти вражаючих результатів.

З іншого боку, нещодавні події показали слабкі місця ШІ у судовому процесі. Зокрема, наслідком використання штучного інтелекту в досудовому слідстві по справі «Штат Вісконсін проти Еріка Луміса» став науковий і журналістський аналіз помилок, допущених цим механізмом. Та, незважаючи на це, суд постановив, що права відповідача на захист порушені не були. Сам Луміс вказав на необхідність прозорості для судової процедури. Він поставив питання: чи використовує алгоритм ШІ гендерну приналежність обвинуваченого як один із криміногенних факторів? Проте методи роботи штучного інтелекту так і не були розкриті ні Лумису, ні суду.

Справа Луміса було не першим, де алгоритм винесення вироку ставився під сумнів. Наприклад, в штаті Індіана оскаржується ряд судових рішень, винесених з використанням «Переробленої оцінки кримінально-виправної інспекції» (Level of Service Inventory-Revised, LSI-R), де висновки, зроблені цим механізмом, були використані як обтяжуючі обставини. Оскільки такі механізми застосовуються у багатьох штатах, питання залишається дуже актуальним. Для судових установ важливо демонструвати свій контроль над процесом, який гарантує всім громадянам рівний захист і дотримання правової процедури.

Крім використання штучного інтелекту в судочинстві, суди нерідко розглядають такі справи, в яких ШІ є істотним чинником. Наприклад, у справі «DeHoyos проти Allstate Corp.» позивач діяв від імені власників страхових полісів, наполягаючи, що алгоритм кредитного скорингу, який використовується Allstate, обмежує права меншин, порушуючи федеральне законодавство. В результаті цієї компанії довелося взяти на себе зобов’язання переробити алгоритм, виключивши можливість дискримінації.

Нещодавно виявилося, що механізм штучного інтелекту, який Amazon використовував для оцінки претендентів на посади, пов’язані з технологіями і програмним забезпеченням, не був гендерно неупередженим. Оскільки він ґрунтувався на даних попереднього десятиліття, то зробив висновок – можливо, не такий вже й безпідставний, оскільки в цій області донедавна панувала сильна стать – чоловік для такої посади за замовчуванням годиться краще. В результаті компанія встигла відмовитися від використання цього механізму перш, ніж заявники поскаржилися на порушення своїх прав.

Великі обсяги даних і можливості машинного навчання, що породжуються ними стають дедалі важливішими, оскільки ШІ поширюється на всі сфери життя суспільства, від оборони і безпеки до фінансів і медицини. Зокрема, покращення діагностики та призначення лікування з допомогою ШІ – це вже не мрія, а реальність у багатьох галузях медицини. Виявлення порушень в роботі серцево-судинної системи, виявлення діабетичної ретинопатії або більш точне визначення можливої реакції пацієнта на ті чи інші медикаменти – в цих областях штучний інтелект значно підвищує точність і ефективність роботи лікарів. Але це породжує нові проблеми. Наприклад, якщо діагноз був поставлений помилково, то якою мірою це вина медика, а в якій – ШІ? У всіх сферах людського життя вплив ШІ зростає, а це означає, що воно стає все більш значущим чинником в судових процесах. Такий стан справ змушує переглядати правові норми, пов’язані з відповідальністю, халатністю та посадовими зловживаннями. Зараз йде робота над тим, щоб у подібних умовах зберігати основне прагнення людини до пізнання, розуміння і правосуддя, але і досягнення в цій роботі, в свою чергу, створюють нові проблеми.

8.Засоби продуктивного ШІ – ті, які дозволяють фабрикувати дані відкривають широкі перспективи для користувача і дослідницьких програм.

Крім вже названих проблем, пов’язаних з відомостями, на основі яких приймаються рішення, розвиток ШІ породжує нові небезпеки в області сфабрикуваеея цифрових даних. Підроблені цифрові фотографії, аудіо – та відеозаписи можуть ввести в оману навіть досвідчених фахівців. Найчастіше вони створюються так званими генеративно-змагальними мережами, протиставлять один одному дві моделі ШІ: генеративну модель, що створює цифрові зразки, призначені обдурити та дискримінативну модель, що змушує повірити у справжність цього об’єкта. Такі експерименти можуть серйозно вплинути і на наше сприйняття реальності, і на нашу здатність до довіри.

Наслідки таких фундаментальних зрушень видно і в залі суду, і поза його межами. З споживчої точки зору, ці нововведення можуть створювати новий контент для відеоігор глибокого занурення або збільшувати дозвіл на сімейних фотографіях. Можливо, генеративні моделі також дозволять підвищити ефективність медичних досліджень – наприклад, в таких умовах, де обсяг наявних даних обмежений. У перспективі ШІ може створювати додаткові, досить реалістичні зразки, які використовуються для навчання машин, а це, в свою чергу, приведе нас до більш точної і доступною діагностики. Але вже зараз генеративний штучний інтелект відкриває нові можливості в астрономії та інших науках, відновлюючи дані, які були отримані в низькій роздільній здатності. І це тільки початок.

9.Генеративний ШІ при використанні для формування удаваної реальності ставить під загрозу нашу здатність осягати дійсність, створюючи небезпеку для інститутів і процесів громадянського суспільства.

Знову повторимо, що ця технологія, хоча й багатообіцяюча, ставить дуже багато нових питань. Генеративний штучний інтелект – явище молоде, проте вже зараз легко уявити проблеми, які фейкові медіа створюють для судочинства. ШІ здатний сфабрикувати фотографію підсудного на місці злочину, відеоролик, який підтверджує, що якесь майно було пошкоджено ще до аварії, або аудіозапис, яка доводить незаконний змову топ-менеджерів. Технологічний прогрес веде до того, що будь-який власник смартфону зможе робити нереальне реальним і змушувати нас сумніватися в очевидному.

Що ж відбувається, коли існуючі правила не встигають за досягненнями прогресу? Ось лише один приклад. Нещодавно в 902-е Федеральне правило надання доказів були включені пункти, що розширюють список документів, які не вимагають інших доказів своєї автентичності. Але спрощення верифікації цифрових доказів може стати проблемою в ході розповсюдження надреалістичних підробок. За якими стандартами такі докази потрібно верифікувати? І як переконатися в їх реальності?

Зрозуміло, якщо такі технології можуть ввести в оману не просто знаючих людей, але навіть судових експертів, то необхідно вивчити межі їх можливостей. Наприклад, підроблений, але на вигляд абсолютно реальне відео, на якому президент оголошує про війну з сусідньою державою, може спровокувати масові безлади і створити загрозу національній безпеці. Поширення подібних технологій може стати набагато небезпечніше, ніж їх засекречування. Але вони несуть і більш серйозну загрозу: через них ми можемо втратити довіру до демократичних інститутів і громадського дискурсу, переставши відрізняти правду від брехні.

10.Судова влада, у числі інших зацікавлених інститутів, повинна стати на сторожі наших основних культурних цінностей, не дозволяючи засобам ШІ підривати їх. Штучний інтелект – це одночасно і перспектива поліпшення нашого життя, і загроза для наших уявлень про правду, справедливість і правосуддя.  Але, можливо, іронія долі в тому, що сам ШІ дасть нам засіб проти цих небезпек – наприклад, щоб протестувати алгоритми для винесення вироку або виявити фальшиві докази.  Однак ставки в цій справі настільки високі, що ми не можемо покладатися лише на технологію, і судова влада, крім інших залучених сторін, повинна стати одним з гарантів того, що інструменти ІІ НЕ будуть підривати наші культурні цінності.  Підстави для оптимізму є: наша правова система здатна до еволюції, і суди вже довели свою здатність орієнтуватися в нових умовах і вести корабель цивілізації через незвідані води.

 Джефф Уорд – директор Центру права і технологій при Університеті Дьюка (Північна Кароліна), заступник декана з технологій та інновацій і ад’юнкт-професор права. Викладає на стику сфер права і сучасних технологій.  Просуває програму Duke Law Tech Lab для компаній, що використовують технології для вирішення правових питань.  Ця програма покликана забезпечити громадянам доступ до якісних юридичних послуг, а також гарантувати, що нові технології відкривають для людей нові можливості.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *