23.10.2020

Алгоритми і справедливість. Етика і управління програмою штучного інтелекту.

Оригінал тут.

У всьому світі державні структури починають вивчати автоматизацію прийняття рішень в різних областях: наприклад, визначати права на послуги, давати чітку і зрозумілу оцінку де краще задіяти інспекторів охорони здоров’я та персонал правоохоронних органів, встановлювати межі виборчих дільниць.

Уряду і компанії накопичують великі обсяги даних, і аналітичні інструменти стають більш потужними, тому випадки використання технологій, які включають ШІ або машинне навчання, будуть постійно рости і збільшуватися.

Система кримінального правосуддя пропонує різноманітні варіанти алгоритмічних технологій для державних потреб. Постійні помилки суддів, присяжних і адвокатів, призвели до того, що стара система була справедливо розкритикована. В останні роки було проведено перегляд системи затримання, так як політики-реформатори прагнуть контролювати витрати, поліпшити керівництво тюремною системою і практикою позбавлення волі.

Алгоритмічні технології приносять ясність в винесення вироку і в дострокове звільнення ув’язнених, крім того вони можуть мінімізувати шкоду від людського судження або нашої логіки. Але є й інша сторона монети – рішення технологій не завжди можуть бути точними і виникають серйозні побоювання в правильності та прозорості їх вироків. Ми повинні розглянути як правові та етичні питання, так і брати участь в чіткому тестуванні і оцінці алгоритмічного інструментарію, щоб забезпечити правильність процедур і справедливість прийнятих рішень.

Як випливає з назви, кримінальне правосуддя – це не просто система, а серія взаємопов’язаних процесів, з декількома точками входу і етапами оцінки. Технології можуть допомогти збалансувати прагнення досягти різні цілі, знайти стримуючий фактор, пролити світло на причини злочинної поведінки людини і надати варіанти заходів реагування для мінімізації наслідків. Кожен етап: розробка, комплектація, тестування і оцінка кожного технологічного інструменту підвищує якість і баланс правильних результатів, які вимагають безліч підходів.

Проект «Алгоритми і справедливість»:

  1. Досліджує способи, за допомогою яких урядові установи використовують штучний інтелект, впроваджуючи алгоритми і технології машинного навчання в процес прийняття рішень;
  2. У співпраці з колегами, які працюють з питань глобального управління, вивчає, яким чином розробка і впровадження цих технологій, як державними, так і приватними суб’єктами, впливає на права людини і соціальну справедливість. Мета – допомогти компаніям, які створюють такі інструменти, державним суб’єктам, які закуповують і використовують їх, а також підтримка громадян, на яких вони впливають. Головне, щоб алгоритмічні програми були розроблені і використані з метою поліпшення справедливості і ефективності.

Розуміючи мету і мотиви, центр Berkman Klein спирається на свій багатий досвід, щоб максимально поглибитись в складні питання соціального права, політики, через дослідження і взаємодію з державними суб’єктами. Лабораторія MIT Media спирається на свої суворі алгоритми і методи дослідження, технічну експертизу і нестандартне мислення. Проблеми, які вони прагнуть вирішити включають в себе:

  • Прозорість: закон традиційно приділяє велике значення прозорості в роботі уряду і, зокрема, в управлінні системою правосуддя. Процеси розробки методологій можуть бути непрозорими, а деякі юрисдикції не завжди надають доступ до даних, які дозволяють нагляд за технологічними рішеннями. З цієї причини вони створюють базу даних з найбільш поширених інструментів оцінки ризику, які використовуються в Сполучених Штатах Америки, щоб визначити методології та обмеження таких інструментів.
  • Упередженість: в США та інших країнах історично заведено, що маргінальні групи більш широко представлені в місцях позбавлення волі. Алгоритмічні системи навчаються на історичних фактах, тому дані повинні протистояти властивим відхиленям. Існуючі інструменти оцінки часто надають нерівні результати і мало що відомо про ефективність їх методів.
  • Належна процедура: використання технологій в системі кримінального правосуддя має потенціал, який дозволить перевернути багатовікові уявлення про процес прийняття судових рішень і форсувати дебати про адаптацію відповідно до вимог часу. Результати таких дебатів будуть залежати від того, чи існують аналогічні ситуації в минулому, або вони представляють екзистенційну кризу для судової системи. Рішення таких питань вимагають індивідуального підходу. Співпрацюючи з місцевими громадами, головна мета продемонструвати що розумне і своєчасне застосування технологій може реально поліпшити соціальну стабільність людства.
  • Конкуруючі пріоритети: існують очевидні протиріччя комерційних інтересів тих, хто створює і продає технології; тих хто керує і закуповує технічні інструменти і тих хто прагне зберегти норми і цінності нашого суспільства.
  • Интерпртивність і динамічна адаптація: більшість урядових рішень (включаючи рішення про взяття під варту) супроводжуються юридичним аналізом. Але алгоритми можуть не надавати пояснення своїх результатів, і динамічна природа машинного навчання може дати різні результати. Життєво важливо забезпечити інтерпретацію результатів. Для вирішення цього завдання Центр Berkman Klein підтримує міждисциплінарну групу юристів і розробників, які працюють над тим, щоб допомогти зрозуміти переваги і обмеження алгоритмічних пояснень, так щоб політика могла бути заснована на технічно можливих підходах.

Варіанти впливу:

Розробляючи рішення різноманітних проблем, Центр зробив найбільш значущі інвестиції в:

  1. Запуск бази даних інструментів оцінки ризиків в контексті кримінального правосуддя, включаючи інформацію про те, де і як вони використовуються; розробці та перевірці практики.
  2. Розвиток взаємодії державних співробітників з академічними колами та громадянським суспільством для вирішення виникаючих питань, пов’язаних з алгоритмами ШІ.
  3. Роботу з усіма видами юрисдикцій для розробки інструментів оцінки ризиків, пов’язаних з кримінальним правосуддям і для методів їх оцінки.

Швидко зростаючі можливості систем на основі ШІ підвищують актуальність питань про управління, етики та відповідальності цих технологій на наш навколишній світ. Як вони можуть скоротити розрив у знаннях між експертами по ШІ і людьми, які використовують ці технології? Як вони можуть використовувати потенціал систем ШІ гарантуючи, що вони не погіршать існуючу нерівність і упередження або навіть не створять нові? У Центрі Berkman Klein здійснюється широкий спектр дослідницьких проектів, пов’язаних з етикою і управлінням ШІ в рамках Ініціативи з етики та управління ШІ, розпочатої в 2017 році.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *