12.07.2020

Влияние алгоритмов ИИ на справедливость судебной системы

Оригинал тут.

Том Симоните – корреспондент журнала WIRED в Сан-Франциско, рассказывающий об искусственном интеллекте и его влиянии на мир.  

В данной статье речь пойдет о влиянии искусственного интеллекта на судебную систему и изменениях, произошедших с ней в штате Кентукки, после использования алгоритмов оценки рисков. 

В 2011 году в штате Кентукки приняли закон под названием HB 463, который разрешил использовать в судах алгоритмы для вынесения досудебных решений. Законодатели штата Кентукки планировали, что HB 463 сократит количество заключенных.  Предполагалось, что алгоритмы помогут судьям лучше оценить, кто может быть освобожден под залог. В своей работе они использовали систему баллов для оценки вероятности повторного совершения преступления или неявки обвиняемого на судебное заседание. В законе говориться, что люди, помеченные как лица с низким или умеренным риском, должны быть освобождены без внесения залога После вступления закона в силу судьи отменили рекомендации системы более чем в 75% случаев, но из-за предполагаемого увеличения количества преступлений, вынуждены были постепенно вернуться к прежней системе ведения дел.  В результате, в течение нескольких лет освобождалась меньшая доля обвиняемых, чем до вступления в силу законопроекта.

 Меган Стивенсон, профессор права в Университете Джорджа Мейсона, провела исследования изменений, что произошли вследствие введения  алгоритмов в систему правосудия штата Кентукки. В итоге она обнаружила, что проект не достиг своих целей и даже создал новые неравенства. «Изменения отличаются от тех, на которые, возможно, надеялись политики: после использования алгоритма доля обвиняемых  афроамериканцев, освобожденных без залога, увеличилась до чуть более 25 %, тогда как показатели остальных подскочили до более чем 35%.” Примечательно, что  до вступления в силу закона было мало различий между долей первой и второй группы обвиняемых, которым было предоставлено освобождение, в ожидании суда  дома, без залога. По словам профессора, одним из объяснений, подкрепленных данными из Кентукки, является то, что судьи по-разному реагировали на оценки риска в разных частях штата.  

 В свою очередь, исследователь из Гарварда Алекс Олбрайт говорит, что необходимо уделять больше внимания тому, как люди интерпретируют предсказания алгоритмов.  «Мы должны приложить равное количество усилий не только к составлению прогнозов и анализов, но и к обучению людей как ими пользоваться», – говорит она.

 Майкл Такер, координатор по оценке рисков в досудебных службах штата Кентукки, утверждает, что его агентство пытается смягчить потенциальную предвзятость в инструментах оценки риска и беседует с судьями о возможности «скрытой предвзятости» в том, как они интерпретируют оценки риска. 

Дженнифер Ским, профессор Университета Беркли в Калифорнии, работая с коллегами из Калифорнийского университета в Ирвине и Университета Вирджинии считала, что оценка риска не окажет большого влияния на вынесение приговора, но это мнение было ошибочным так, как система может взаимодействовать с судьями сильно влияя на результат судебного заседания.

 Есть основания полагать, что, если оценка рисков была выполнена тщательно, они могли бы помочь сделать систему уголовного правосудия более справедливой.  

Меган Стивенсон согласна с необходимостью сделать процедуру оценки риска более прозрачной, но также утверждает, что может быть слишком поздно считать её успешной, учитывая плохую репутацию и слабые выгоды.

Не менее остро стоит вопрос проверки работы алгоритмов оценки рисков. Ведь алгоритмы уголовного правосудия, как правило, относительно просты и дают оценки исходя из небольшого количества данных, но их разработчики запрещают раскрытие информации об их устройстве и производительности. Для проверки работы самих систем и последствий их решений приглашают  независимых экспертов. 

 Как алгоритмы изменяют способ совершения правосудия, в значительной степени неизвестно.  Журналисты и ученые показали, что алгоритмы оценки риска могут быть несправедливыми или расистскими. Главный вопрос состоит в том: помогают ли они судьям принимать более правильные решения. И он остается без ответа.


6 комментариев к «Влияние алгоритмов ИИ на справедливость судебной системы»

  1. Наконец информативная статья об изменениях произошедших в судебной системе США под влиянием искусственного интеллекта!

  2. Алекс Олбрайт права в своих суждения на 100%!Надо не только ввести изменения, но и научить людей правильно и с умом использовать технологии!

  3. А сможет ли верно оценить все риски и нюансы дела бездушная машина?Будут ли учтены все факторы?Не думаю!Считаю, что прежде чем полностью отдавать бразды правления судебной системой ИИ нужно учесть все варианты развития событий!

  4. Вообще сложно что-то конкретное комментировать про законодательство США и как-либо оценивать его работу!Тут в местном черт ногу сломит….

  5. Хочу сказать, что ранее чернокожих граждан заключали под стражу чаще из-за дискриминации по цвету кожи, к сожалению ситуация не изменилась, ведь хотя в своих решения судьи США и используют данные анализированные ИИ, но ведь и анализ чаще всего указывает на возможность совершения преступления опираясь на место жительства и т.д.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *