12.07.2020

Справедливость искусственного интеллекта в судебной системе

Оригинал здесь

Малкольм Глэдвелл в своей книге «Разговор с незнакомцами» писал о трудностях, с которыми сталкивается судья: разрешать ли обвиняемому освобождение под залог. По сути, Гладуэлл подчеркивает, что, будучи человеком, судьи склонны ошибочно оценивать характер обвиняемого, когда сталкиваются с незнакомцами в зале суда. Затем Глэдвелл ссылается на ИИ, который был разработан для принятия того же решения на основе приблизительно полумиллиона случаев, когда на компьютер вводились данные о возрасте обвиняемого и судимости.

Смысл этого упражнения состоял в том, чтобы определить, был ли судья более точным, оценивая обвиняемых как «подвергающихся высокому риску», то есть совершат ли они другое преступление, будучи отпущенными под залог либо нарушат условия освобождения под залог; сможет ли машина лучше судить об этом. Результат не удивил – машина победила, человек проиграл. Алгоритм ИИ смог более точно предсказать, кто из обвиняемых имел «высокий риск». Из этого эксперимента и многих других, подобных ему, следует исходить из того, что прогностическая справедливость может сыграть похвальную роль, помогая судьям принимать точные решения, обеспечивая справедливую и эффективную работу системы свершения правосудия для всех.

Отправной точкой в ​​обсуждении этих инициатив является понимание «предсказательной справедливости». Предиктивное правосудие – это анализ большого количества судебных решений с помощью технологий ИИ с целью прогнозирования результатов дел. В жаргоне ИИ термин «прогнозирующий» связан с возможностью прогнозирования будущих результатов посредством индуктивного анализа, который выявляет корреляции между входными и выходными данными.

В случае принятия судебного решения первым может быть уголовное преступление или спорный иск и рассуждения судьи; и последним может быть сумма компенсации или приговор по уголовному делу. Риск ложных корреляций может проявиться в процессе принятия решений, связанных с аналогичными случаями, имеющими противоречивые результаты, при условии, что результат основан на разумных юридических доводах. Принимая это во внимание, можем ли мы применить математическое моделирование к человеческому принятию решений в судах перед лицом таких сложностей? Возможно, нам следует подчеркнуть, что человеческая автономия должна быть сохранена или же альтернатива, столкнувшись с человеческой слабостью, должна быть осторожна с отказом от этой автономии в зависимости от автоматизации. Чтобы противостоять этой дилемме, необходимо установить этические рамки.

Первое столкновение автора с предсказательным правосудием было, когда он наткнулся на усилия CEPEJ (Европейской комиссии по эффективности правосудия). Его интересовали этические рамки при использовании ИИ при осуществлении правосудия. Это прекрасная отправная точка для предсказательного правосудия. Этическая структура является исходником для начала разработки и внедрения ИИ.

Европейская этическая хартия по использованию искусственного интеллекта в судебных системах, опубликованная CEPEJ, предусматривает пять основных принципов – уважение основных прав, недискриминация, качество и безопасность, прозрачность, беспристрастность и справедливость; и «нахождение под контролем пользователя». Последний принцип выделяется, поскольку он помогает избежать процесса дегуманизации системы правосудия. Это исключает предписывающий подход к использованию ИИ и сохраняет автономию пользователя – в контексте этой статьи, судьи – для пересмотра судебного решения и данных, использованных для получения результата, предлагаемого ИИ.

Использование ИИ поднимает больше вопросов, чем решает наши проблемы с осуществлением правосудия. Если судья отклоняется от решения, предоставленного ИИ, как его аргументация будет подана? Если есть отклонение, может ли это послужить основанием для апелляции? Существуют ли адекватные принципы в этических рамках, если они есть, которые будут поддерживать независимость судьи при принятии решений?

В своей лекции («Лекция сэра Генри Брука для BAILII» от 12 ноября 2019 года) под названием «Алгоритмы, искусственный интеллект и закон», судья Филипп Сэйлс напомнил нам, что «кодирование будет отражать невысказанные предубеждения. Человеческие кодеры и алгоритмы кодирования представляют собой замкнутую систему, которая «может не уловить всего, что может иметь значение для решения человеческой проблемы». И в защиту бытия человеком и применения закона человеком, Юстиция Сэйлс поделилась проницательным наблюдением, что «открытая текстурированная природа таких идей, как справедливость и объективность, создает возможность для имманентной критики применяемых правил и оставляет место для более широких ценностей, явно не включенных в алгоритм закона, для ввода уравнения, приводящего к конечному результату».

Предполагается использование ИИ во всех сферах жизни, и шаги, предпринятые для его внедрения при осуществлении правосудия, заслуживают похвалы. Тем не менее, на фоне проблем предиктивного правосудия, мы не можем в полной мере оправдывать его эффективность и нести свою ответственность без надежной оценки рисков.

Один комментарий к “Справедливость искусственного интеллекта в судебной системе

  1. То есть, с одной стороны вынесение решений искусственным разумом будет опираться на решения в подобных ситуациях , но и с другой стороны человек-судья тоже оценивает вас не совсем с обьективной точки зрения!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *