30.09.2020

Уголовное правосудие и системы искусственного интеллекта

Оригинал тут

Автоматизация, обеспечиваемая аналитикой больших данных, машинным обучением и системами искусственного интеллекта, заставляет нас пересмотреть фундаментальные вопросы уголовного правосудия. В статье описывается автоматизация, которая произошла в области уголовного правосудия, и дается ответ на вопрос о том, что автоматизируется и какие процессы заменяются таким образом. Затем анализируются отношения между системами искусственного интеллекта и законом, рассматривая прецедентное право, и анализируются некоторые из затрагиваемых прав человека. В заключительной части статьи приводятся некоторые соображения о предлагаемых решениях для устранения рисков, создаваемых системами искусственного интеллекта в области уголовного правосудия.

С появлением аналитики больших данных, систем машинного обучения и искусственного интеллекта, оценка риска преступности и функционирование систем уголовного правосудия становятся все более технически сложными процессами. Хотя авторы не согласны с тем, представляют ли эти технологии панацею для систем уголовного правосудия – например, за счет сокращения количества нерассмотренных дел – или еще больше усугубят социальное разделение и поставят под угрозу основные свободы. Оба лагеря согласны с тем, что такие новые технологии имеют важные последствия для систем уголовного правосудия.

Автоматизация, вызванная системами ИИ, заставляет нас сделать шаг назад и пересмотреть фундаментальные вопросы уголовного правосудия: что означает объяснение оснований для вынесения приговора? Прозрачен ли процесс принятия судебного решения? Кто должен нести ответственность за автоматизированные решения и как должна распределяться ответственность в цепочке участников, когда окончательное решение облегчается использованием ИИ? Что такое справедливый суд? И отказано ли обвиняемому в надлежащей правовой процедуре, когда системы ИИ используются на каком-то этапе уголовного процесса?
Техническая изощренность новых систем ИИ, используемых в процессах принятия решений в условиях уголовного правосудия, часто приводит к эффекту «черного ящика». Промежуточные этапы процесса принятия решения по определению скрыты от человеческого наблюдения из-за технической сложности. Например, многочисленные области прикладного машинного обучения показывают, как новые методы неконтролируемого обучения или активного обучения работают таким образом, чтобы избежать вмешательства человека. Подход называется активным, так как алгоритм решает, какие образцы должны быть аннотированы человеком, основываясь на его текущей гипотезе.
 Системы ИИ должны быть прозрачными при использовании в судебных системах, где объяснимость решений и прозрачность рассуждений имеют важное, даже цивилизационное значение. Процесс принятия решений, в котором отсутствует прозрачность и понятность, не считается законным и не автократическим. Из-за непрозрачной природы этих систем ИИ новые инструменты, используемые в системах уголовного правосудия, могут, таким образом, расходиться с фундаментальными свободами. Кроме того, юристы должны знать о надзаконном контексте и обосновании внедрения систем искусственного интеллекта. В то время как некоторые причины могут быть законными, например, когда системы ИИ облегчают доступ к судам лицам, которые в противном случае могли бы остаться в стороне от правосудия; другие могут быть спорными и требовать более широких социальных дебатов, которые могут проводиться только вне судебной системы. 
Сокращение бюджетов, снижение легитимности судебной власти и перегрузка дел могут привести к внедрению новых решений, которые компании в области информационных технологий готовы предложить правительствам. Тем не менее, предложения о передаче государственной услуги поставщикам из частного сектора вызовут (или должны инициировать) крупную политическую дискуссию, которая должна проводиться на более демократических форумах. 

Исходя из этой вводной контекстуализации автоматизации уголовного правосудия, эта статья переходит к общей схеме автоматизации борьбы с преступностью и дает ответы на вопросы о том, что автоматизируется и кто заменяется в борьбе с преступностью. В заключительной части статьи приводятся некоторые соображения о предлагаемых решениях для устранения рисков систем ИИ в области уголовного правосудия.

Что касается последствий использования систем искусственного интеллекта для защиты персональных данных, в число препятствий для неблагоприятного воздействия систем искусственного интеллекта входят такие права, как явное согласие субъектов данных на обработку их персональных данных, принцип минимизации данных; принцип ограничения цели и набор прав, связанных с разрешением автоматического принятия решений. 

Общий регламент о защите данных (далее – GDPR) предлагает некоторые ориентиры. В случаях автоматической обработки контроллер данных должен принять надлежащие меры для защиты прав и свобод субъекта данных и законных интересов, например, путем предоставления ему или ей права на получение вмешательства со стороны контроллера, чтобы выразить свое мнение, точку зрения, и оспаривать решение (ст. 22, п. 3 GDPR).

Автоматизированные решения, которые оказывают неблагоприятное правовое воздействие на субъект данных или оказывают существенное влияние на него или ее, запрещены в соответствии со статьей 11 Директивы по правоохранительной деятельности. В соответствии с положениями Директивы по правоохранительной деятельности судебные решения, принимаемые исключительно с помощью алгоритмического инструмента, никогда не могут быть законными.

Помимо влияния на многие аспекты неравенства, системы принятия решений ИИ могут сталкиваться с рядом других фундаментальных свобод. Как и в случае с «красной чертой», концепция «спящего террориста», используемая в антитеррористическом законодательстве Германии, нарушает презумпцию невиновности. Простая вероятность совпадения атрибутов известных террористов и «спящих» направляет бдительный взгляд государства на человека. О’Нил предлагает наглядный пример случая с Робертом МакДэниелом, двадцатидвухлетним учеником средней школы, который получил повышенное внимание полиции из-за прогностического анализа программы его социальной сети и проживания в бедном и опасном районе: … ему не повезло. Он был окружен преступностью, и многие из его знакомых оказались вовлечены в него. И во многом из-за этих обстоятельств, а не из-за его собственных действий, он считался опасным. Теперь полиция присматривает за ним.

Автоматизированные методы и алгоритмы, используемые в целях предупреждения преступности, облегчают формы «наблюдения за данными», о которых пострадавший не может знать. Европейский суд по правам человека подчеркнул, что отсутствие уведомления в любой момент подрывает эффективность средств правовой защиты против таких мер. Право на эффективное средство правовой защиты подразумевает право на обоснованное и индивидуальное решение. Статья 13 Европейской конвенции о правах человека гласит, что каждый, чьи права были нарушены, должен иметь эффективное средство правовой защиты в государственном органе.


4 комментария к «Уголовное правосудие и системы искусственного интеллекта»

  1. О теме искусственного интеллекта можно много рассуждать. Но особенно интересует как справится с ним Украина

  2. Мда, конечно!Судить о человеке со стороны: быть ему преступником или нет,по месту жительства и чертам характера….не совсем этично!То есть не существует преступников и богатых ил интеллигентных семей?”

  3. Как по мне, давать право роботам бездумно копошиться в грязном белье человечества – это перебор!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *