12.07.2020

ИИ в суде: на очереди роботы-судьи?

Оригинал здесь.
Автор:  Stephanie Condon
Как и в других отраслях, в правовой сфере применение искусственного интеллекта порождает большие надежды – но и серьёзные опасения. И когда дело касается судебных дел, ставки становятся особенно высокими. Одно дело, если Netflix решает, какой фильм вам стоит посмотреть, и совсем другое – если компьютерный алгоритм определяет сроки опеки над вашим ребёнком.
Тем не менее, ИИ и автоматизация уже сейчас играют важную роль в правовой системе США. На конференции в Портленде, штат Орегон, организованной Корпорацией юридических услуг, юристы со всей страны собрались, чтобы сообща обдумать, как нужно модернизировать судебную систему – и в какой степени в ней следует использовать ИИ.
«Мы должны перестать делать что-либо только потому, что нам это под силу», – заявил Алан Карлсон, консультант и бывший исполнительный директор Верховного суда округа Ориндж в Калифорнии. Перед использованием новых технологических решений, по его словам, следует спросить: «Вам действительно необходимо использовать ИИ? Не могли бы вы сами принять решение? Достаточно ли для него данных?»
Конечно, уже есть примеры простых и эффективных способов внедрения автоматизации в судах, в том числе принципиально новые случаи использования ИИ. Развертывание автоматизации может сделать систему правосудия более доступной для тех людей, у которых нет либо денег на адвоката, либо времени для посещения суда.
Например, в Верховном суде округа Лос-Анджелес в Калифорнии – крупнейшем в мире суде – аватар по имени Джина помогает гражданам решить вопросы со штрафами за нарушение правил дорожного движения. Джина знает пять языков и способна обслуживать более пяти тысяч клиентов в месяц. При этом она даже не настоящий искусственный интеллект – Джина ​​лишь запрограммирована работать по заданным схемам. Однако она послужила основой для более сложных систем автоматизации.
Сейчас в Лос-Анджелесе работают над проектом Jury Chat Bot, в котором будет работать настоящий искусственный интеллект. Об этом, по данным электронного издания ZDNet, сообщил Снорри Огата, IT-директор Верховного суда Лос-Анджелеса. Этот проект основан на платформе Microsoft Cognitive Services, и использует функции понимания естественного языка, QnA maker (для создания «FAQ по стероидам», по выражению Огаты) и перевода. Пока что планируется сосредоточить усилия на процессе вызова присяжных и сведении чата к максимально конкретным вопросам (таким, как «получить мой ID присяжного» или «запросить отсрочку»).
«Это имеет ключевое значение по двум причинам», – считает Огата. «Во-первых, так мы можем чётко определить окупаемость инвестиций. Во-вторых, сужается пространство того, чему нужно научить бота. В дальнейшем, вероятно, мы будем расширять его функции, но уже сейчас рады тому, над чем работаем».
Другие американские суды используют систему разрешения споров в режиме онлайн (ODR) в некоторых конфликтных случаях. Система ODR может сказать последнее слово, если стороны конфликта зашли в тупик. Об этом рассказал Колин Рул, вице-президент по ODR в Tyler Technologies и соучредитель поставщика услуг ODR Modria. Такая система может помочь, например, для так называемого «ночного бейсбольного арбитража», когда арбитр предлагает решение, которое затем корректируется в соответствии с наиболее близкими из предложений обеих сторон конфликта.
По выражению Рула, подобные услуги можно назвать и «цифровым судьёй». Однако при этом он уточнил: «Речь не идёт о создании цифрового мозга».
Чтобы объяснить разницу, Рул сравнил систему правосудия на основе алгоритмов с суперкомпьютером IBM Watson. Он привёл в пример случай, когда Кен Дженнингс, чемпион игрового шоу «Jeopardy!», выступил на этом шоу против Watson (что произошло в феврале 2011 года). «Watson не будет давать 10 тысяч ответов, а выберет тот, у которого наивысший балл», – сказал Рул. «Вот что Watson делает в реальном времени», – добавил он.
Кроме того, ODR при разбирательстве спора учитывает всю информацию и позиции обеих сторон. Алгоритм, по словам Рула, «может изучить 10 миллионов подобных случаев, сформулировать своё представление о том, что справедливо, взглянуть на оба предложения и сказать: «Я выбираю предложение стороны А».
«Судьи-люди действуют не так, но компьютеры хорошо себя проявляют», – продолжил Рул. «Слово «судья» означает человека со специфическими функциями, но всё-таки человека. Мы не собираемся механически копировать его в электронном виде, но потребность в судье может быть удовлетворена с помощью цифровых технологий, причём различными способами».
Однако для удовлетворения такой потребности люди должны научиться доверять применяемой технологии. В некоторых случаях над использованием ИИ в правовой системе уже установлен серьезный контроль, например, в основных принципах вынесения приговоров. В 2016 году Верховный суд штата Висконсин постановил, что Департамент исправительных учреждений этого штата может использовать собственный компьютерный алгоритм от частного производителя, чтобы определить, насколько долго кто-либо должен находиться в тюрьме, даже если поставщик программы не объясняет, как она работает. Но когда человек по имени Эрик Лумис был признан виновным в стрельбе из машины, его приговору по шкале риска был присвоен «высокий статус». Лумис обратился в Верховный суд США, но там отказались рассматривать его дело.
Официальные лица на конференции отмечали, что объяснимость – а это вопрос, который уже сейчас крайне заботит специалистов по искусственному интеллекту – очень важна для установления доверия. Человек не сможет доверять решению ИИ, если не поймёт, как и почему оно было принято. При этом результаты действий ИИ доступны для проверки.
В течение восьми лет Рул работал директором ODR в eBay и PayPal, где помогал создавать систему, разрешающую 60 миллионов конфликтов в год. Но система ODR запускалась постепенно, поначалу она была лишь молчаливым наблюдателем, который учился наилучшим образом разрешать споры. По словам Рула, постепенный запуск помог создать систему такого качества, чтобы ей могли доверять и компания, и клиенты.
По мнению Алана Карлсона, для судов, внедряющих в свою работу ИИ, существует возможность подвергнуть свои системы экспертизе наподобие отчета о воздействии на окружающую среду. Точно так же, как строительные проекты тщательно изучают на предмет того, как они сказываются на населении, транспорте, школах и так далее, системы искусственного интеллекта могут оцениваться третьими сторонами с точки зрения того, на кого они воздействуют и как.
С такой объективной оценкой, включённой в процесс внедрения ИИ, «даже если вы не можете объяснить, как работают алгоритмы, то сможете доверять результатам», – считает Карлсон.
Участники конференции отметили, что не так уж сложно создать систему на основе ИИ, которая будет давать лучшие результаты, чем люди. Существует множество доказательств различных предрассудков и слабостей человека, действующих в том числе и в сфере правосудия. Например, в 2011 году исследование израильской комиссии по условно-досрочному освобождению показало, что она вынесла более жесткие решения за час до обеда и за час до конца дня.
Возможно, полагает Рул, граждане в ближайшие десятилетия смогут «оглянуться назад, на эпоху человеческих судов, и сказать, что это было немногим лучше, чем подбрасывать монетку».
Тем не менее, Рул подчеркнул: важно создавать такие системы ИИ, которые дополняют человека, а не заменяют его. Это нужно отчасти для того, чтобы люди, прибегающие к их услуги, чувствовали, что могут быть услышанными.
Судья Венди Чанг из Верховного суда Лос-Анджелеса также назвала необходимые оговорки в части попыток создать полностью автоматизированные судебные системы.
«По моему опыту судейской деятельности, особенно в тех случаях, когда человек сам представляет себя, большую часть времени люди от волнения даже не знают, что сказать», – заметила она. Но судья-робот приходит к решению на основе получаемой информации, и в этой связи Чанг спросила: «Как вы собираетесь научить его искать недостающие детали? Для меня сейчас этот вопрос очень актуален».
«Если люди волнуются, я начну задавать им вопросы, и тогда результат будет совершено другим», – пояснила она свою мысль.
В некоторых случаях, считает Чанг, ставки слишком высоки, чтобы исключать участие людей из процесса. «Правовые решения порой ведут к необратимым последствиям, особенно в таких сферах, как иммиграция», – сказала она. «Иногда человека возвращают на родину, и там он сразу же гибнет».
По словам Карлсона, если суд решит продолжать внедрение ИИ, ему необходимо тщательно учесть все возможные риски. С одной стороны, проект преследует определенные цели. Администраторы обязаны внедрить правила, которые помешают использовать ИИ для других целей, кроме назначенных. Например, если механизм предназначен определять вероятность чьей-то явки в суд, то его нельзя использовать для расчёта вероятности того, что кто-то совершит преступление.
Кроме того, суды должны обеспечить использование только надёжных данных. «Сомневаюсь, что до сих пор смогли установить, сколько у нас данных в судах», – сказал Карлсон. «Система их организации далека от идеала».
Как и Рул, и Чанг, Карлсон также напомнил, что ИИ имеет свои пределы возможностей.
«Нужно чётко проследить границу между цифровой технологией и человеком», – считает он.

Один комментарий к “ИИ в суде: на очереди роботы-судьи?

  1. Вот именно!Должны быть выделены четкие границы между решениями которые может принимать искусственный разум!Не хотела бы я чтобы ИИ устанавливал строки опеки над ребенком!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *