11.07.2020

Предвзятость в принятии решения искусственным интеллектом

Оригинал тут

Использование машинного обучения в различных процессах принятия решений, в том числе в судебной практике, становится все более частым. Поскольку решение суда оказывает большое влияние на личную и профессиональную жизнь человека, а также на общество в целом, важно уметь выявлять и идеально исправлять предвзятость в системе искусственного интеллекта (ИИ).

Цель использования машинного обучения в процессе принятия судебных решений должна состоять в том, чтобы сделать решения и процесс их принятия более совершенными, более точными, справедливыми, а также более быстрыми и менее затратными. Возможно, модель ИИ действительно готова помочь судьям раскрыть и бороться с их собственной предвзятостью. Система может предупредить судью, когда, основываясь на исторических статистических данных, она обнаруживает на языке судьи, что он менее внимателен и собирается принять быстрое решение или является менее эмпатичным. Модель может сделать это путем взвешивания внешних факторов, которые могут повлиять на принятие решений, таких как время суток, температура или даже тот факт, что близок период выборов.

 Такое влияние на принятие решений судьями было показано во время исследования по условно-досрочному освобождению судей в Израиле, как описано Даниэлем Канеманом в его статье “Мышление. Быстро и медленно”. Судьи, участвующие в наблюдении, пострадали от так называемого истощения без глюкозы. Это привело к тому, что они были более склонны к условно-досрочному освобождению после перерыва на еду. При этом процент одобрения достигал 65% после каждого приема пищи, тогда как в среднем только 35% запросов об условно-досрочном освобождении были одобрены.

Очевидно, что на современном этапе алгоритмы технологий могут принимать только определенные судебные решения. ИИ использовался и в полицейской деятельности, где на основе имеющихся данных алгоритм помогает полиции или суду принять решение по конкретному делу. Например, предоставление условно-досрочного освобождения, принятие решения об освобождении под залог и определение соответствующего предложения. Суды могут использовать такое программное обеспечение, например, для оценки риска того, что обвиняемый совершит другое преступление, находясь на условно-досрочном освобождении, появится ли он на дату суда, если будет предоставлен залог, или будет рассмотрен условный срок. Кроме того, машинное обучение также использовалось при фактическом вынесении вердикта. Случаи обычно связаны с небольшими гражданско-правовыми спорами, например, принятие решения о штрафах за парковку.

Несмотря на многочисленные преимущества и технологический прогресс, которые могут быть бесконечными, крайне важно избегать рисков при развертывании ИИ в процессе принятия судебных решений. Прежде чем запускать какой-либо алгоритм, чтобы заменить судью-человека при вынесении вердикта, мы должны быть уверены, что система вынесет решение, по крайней мере, столь же справедливое и оправданное, как и человеческий судья. Экспертная группа высокого уровня Европейской комиссии по ИИ считает систему ИИ заслуживающей доверия, когда она законна, этична и надежна.

Модель, построенная на плохих или грязных данных и использующая их, рискует еще больше распространять дискриминацию и неравенство в обществе, увеличивая разрыв между результатами работы (решения) и социальными ценностями (равное обращение, справедливый процесс и т. д.). Таким образом, крайне важно обнаружить и устранить несправедливую предвзятость.

 В идеале ИИ в силу его огромного потенциального воздействия на нашу жизнь и основные права человека должен регулироваться и контролироваться  более строгим образом, как и другие важные сектора, например воздушное движение, система здравоохранения или юридическая практика. В настоящее время существует множество инициатив на национальном, европейском, а также международном уровнях по определению ключевых принципов регулирования ИИ. В то же время, чтобы убедиться, что используемая система искусственного интеллекта будет представлять максимально справедливое и точное решение, программное обеспечение должно подвергаться непрерывному процессу аудита.

3 комментария к «Предвзятость в принятии решения искусственным интеллектом»

  1. Конечно же немалые финансовые ресурсы приходится вкладывать в развитие технологий, в том числе и в судебной системе, но считаю что они мало того быстро окупятся, о и вернутся сторицею!А главное – мы получим более справедливый суд!

  2. Удивлена, что имея настолько широкие возможности люди используют алгоритмы так не продуктивно!Почему бы не доверить машине проделывать львиную часть работы?

  3. Вполне правильным и обоснованным считаю ограничение круга влияния искусственного интеллекта!Люди не должны бездумно полагаться и безропотно принимать решения, что принял робот!Мы должны контролировать результат работы машин!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *