05.08.2020

Алгоритмы и справедливость. Этика и управление программой искусственного интеллекта.

Оригинал здесь.

Во всем мире государственные структуры начинают изучать автоматизацию принятия решений в различных областях: например, определять права на услуги, давать четкую и понятную оценку где лучше задействовать инспекторов здравоохранения и персонал правоохранительных органов, устанавливать границы избирательных участков. 

Правительства и компании накапливают большие объемы данных, и аналитические инструменты становятся более мощными, поэтому случаи использования технологий, которые включают ИИ или машинное обучение, будут постоянно расти и увеличиваться. 

Система уголовного правосудия предлагает разнообразные варианты алгоритмических технологий для государственных потребностей. Постоянные ошибки судей, присяжных и адвокатов, привели к тому, что старая система была справедливо раскритикована. В последние годы был проведен пересмотр системы задержания, так как политики-реформаторы стремятся контролировать расходы, лучше управлять тюремной системой и практикой лишения свободы. 

Алгоритмические технологии приносят ясность в вынесение приговора и в досрочное освобождение заключенных, кроме того они могут минимизировать вред от человеческого суждения или нашей логики. Но есть и другая сторона монеты – решения технологий не всегда могут быть точными и возникают серьезные опасения в правильности и прозрачности их приговоров.  Мы должны рассмотреть как правовые и этические вопросы, так и участвовать в строгом тестировании и оценке алгоритмического инструментария, чтобы обеспечить правильность процедур и справедливость принятых решений. 

Как следует из названия, уголовное правосудие – это не просто система, а серия взаимосвязанных процессов, с несколькими точками входа и этапами оценки. Технологии могут помочь сбалансировать стремление достичь различные цели, найти сдерживающий фактор, пролить свет на причины преступного поведения человека и предоставить варианты мер реагирования для минимизации последствий. Каждый этап: разработка, комплектация, тестирование и оценка каждого технологического инструмента повышает качество и баланс правильных результатов, которые требуют множество подходов.

Проект «Алгоритмы и справедливость»: 

  1. Исследует способы, с помощью которых правительственные учреждения используют искусственный интеллект, внедряя алгоритмы и технологии машинного обучения в процесс принятия решений; 
  2. В сотрудничестве с коллегами, работающими по вопросам глобального управления, изучает, каким образом разработка и внедрение этих технологий, как государственными, так и частными субъектами,  влияет на права человека и социальную справедливость. Цель – помочь компаниям, которые создают такие инструменты, государственным субъектам, которые закупают и используют их, а также поддержка граждан, на которых они влияют. Главное, чтобы алгоритмические приложения были разработаны и использованы с целью улучшения справедливости и эффективности.

Понимая цель и мотивы, центр Berkman Klein опирается на свой богатый опыт, чтобы максимально углубится в сложные вопросы социального права, политики,  через исследования и взаимодействие с государственными субъектами. Лаборатория MIT Media опирается на свои строгие алгоритмы и методы исследования, техническую экспертизу и нестандартное мышление. Проблемы, которые они стремятся решить включают в себя:

  • Прозрачность: закон традиционно уделяет большое значение прозрачности в работе правительства и, в частности, в управлении системой правосудия. Процессы разработки методологий могут быть непрозрачными, а некоторые юрисдикции не всегда предоставляют доступ к данным, которые позволяют надзор за технологическими решениями. По этой причине они создают базу данных из наиболее распространенных инструментов оценки риска, которые используются в Соединенных Штатах Америки, чтобы определить методологии и ограничения таких инструментов. 
  • Предвзятость: в США и других странах исторически заведено, что маргинальные группы более широко представлены в местах лишения свободы. Алгоритмические системы обучаются на исторических фактах, поэтому данные должны противостоять присущим отклонениям. Существующие инструменты оценки часто предоставляют неравные результаты и мало что известно об эффективности их методов.
  • Надлежащая процедура: использование технологий в системе уголовного правосудия имеет потенциал, который позволит перевернуть многовековые представления о процессе принятия судебных решений и форсировать дебаты об адаптации в соответствии с требованиями времени. Результаты таких дебатов будут зависеть от того, существуют ли аналогичные ситуации в прошлом, или они представляют экзистенциальный кризис для судебной системы. Решение таких вопросов требуют индивидуального подхода. Сотрудничая с местными сообществами, главная цель продемонстрировать что разумное и своевременное применение технологий может реально улучшить социальную стабильность человечества. 
  • Конкурирующие приоритеты: существуют очевидные противоречия коммерческих интересов тех, кто создает и продает технологии; тех кто управляет и закупает технические инструменты и тех кто стремится сохранить нормы и ценности нашего общества. 
  • Интерпретируемость и динамическая адаптация: большинство правительственных решений (включая решения о заключении под стражу) сопровождаются юридическим анализом. Но алгоритмы могут не предоставлять объяснения своих результатов, и динамическая природа машинного обучения может дать разные результаты. Жизненно важно обеспечить интерпретацию результатов. Для решения этой задачи Центр Berkman Klein поддерживает междисциплинарную группу юристов и разработчиков, которые работают над тем, чтобы помочь понять преимущества и ограничения алгоритмических объяснений, так чтобы политика могла быть основана на технически возможных подходах. 

Варианты воздействия: 

Разрабатывая решения разнообразных проблем, Центр сделал наиболее значимые инвестиции в:

  1. Запуск базы данных инструментов оценки рисков в контексте уголовного правосудия, включая информацию о том, где и как они используются; разработке и проверке практики. 
  2. Развитие взаимодействия государственных сотрудников с академическими кругами и гражданским обществом для решения возникающих вопросов, связанных  с алгоритмами ИИ.
  3. Работу со всеми видами юрисдикций для разработки инструментов оценки рисков, связанных с уголовным правосудием и для методов их оценки.

Быстро растущие возможности систем на основе ИИ повышают актуальность вопросов об управлении, этике и ответственности этих технологий на наш окружающий мир. Как они могут сократить разрыв в знаниях между экспертами по ИИ и людьми, которые используют эти технологии? Как они могут использовать потенциал систем ИИ гарантируя, что они не усугубят существующее неравенство и предубеждения или даже не создадут новые? В Центре Berkman Klein осуществляется широкий спектр исследовательских проектов, связанных с этикой и управлением ИИ в рамках Инициативы по этике и управлению ИИ, начатой в 2017 году.

Один комментарий к “Алгоритмы и справедливость. Этика и управление программой искусственного интеллекта.

  1. Как мне кажется искусственный разум вполне может решать теоретические вопросы и выполнять механические задачи, но вопросы этики и морали должны остаться за людьми

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *