12.07.2020

Как повысить компетентность судей в судебных процессах, связанных с ИИ.

Оригинал здесь.
В сочетании с машинным обучением ИИ затрагивает практически все аспекты современной жизни. Поскольку цифровые технологии заменяют определенные виды человеческой деятельности, правовые споры, связанные с ИИ, неизбежны.
И федеральный суд, и суды штатов уже создают прецеденты, которые повлияют на курс будущих технологических инноваций. Например:
– Судебные иски касательно того, кто несет ответственность, если полуавтономное или автономное транспортное средство наносит вред пешеходу или пассажиру. Аварии с юридическими последствиями включают в себя случай с автомобилем Google, который совершил столкновение с автобусом в 2016 году, смерть водителя Тесла в аварии с участием автопилота, мотоциклист, столкнувшийся с автономным электромобилем Chevy Bolt в 2017 году, и пешеход, убитый автономной испытательной машиной Uber в 2018 году. В некоторых случаях будет трудно определить точную причину плохого принятия решений искусственным интеллектом в конкретном случае, потому что по своей структуре алгоритмы принятия решений используют множественные наборы данных и сенсорные входы, которые развиваются с течением времени. Бывает еще сложнее определить, кто несет ответственность: владелец конкретного компьютера, который причинил вред, разработчик программного обеспечения, производитель оборудования или те, кто предоставил данные, введенные в систему принятия решений.
– Высокоточные медицинские алгоритмы. ИИ прогнозируют риски для пациентов, помогают в диагностике и выборе лечения и определяют приоритетность ухода за пациентами, когда ресурсы ограничены. Медицинские технологии искусственного интеллекта, ставят перед врачами дилеммы, например, в отношении того, кто несет ответственность, когда искусственный интеллект, который рентгенолог использует для чтения изображений, не замечает рак. Аналогично, если ИИ отслеживает показатели жизнедеятельности, чтобы предсказать риск сердечного приступа, кто несет ответственность за вред пропущенного события или стоимость реакции на ложное предупреждение? Эти приложения также поднимают несколько пересекающихся правовых и этических вопросов, включая способы защиты данных пациентов, когда ИИ прогнозирует медицинские проблемы, с которыми может столкнуться человек, и способы защиты от дискриминации при планировании профилактической помощи.
– Использование ИИ в уголовно-правовом контексте поднимает очень важные правовые и этические вопросы. Например, каковы конституционные последствия использования общегородских акустических датчиков для определения местоположения выстрелов? Является ли сигнал от датчика действительной основой для обыска полиции, когда датчик, использующий технологию AI, указывает широту, долготу и уличный адрес предполагаемого выстрела? Кроме того, много написано о том, как обучающие наборы данных для систем распознавания лиц могут вносить предвзятость в распознавание таким образом, который непропорционально часто ошибочно идентифицирует национальные меньшинства как потенциальных преступников. Наконец, существуют серьезные последствия использования инструментов оценки риска ИИ для предварительного заключения, вынесения приговоров и прогнозирования рецидивизма. Использование наборов данных и алгоритмов, основанных на предшествующей дискриминационной практике – например, ненадлежащим образом основанной на расе или социально-экономических факторах, – может привести к усилению этих предубеждений, создать дополнительный вред и привести к неточным прогнозам в отношении тех, кто с наибольшей вероятностью пропустить суд или совершить повторные преступления.
В этих и других случаях судьи должны понимать роль, которую ИИ и машинное обучение играют в самой правовой системе. Некоторые ученые и практики уже используют ИИ для прогнозирования результатов случаев на основе алгоритмов, основанных на десятках тысяч предыдущих случаев. Недавние исследования показывают, что такие прогнозы могут иметь точность около 70%. AI вступает в новую эру количественного прогнозирования правовых решений.
Перед судами стоит серьезная задача: выявить правовые и этические проблемы, в том числе проблемы прозрачности, надлежащей правовой процедуры и конфиденциальности данных; понимание технологии искусственного интеллекта для принятия обоснованных юридических решений; и при это оценивать потенциальные последствия правовых решений для будущих технологических достижений и защиты личных прав.
Очень важно повысить компетентность судей в технических вопросах, связанных с использованием ИИ в судебной практике. Судебные системы и профессиональные организации должны сделать несколько вещей, чтобы расширить технические возможности судей:
– Обучить судебные органы доступным в настоящее время стратегиям, чтобы информировать судей о ключевых технологических нововведениях, используемых в судебных процессах.
– Поощрять инновационные исследовательские и пилотные программы, чтобы предоставить судьям техническую экспертизу, которая может помочь в принятии правильных юридических решений.
– Знакомить адвокатов с технологиями на основе ИИ, судебными делами, связанными с искусственным интеллектом, и методами, которые они могут предложить судьям.
– Привлечь ведущих специалистов с опытом использования ИИ для обучения сотрудников судебных органов.
– Привлечь все соответствующие заинтересованные стороны к информированию и рекомендациям для формирования политики и законодательства, касающихся ИИ, например, по вопросам конфиденциальности, конституционных прав или того, являются ли определенные типы ИИ продуктами или услугами с точки зрения ответственности.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *