23.10.2020

AGTech Forum: Генпрокуроры штатов и искусственный интеллект. Часть 3

Оригинал здесь.
Часть 1, Часть 2, Часть 4

Повсеместное распространение систем, использующих искусственный интеллект, привлекает всё больше внимания. Выбор того, как регулировать системы ИИ, требует осторожности. Системы искусственного интеллекта имеют возможность синтезировать большие объемы данных, обеспечивая более высокий уровень персонализации и точности, чем когда-либо прежде. Тем не менее, ИИ продолжает оставаться в здравом смысле, и, таким образом, существуют законные опасения по поводу преднамеренных и непреднамеренных негативных последствий систем.

Вопросы о законодательном праве систем искусственного интеллекта недавно обсуждались в Общем регламенте ЕС “О защите данных”. Выбор того, когда требовать отчетность о законности действий, может помочь предотвратить негативные последствия для систем ИИ, в то время как неправильный выбор  может не только не привести к их ответственности, но и препятствовать развитию. Ниже мы кратко рассмотрим текущие социальные, моральные и правовые нормы.

Вопреки распространенному мнению о системах ИИ, как о не поддающихся расшифровке черных ящиках, существуют определенные аспекты объяснения, которые могут быть простыми для людей, но сложными для систем ИИ, и наоборот. Как междисциплинарная команда юристов, девелоперов и ученых, занимающихся когнитивными науками, автор рекомендует, чтобы системы искусственного интеллекта придерживались того же стандарта объяснения, что и люди в настоящее время. Возможно в будущем мы пожелаем подвести ИИ к другому стандарту.

Чаще всего, когда человек говорит об объяснении решения, он обычно имеет в виду причины или обоснования этого конкретного результата, а не описание процесса принятия решения в целом. В этой статье термин «объяснение» означает интерпретируемое человеком описание процесса, посредством которого лицо, принимающее решение, приняло определенный набор входных данных и пришло к определенному заключению. Кроме того, в качестве руководящего принципа мы предлагаем следующее: объяснение должно позволять наблюдателю определять степень, в которой конкретный вклад был определяющим или влияющим на результат. 

До сих пор мы утверждали, что объяснение от ИИ технически выполнимо во многих ситуациях. Тем не менее, есть очевидные различия между системами ИИ и людьми. Будет ли это влиять на степень развития технологий? Наверное да, ведь искусственный интеллект должен быть в состоянии дать объяснение в любой ситуации. Такой подход не позволит лицам, ответственным за закон и порядок, «прятаться» за системами, давая только юридически ненужные объяснения.

Существуют слишком много факторов, которые влияют на определение того, когда юридически требуется объяснение для анализа, а когда нет. На самом общем уровне мы можем классифицировать факторы, которые входят в такое определение, как внешние или как внутренние, для лица, принимающего решения. Внешние факторы – значимость решения, соответствующие социальные нормы, степень, в которой объяснение будет информировать будущие действия – вероятно, будут одинаковыми, независимо от того, принимает ли решение человек или система ИИ.

Внутренние факторы, однако, могут значительно различаться между людьми и ИИ, и, вероятно, будут ключевыми в конечном итоге определяя, где требования к объяснениям человека и ИИ в соответствии с законом должны пересекаться, а где они должны расходиться. Одним из важных различий между ИИ и людьми является необходимость заранее планировать объяснения, ведь люди при принятии решения будут генерировать и хранить информацию для объяснения этого решения позже.

Один комментарий к “AGTech Forum: Генпрокуроры штатов и искусственный интеллект. Часть 3

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *