04.12.2020

Новые взгляды на этику и законы искусственного интеллекта

Оригинал тут.

Непрерывное взаимодействие между высокотехнологичными устройствами и людьми указывает на растущее число данных, которые производятся, хранятся и обрабатываются, изменяя в различных аспектах нашу повседневную жизнь. Эта растущая связь и симбиотическое взаимодействие между людьми и искусственными машинами создает значительные проблемы для верховенства закона и современной этики. Есть ли у машин мораль? Какой режим юридической ответственности мы должны принять за убытки, возникающие в результате все более совершенного искусственного интеллекта? Какое этическое руководство мы должны принять, чтобы ориентировать его развитие? В этой статье мы обсудим основные нормативные и этические проблемы, связанные с развитием искусственного интеллекта.

С развитием и распространением «больших данных» и вычислительных технологий быстро развивалась технологическая эволюция, и все более интеллектуальные алгоритмы стали отличным ресурсом для инноваций и бизнес-моделей.

Этот новый контекст, основанный на концепциях Web 3.0, Интернета вещей и искусственного интеллекта, зависит от непрерывного взаимодействия между интеллектуальными устройствами, сенсорами и людьми, генерирующими огромное количество данных, которые производятся, хранятся и обрабатываются, изменяя в различных аспектах наш повседневная жизнь (Magrani, 2017). Растущая связь и симбиотическое взаимодействие между этими агентами создают серьезную проблему для верховенства закона и современной этики, требуя глубокого осмысления морали, управления и регулирования.

Питер-Поль Вербик в своей работе «Морализующая технология: понимание и разработка морали вещей» имеет цель расширить сферу этики, чтобы лучше приспособиться к технологическому веку, и, таким образом, раскрывает неразделимую природу человечества и технологии. Следуя вкладу Вербека, технологии можно считать «моральными посредниками», которые формируют то, как мы воспринимаем мир и взаимодействуем с ним, и таким образом выявляют и направляют возможные формы поведения. Поскольку каждая технология влияет на то, как мы воспринимаем мир и взаимодействуем с ним, и даже на то, как мы думаем, ни одна технология не является морально нейтральной – она ​​опосредует нашу жизнь (Verbeek, 2011).

Технические артефакты, как объяснил теоретик Питер Крус, могут быть поняты как созданные человеком вещи (объекты), которые имеют функцию и план использования. Они состоят из продуктов, полученных в результате технологических действий, определяющих отношение, которое мы ежедневно принимаем для решения практических задач, в том числе связанных с нашими желаниями и нашими потребностями. Технические артефакты включают в себя необходимость соблюдения правил использования, а также параметров, которые должны быть созданы в связи с ролями отдельных лиц и социальных учреждений по отношению к ним и их использованием (Вермаас, Крус, ван де Поэль, Франссен и др. Houkes, 2011).

Чтобы проиллюстрировать разницу между понятиями технического артефакта и социотехнической системы, мы можем представить, что первое представлено самолетом, а второе – сложной авиационной системой. Социально-техническая система формируется набором взаимосвязанных агентов (человеческие и нечеловеческие актеры – вещи, учреждения и т. Д.), Которые работают вместе для достижения данной цели. Материальность и эффекты социотехнической системы зависят от суммы полномочий каждого актанта. Тем не менее, существуют параметры того, как должна использоваться система, что означает, что эти системы имеют заранее определенные рабочие процессы и могут зависеть от регулирующих законов и политик.

Таким образом, когда происходит трагическая авария с участием самолета, необходимо проанализировать, что было в сфере контроля и влияния каждого субъекта и технических артефактных компонентов социотехнической сети. Вполне возможно, мы будем наблюдать очень сложные и симбиотические отношения между компонентами, которые привели к этому роковому результату (Saraiva, 2011). 

Эти сложные системы приводят нас к обсуждению ответственности и этики в отношении технических артефактов и социотехнических систем. Такие вопросы, как ответственность разработчиков и наличие морали у нечеловеческих агентов – с акцентом здесь на технологических объектах – требуют ответа или, по крайней мере, размышлений, которые способствуют дискуссии в публичной сфере. Теория Бруно Латура предлагает прогресс в противостоянии и отказе от формального бинарного разделения между людьми и не людьми, но она помещает объекты с различными сложностями и ценностями на одном уровне. Учитывая этот контекст, с юридической и нормативной точки зрения присвоение разного статуса техническим артефактам и социотехническим системам в зависимости от их способности к действию и влияния оправданно и должно быть наделено различным моральным статусом и уровнями ответственности. (Latour, 2001).

Колин Аллен и Уэнделл Уоллах (Wallach and Allen, 2008) утверждают, что поскольку интеллектуальные вещи – например, роботы – становятся более автономными и принимают на себя большую ответственность, они должны быть запрограммированы с помощью навыков морального принятия решений для нашей собственной безопасности.

Подтверждая этот тезис, Питер-Поль Вербик, имея дело с моралью вещей, понимает, что: поскольку машины теперь работают чаще в открытых социальных средах, таких как связанные публичные сферы, становится все более важным разработать тип функциональной морали, чувствительной этически значимым характеристикам и применимым к предполагаемым ситуациям (Verbeek, 2011).

Хорошим примером является робот Microsoft Tay, который помогает проиллюстрировать влияние не человеческого элемента на общество. В 2016 году Microsoft запустила программу искусственного интеллекта под названием Tay. Наделенный способностью к глубокому обучению, робот формировал свое мировоззрение, основываясь на онлайн-взаимодействиях с другими людьми и создавая на их основе аутентичные выражения. Однако опыт оказался катастрофическим, и компании пришлось отключить инструмент менее чем за 24 часа из-за неприятных результатов.

3 комментария к «Новые взгляды на этику и законы искусственного интеллекта»

  1. Этические вопросы при вынесении приговора судьей-роботом? Серьезно?!С каких пор у машины есть совесть и душа?Сочувствие и соучастие?Что же посмотрим, что смогут предложить разработчики!

  2. Отлично, очеловеченные роботы! А больше проблем для решения в мире нету?!

  3. Всем, кто интересуется вопросами взаимодействия и искусственного интеллекта: добро пожаловать!Спасибо за статью!

Добавить комментарий для Юлия Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *