25.09.2020

Во всем виноваты машины: социально-правовой анализ ответственности в мире ИИ

Оригинал здесь.
Авторы: Michael Callier, Harly Callier

В этой статье используется социально-правовой, междисциплинарный подход для изучения социально-этических проблем и теорий ответственности, связанных с ИИ, и применяется социологический подход для оценки существующих правовых норм, которые в настоящее время регулируют отношения человека с ИИ.
Также выдвигаются рамочные предложения по регулированию развития ИИ в США.
Определение ИИ находится в стадии разработки, так как не существует общепринятого определения. Например, профессор Массачусетского технологического института Патрик Уинстон определил ИИ как «исследование вычислений, позволяющих воспринимать, рассуждать и действовать». В одной из последующих лекций Уинстон далее описал ИИ как «алгоритмы или процедуры, допускаемые ограничениями, представленными представлениями, смоделированными и нацеленными на мышление, восприятие и действие». Технологические аналитики Deloitte Consulting определяют ИИ как «теорию и разработку компьютерных систем, способных выполнять задачи, для которых обычно требуется человеческий интеллект». Во всех трех определениях делается акцент на то, что машины должны мыслить и вести себя как люди.
«Машинное обучение», связанное с ИИ, было придумано Артуром Самуэлем в 1959 году и обозначено как «область обучения, которая дает компьютерам возможность учиться без явного программирования».
Машины зависят от анализа данных, при помощи которых они определеяют, как «думать» и какие соответствующие действия предпринять. Благодаря социальным сетям, интернету и смартфонам объем данных, доступных для анализа, продолжает расти в геометрической прогрессии. Например, девяносто процентов данных в современном мире было создано за последние два года, и текущее глобальное производство данных составляет примерно 2,5 квинтиллиона байтов в день. Поскольку мир неуклонно становится все более связанным с постоянно растущим числом электронных устройства, объем генерируемых данных будет продолжать расти. В дополнение к данным, по состоянию на 2013 г. уровень человеческих знаний удваивался каждые 13 месяцев и будет удваиваться каждые 12 часов.
Современные технологии позволяют людям сотрудничать и развивать ИИ способами, ранее недоступными. Пример это проект OpenAI Hindsight Experience Replay, который позволил машинам имитировать способ, которым люди учатся, когда пытаются освоить новый навык.
Как показал Farhad Manjoo, “большая пятерка” технологических гигантов (Амазон, Эпл, Фейсбук, Гугл и Майкрософт) являются наиболее влиятельными лидерами в развитии ИИ. Из-за своей огромной капитализации их влияние настолько велико, что угрожает демократии. И эти компании объединяют усилия для ускорения развития ИИ.
Правительство Китая заявило о намерении стать лидером ИИ инноваций к 2030 году, но у них есть конкуренты. Несмотря на то, что в США ИИ развивают в основном частные компании, Министерство Обороны США запустило программу Исследований Искусственного Интеллекта с целью удержания лидерства в развитии ИИ. Правительство Японии выпустило Стратегию Технологий Искусственного Интеллекта в 2017 году, фокусируясь на прикладных приложениях ИИ. В развитие ИИ инвестируют Южная Корея, Соединенное Королевство, Франция, Германия, Россия, Дания, Швеция, Эстония, Финляндия, Польша, Сингапур, Малайзия, Австралия, Индия, Италия, Канада, Тайвань, Объдиненные Арабские Эмираты.
С развитием технологий машины смогут вести себя как люди и лучше поддерживать взаимодействие с людьми. Улучшение взаимодействия ИИ с людьми приведет к положительным социальным последствиям и к возникновению ряда потенциальных угроз. Например, мы сможем оценить преимущества и угрозы Роботов – Социальных Помощников (Socially Assistive Robots, SAR).
Такие роботы обеспечивают техническую, эмоциональную и общественную поддержку людям через социальное взаимодействие. Их цель – обеспечить поддержку в домах, школах, больницах. SAR-роботы смогут учить, распознавать и реагировать на социальные подсказки людей. Они смогут ускорить социальное, эмоциональное и когнитивное развитие людей, особенно детей с социальными и когнитивными проблемами. Применение SAR-роботов можно понять при помощи двух социологических подходов: функционализма и теории конфликтов. Теория функционализма определяет общество как систему из взаимосвязанных и независимых частей, которые работают для поддержания порядка и стабильности. Теория конфликтов исходит из того, что в обществе царит неравенство, которое порождает конфликты и социальные перемены.
С точки зрения функционализма, SAR-роботы имеют как минимум три полезные функции. Во-первых, SAR устанавливает эффективное взаимодействие с человеком, чтобы помочь ему в терапии, реабилитации и образовании. Во-вторых, робот помогает тем, кто заботится об инвалидах, выздоравливающих и пожилых людях, избежать переутомления. В-третьих, военные роботы применяются в бою для уменьшения людских потерь и человеческих ошибок.
Теория конфликтов предсказывает новый цифровой разрыв человека с машиной, отделяющий бедных от богатых. Вырастет пропасть между теми, кто может себе позволить SAR и теми, кто не может. Также теория конфликтов указывает на то, что за альтруистическими мотивами развития роботов может скрываться стремление к прибыли. В погоне за прибылью компании станут заменять людей роботами и это приведет к безработице.
У взаимодействия людей и роботов появилась уже и интимная сторона, которая может привести к социальной изоляции. Такие компании как Realbotix уже производят роботов-партнеров по вкусам клиентов. Сторонники этого тренда говорят, что такие роботы снизят преступность и грубость между людьми, но критики указывают на то, что это может привести к настоящей одержимости и чрезмерной зависимости.
Еще одним риском развития ИИ исследователи называют распространение гендерных стереотипов. Имеются примеры того, как машины полагала что слово “программист” более “мужское”, а слово “домработник” – “женское”. Есть и другие побочные эффекты.
Теории ответственности за вред, нанесенный с участием ИИ.
Поскольку теории юридической ответственности отражают социальные цели цивилизации, в этой статье далее рассматриваются теории ответственности, доступные для устранения риска и вреда, возникающих в результате взаимодействия человека и ИИ. Далее рассматриваются законодательные и общеправовые теории ответственности за вред, причиненный в результате взаимодействия человека с машиной.
На момент написания этой статьи в США не существовало всеобъемлющей законодательной схемы, регулирующей риск и ответственность человека и машины. Тем не менее, Конгресс представил несколько связанных законопроектов, которые, кажется, движутся в этом направлении.
Рассматриваются такие проблемы, как: 1) ответственность и правовые вопросы, связанные с ИИ; 2) влияние ИИ на рынок труда; 3) внедрение этических стандартов в разработку ИИ; 4) предвзятость ИИ, внесенная через культурные и социальные нормы; 5) конкурентоспособность США на глобальных рынках.
Некоторые штаты США делают шаги в сторону самостоятельной легализации автономных транспортных средств, несмотря на предостережения, что штатам следует избегать разнобоя в правилах.
В целом, регулирование автономных транспортных средств представляется самой развитой отраслью регулирования ИИ в США.
Физический вред, причиненный машинами, не является новой проблемой для судов. Случай Therac-25 включал как минимум шесть несчастных случаев в период с 1985 по 1987 год, когда пациенты подверглись передозировке радиации, что привело к двум смертельным случаям и четырем серьезным травмам. Проблемы возникли из-за масштабирования контроля, отсутствия надлежащего исправления ошибок и замены людей машинами для обеспечения безопасности критически важных систем.
Однако суды также освободили компании от ответственности за вред, причиненный их технологией. Например, в 1986 году федеральный суд постановил, что Apple не может быть привлечена к ответственности за ошибки в ее программном обеспечении, когда компания предупредила об отказе от ответственности и не стала утверждать, что в ее коде нет ошибок. С тех пор многие суды рассматривали подобные дела аналогичным образом.
Соответственно, в нынешней правовой среде США стороны, требующие возмещения вреда, причиненного машинами, сталкиваются с рядом ограничений в теориях контракта и деликтной ответственности.
Единый коммерческий кодекс («UCC») обеспечивает прекрасную защиту лицам, которые понесли ущерб от приобретенного продукта. Продавцы дают явные гарантии или обещания, когда они сообщают факты или дают обещания о продукте, предоставляют описание того, что продукт может или может сделать, или предоставляют образец или модель, которая относится к продукту, который становится частью основы для сделки. В дополнение к выраженным гарантиям продавцы могут давать и быть связанными подразумеваемыми гарантиями, такими как гарантия того, что продукты соответствуют ожиданиям обычного покупателя на продукты такого рода (т. е. подразумеваемая гарантия товарной пригодности), и гарантия того, что продукты соответствуют конкретной цели, для которой они были проданы (т. е. подразумеваемая гарантия пригодности для определенной цели) ».
К сожалению, вероятность того, что потерпевшая сторона возместит значительные убытки за нарушение гарантии, довольно низка, поскольку высокотехнологические компании обычно ограничивают риск, используя отказ от гарантийных обязательств и ограничения ответственности. Отказ от гарантийных обязательств и положения об ограниченной ответственности действительны при соблюдении определенных условий. Таким образом, несмотря на защитный потенциал UCC, разработчики ИИ сделают его практически бессмысленным из-за отказа от ответственности и ограничений ответственности.
В той мере, в которой это не запрещено правилом об экономических потерях, потерпевшая сторона может подать иск по гражданскому правонарушению, а не по договору. Государственная политика, лежащая в основе деликтного права, возлагает ответственность на причинившее вред лицо с идеей, что «лицо, причинившее вред, рационально мотивируется сократить потенциально вредную деятельность до такой степени, чтобы потери от несчастных случаев не превышала выгоды от этой деятельности». Два деликтных иска, имеющих отношение к миру ИИ, – небрежный дизайн (халатность при проектировании) и строгая ответственность. Небрежный дизайн фокусируется на том, был ли проектировщик достаточно предусмотрителен. Применяется разумный анализ, чтобы определить, действовал ли дизайнер обоснованно при разработке продукта. Если дизайнер поступает неразумно, суд сочтет его небрежным. И наоборот, строгая ответственность за продукцию не принимает во внимание, действовал ли дизайнер разумно, и вместо этого сосредотачивается на том, был ли продукт, когда он достиг потребителей, неоправданно опасным. Чтобы предъявлять претензию в соответствии с этой теорией, потребители несут бремя доказательства, что: 1) продукт не претерпел существенных изменений от его производства до момента получения травмы; 2) потребитель использовал продукт разумным образом; 3) продукт вызвал травму потребителя; и 4) продукт был продан в неисправном или необоснованно опасном состоянии. Строгая ответственность вынуждает производителей обеспечивать безопасность продуктов перед тем, как сделать их доступными для широкой публики.
Следование обычаям отрасли при проектировании и выпуске продукции дает сильную защиту от обвинений в небрежном дизайне и строгой ответственности. Таким образом, обычай в технологической отрасли, скорее всего, защитит разработчиков и дизайнеров ИИ от рисков, связанных с небрежным дизайном, поскольку в настоящее время в отрасли принято «отправлять сейчас и исправлять (или ремонтировать) позже», чтобы получить обратную связь с пользователем и ускорить выход на рынок. Такая практика увеличит риск взаимодействия человека и ИИ.
Всестороннее регулирование ИИ потребует баланса между коммерческими, юридическими и общественными проблемами. Как показано выше, общее право США может неадекватно смягчать риски, связанные с развитием ИИ. С другой стороны, чрезмерное регулирование будет препятствовать инновациям ИИ. Например, У. Кип Вискузи обнаружил, что, когда ожидаемые выплаты по ответственности за качество продукции высоки, фирмы отступают от коммерциализации инноваций, но не нашел отрицательной корреляции между выплатами с низкой и средней степенью ответственности и инновациями.Тем не менее, некоторые компании вообще отказываются от инноваций чтобы избежать чрезмерной ответственности.
Сторонники более строгой ответственности утверждают, что технологические компании должны придерживаться более высоких стандартов ответственности, потому что они в лучшем положении для предотвращения дефектов с помощью протоколов обеспечения качества и безопасности. Холдинговые компании также несут ответственность за распространение риска посредством страхования или увеличения затрат на потребителя. Они также утверждают, что строгая ответственность не позволяет компаниям производить бракованную продукцию и гарантирует компенсацию пострадавшим сторонам, поскольку небрежность слишком трудно доказать. Принимая во внимание уровень экономической мощи и коммерческой сложности самых передовых технологических компаний, эти аргументы имеют свои достоинства.

С юридической точки зрения централизованное управление представляется наиболее эффективным подходом. Попытка государственного регулирования процесса разработки машин, скорее всего, приведет к тому же уровню административного бремени и несоответствия, что и нормативы кибербезопасности, разработанные в США.
Кроме того, такие риски, как цифровой разрыв, социальная изоляция и социальная предвзятость, упомянутые выше, представляют реальную опасность социального неравенства и вреда, возникающего в результате взаимодействия человека с машиной.
Дальнейшее развитие законодательства США остается неясным, но подход Германии к регулированию развития машин является предписательным. Когда в 2017 году Германия стала первой страной, которая приняла всеобъемлющее законодательство в области автономных транспортных средств, она также кодифицировала этические императивы, которые должны быть включены в их дизайн. Эти императивы включали требования, чтобы такие машины вызывали меньше несчастных случаев, чем люди-водители, они должны быть спроектированы таким образом, чтобы делать выбор, наносящий наименьший вред человеку, и запрещать решения, которые заставляют машины учитывать возраст, пол и физическую конституцию людей.
Подход Европейского парламента также предписателен. Европарламент обнародовал рекомендации по регулированию ИИ, требующие, чтобы машины не причиняли вреда людям, и подчинялся приказам, данным людьми, и предложил «четыре этических принципа в робототехнике: 1) благо (ИИ должен действовать в интересах людей); 2) предотвращение вреда (ИИ не должен вредить людям); 3) автономия (взаимодействие человека с ИИ должно быть добровольным); и 4) справедливость (польза от ИИ должна распределяться справедливо) ».
Учитывая все вышеизложенное, законодатели США должны рассмотреть всеобъемлющую централизованную структуру, способствующую эффективному и безопасному взаимодействию передовых ИИ и людей. Чтобы сбалансировать потребность в адекватном регулировании без удушения инноваций, законодатели должны систематизировать всеобъемлющие принципы, которыми разработчики будут руководствоваться при проектировании машин и в производственных процессах. Поскольку эти действия приводят к новым разработкам, законодатели могут принять отраслевое законодательство, когда определенные машины на конкретных рынках достигают пороговых уровней зрелости и всепроникаемости рынка, подобно введению законов об автономных транспортных средствах. Мы также предлагаем использовать централизованный подход, чтобы избежать административного бремени и сложности соблюдения многочисленных и различающихся законов штатов.
Для сохранения гуманности и равенства, должны быть кодифицированы как всеобъемлющее руководство для проектирования ИИ принципы Asilomar(«Принципы»)
В 2017 году Институт Будущего Жизни разработал Принципы в рамках конференции по ИИ. Институт предложил Руководящие принципы для разработки машин таким образом, чтобы гарантировать широкие социальные преимущества, безопасность и решение этических проблем. Принципы представляют собой наиболее полный набор стандартов ИИ, установленных на сегодняшний день, и каждый из них представляет собой стандарт, принятый девяносто или более участниками Бенефициарной конференции ИИ, включая высокопоставленных и ведущих мыслителей ИИ, исследователей, ученых, предпринимателей, экономистов. и представители правительства. Принципы делятся на три части: 1) вопросы исследований; 2) этика и ценности; и 3) долгосрочные проблемы.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *