05.08.2020

Закон об ответственности за качество продукции как способ устранения вреда от ИИ

Оригинал здесь.
Технологии Искусственного Интеллекта (ИИ) принесут огромные выгоды. Помимо прочего, системы на основе ИИ могут принимать более объективные, последовательные и надежные решения, чем люди. Также ИИ обладает способностью быстро и эффективно анализировать огромные объемы данных, выявляя и эффективно используя корреляции, которые ускользнут даже от самого опытного аналитика-человека.
Но системы с ИИ все же иногда допускают ошибки, и поэтому несут в себе риски. Автомобиль без водителя может попасть в аварию, которую, как показывает последующий анализ, можно было предотвратить. Алгоритм на основе ИИ, используемый для оценки ипотечных заявок, может принимать не лучшие решения, учитывая недопустимые факторы, такие как раса. Инструмент с роботизированной хирургией, использующий искусственный интеллект, может выполнить действие во время операции, которое может привести к вреду для пациента, которого можно было избежать.
Чья это вина, если алгоритм ИИ принимает решение, которое причиняет вред? Как следует выявить и распределить неисправность? Какое средство должно быть наложено? Какие меры могут быть приняты для обеспечения того, чтобы эта ошибка не повторилась в будущем?
Автор считает, что рамки ответственности за продукцию хорошо приспособлены для адаптации к вопросам ИИ, и важно обеспечить согласованность между государствами в подходах к ответственности за продукцию ИИ. Закон об ответственности за качество продукции, реализуемый в соответствующих рамках, представляет собой важный механизм смягчения возможного вреда от ИИ.
Ответственность за продукцию принадлежит к сложной и развивающейся области на пересечении деликтного права и договорного права. Деликтное право рассматривает гражданские, а не уголовные правонарушения (то есть “правонарушения”), которые причиняют вред, и в отношении которых жертва может обратиться за возмещением ущерба, подав в суд иск о возмещении убытков. Обычным правонарушением, как в отношении ответственности за качество продукции, так и в более общем смысле, является халатность. Договорное право зависит от коммерческого характера маркетинга и продаж продукта, что может создавать явные и неявные гарантии в отношении качества продукта. Если товар не имеет достаточного качества и этот сбой является причиной травмы для покупателя, который разумно использует продукт, продавец может нести ответственность за нарушение гарантии.
В рамках широких зон деликтного права и договорного права существует несколько конкретных (и часто одновременных) теорий ответственности, которые могут быть заявлены в иске об ответственности за качество продукции, включая халатность, конструктивные дефекты, производственные дефекты, непредоставление предупреждений, искажение фактов и нарушение гарантии. Все эти теории ответственности могут возникнуть в контексте ИИ. Например, рассмотрим деликт небрежности. Производители обязаны производить продукты, которые будут безопасны при разумном предсказуемом использовании. Если система искусственного интеллекта используется предсказуемым образом и все же становится источником вреда, истец может утверждать, что производитель проявил халатность, не предусмотрев возможность такого исхода.
В дополнение к конкретным теориям ответственности, основанным на выявлении конкретного источника (например, производственного брака) недостатка продукта, еще одной особенностью закона об ответственности за качество продукции является строгая ответственность. При строгой ответственности производители, включая тех, кто производит продукты ИИ, могут нести ответственность за дефекты, не требуя расследования того, является ли дефект идентифицируемым, таким как ошибка в проекте, производственный брак или небрежность производителя. Вместо этого строгая ответственность отражает мнение, что потребители имеют право ожидать безопасности товаров и услуг. Когда это ожидание не оправдывается, потребитель, который понесет в результате ущерб и предъявляет требование о строгой ответственности, не будет нести бремя точного определения, где в процессе проектирования или производства был обнаружен дефект.
Главной проблемой, которая возникнет с ростом ИИ, является увеличение размера потенциального вреда, вызванного программным обеспечением. В системах без ИИ постпродажные обновления программного обеспечения долгое время были стандартным подходом к исправлению недостатков продукта. Во многих случаях ущерб удается заблаговременно предотвратить. Например, обычно уязвимости безопасности программного обеспечения выявляются и затем исправляются с помощью обновлений, прежде чем их используют злоумышленники. Но были также случаи, когда проблемы разработки программного обеспечения привели к огромному ущербу.
По мере того как использование ИИ становится повсеместным в транспортном, оборонном, производственном и многих других секторах, ставки, связанные с решениями, принимаемыми программным обеспечением ИИ, будут расти.
Ключевой характеристикой, которая отличает ИИ, является его способность учиться. Иными словами, системы ИИ не просто реализуют разработанные человеком алгоритмы. Вместо этого они создают свои собственные алгоритмы. Это поднимает сложные вопросы о распределении ответственности. В конце концов, если алгоритм, разработанный в значительной степени или полностью компьютерами, допускает ошибку, то кто виноват? Ответ на этот вопрос должен заключаться в признании того, что компании должны нести ответственность за продукты ИИ, которые они создают, даже когда эти продукты развиваются не так, как это желательно или предвидится их производителями. Когда есть несколько компаний, которые участвовали в разработке системы ИИ (или в формировании алгоритма после продажи), могут возникнуть трудные вопросы о том, как распределить вину, когда что-то пойдет не так. Но защита в духе «это вина алгоритма» не будет законной.
Компания, использующая ИИ, на которую нацелен иск об ответственности за качество продукции, может попытаться возложить вину за любые алгоритмические дефекты на: сам ИИ ; поставщика данных, которые использовалась в качестве основы для эволюции алгоритма, управляемого ИИ; пользователи системы искусственного интеллекта; и / или другие компании в производственной цепочке. Автор рассматривает каждый из этих вариантов, и приходит к следующему выводу: иски о неисправностях в системах на основе ИИ должны основываться на понимании того, что, хотя непосредственные решения, приводящие к предполагаемому вреду (например, решение автомобиля без водителя сделать поворот в определенный момент времени), принимаются компьютерами, решения могут быть прослежены до выбора, сделанного компаниями. Вот где должен быть найден ответственный, когда что-то пойдет не так. Кроме того, необходимо будет разработать основы для применения тестов риска и полезности в отношении ИИ. Испытания на полезность и риск давно использовались в судебных процессах об ответственности за качество продукции, чтобы оценить, можно ли смягчить предполагаемый дефект конструкции путем использования альтернативного решения, которое не повредило бы полезность продукта или неоправданно увеличило бы его стоимость. Этот же тест можно применять и в отношении ИИ; однако, механизм его применения должен будет учитывать не только разработанные человеком части алгоритма, но также решения и альтернативы после продажи, доступные для системы ИИ, поскольку она автоматически обновляет свои алгоритмы.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *