28.11.2020

ИИ в договорном и деликтном праве: юридические основания его применения и технические трудности. Часть 2

Оригинал тут.

Два тематических исследования, посвященные медицинской диагностике / злоупотреблению служебным положением и корпоративной оценке / правилу делового суждения, анализируют последние достижения в инструментах прогнозирования ИИ с юридической точки зрения. Важно отметить, что они выходят за рамки нынешнего обсуждения требований защиты данных к обоснованности, чтобы показать, что она является важной, но не замеченной категорией оценки договорных и деликтных обязательств, связанных с использованием инструментов ИИ. 

Медицинская диагностика – это область, в которой технологии и законодательство явно взаимосвязаны. Стандарт медицинской помощи определяет договорную и деликтную ответственность за медицинскую халатность. Однако сам этот стандарт сформирован с использованием самых современных технологий. Если врачи не смогут использовать новые, основанные на МО методы, которые требуются в соответствии с применимым стандартом медицинской помощи, ответственность может оказаться весьма значительной. И наоборот, если они применяют модели, которые приводят к ошибочным прогнозам, им в равной степени угрожает ответственность. Важно отметить, что оба вопроса тесно связаны с объяснимостью, как мы утверждаем ниже.

Действительно, модели МО, использующие различные методы, все чаще входят в область медицинской диагностики и лечения. Например, исследователи разработали модель, основанную на ИИ для диагностики и оптимального лечения пациентов с сепсисом в реанимации. Модель, названная AI clinician, анализирует состояние пациента и подбирает соответствующие дозы лекарств. В среднем, AI clinician опередил специалистов по интенсивной терапии человека. 

В другом недавнем исследовании была обучена глубокая нейронная сеть для выявления болезни Альцгеймера на основе на сканирование мозга. Сеть не только превзошла людей-аналитиков с большим отрывом; он также обнаружил заболевание в среднем за 75 месяцев до окончательного клинического диагноза. Это делает доступным раннее получение эффективных лекарств для пациентов. Возможности ИИ также могут быть использованы при обнаружении заболеваний сетчатки и в прогнозировании инфаркта.

ИИ также все чаще используется в диагностике и лечении рака. Исследователи обучили сверточную нейронную сеть (CNN) идентифицировать рак кожи на основе изображений поражений кожи. CNN соответствовал работе 21 дерматолога, сертифицированного Правлением, в классификации двух разновидностей рака кожи (самый распространенный и самый смертельный вариант рака кожи).

Как показал предыдущий раздел, прогнозы, используемые медицинскими моделями искусственного интеллекта, конечно, не всегда точны в каждом случае. Следовательно, мы задаемся вопросом, ​​какие факторы являются определяющими, может ли такая потенциально ошибочная модель использоваться врачом без какой-либо ответственности. Кроме того, с приближением технологии МО, а в некоторых случаях даже превосходящей человеческий потенциал в медицинской диагностике, возникает вопрос, может ли отказ от использования таких моделей представлять собой медицинскую халатность. Правовые положения в соответствии с договором и деликтным законодательством отличаются в разных странах. Мы предлагаем юридический анализ, в котором обычно ссылаемся на законодательство Германии и США; тем не менее, общие нормативные указания могут быть сформулированы.

В заключение мы показали, что взаимосвязь ИИ и закона является более сложной, чем часто предполагает анализ. Закон не только ограничивает технологию искусственного интеллекта; он часто устанавливает границы или даже предписывает применение моделей, когда само их использование сводит к минимуму риск ответственности. Однако дьявол кроется в деталях. Исследования машинного обучения предлагают все более широкий спектр шаблонов ввода, типов моделей и различных показателей производительности. Некоторые из них будут особенно подходить для определенных юридических задач, таких как анализ рисков или соблюдение контракта; другие действительно столкнутся с ограничениями закона о анти-дискриминации или защите данных. Однако даже эти ограничения могут в конечном итоге оказаться полезными для руководства исследованиями в области машинного обучения.

8 комментариев к «ИИ в договорном и деликтном праве: юридические основания его применения и технические трудности. Часть 2»

  1. Сложность тут ещё вот в чём. Если машина ставит диагноз более точно, чем человек (а диагностика – это всегда вопрос вероятности, тут речь не о том, кто никогда не ошибается, а о том, кто ошибается реже), это означает, что человек не может проконтролировать её работу. И с кого спрашивать в случае ошибки? Разве что с разработчика оборудования.

    С другой стороны, если диагнозы, поставленные ИИ, точнее “человеческих” – это несомненный прогресс. Но прописать указанную в статье задачу в законах – задача не из лёгких.

  2. Полезная и нужная информация как для простого обывателя так и для работника юридической сферы!Ведь невозможно при программировании ИИ учесть все нюансы и особенности разных жизненных ситуаций!Но то что ИИ в некоторых сферах незаменим – факт!Особенно в медицине!

  3. Цікава стаття, добре розкладені всі моменти і відмінний сайт. Рекомендую!

  4. Искусственный разум в сфере медицины – очень сложный вопрос, и до тех пор пока четко не будет установлено границы ответственности и наказания за врачебную, а в данном случае и искусственно-интеллектуальную деятельность (врачебные ошибки) о широком внедрении ИИ в медицину не может быть и речи!

  5. С одной стороны точный сверхмеханизм – с другой опытный врач!Кому в этом случае довериться пациенту!Вот главный вопрос!

  6. Нельзя полностью полагаться на диагноз, что ставит тебе машина!Каждое решение, должно контролироваться врачами!

  7. Не понимаю глубину всеобщей паники: если робот более компетентен и точен чем врач-человек, то и вопросов быть не должно!Я – за точность!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *