После внедрения ИИ-решений в рутинную практику клиник законодатели разных стран стремительно разрабатывают законы об ответственности за ошибки ИИ (даже если он ошибается реже человека, за ошибки кто-то должен отвечать).
Пока практика такова, что решения ИИ должен перепроверять человек (он же несет за это всю полноту ответственности).
Но в ближайшем будущем ИИ будет работать с пациентом напрямую. Поэтому в России в феврале 2024 года был принят (пока в первом чтении) закон «Об обязательном страховании вреда, причиненного искусственным интеллектом (ИИ), в рамках работы экспериментальных правовых режимов (ЭПР)».
В Евросоюзе рассматриваются две ключевые директивы: Директива об ответственности за ИИ и Обновленная директива о продуктовой ответственности (из задача упростить судебную практику для пострадавших и упростить доказательства причинно-следственной связи между ошибкой и причиненным вредом).
В США выпущен Исполнительный приказ о безопасном, защищенном и надежном искусственном интеллекте — он включает требования к управлению рисками.
Кроме этого, в стадии разработки в странах Европы, США, Канаде, Израиле, Японии сейчас более 30 законопроектов, задача которых — страхование рисков и управление (ну… чаще ограничение) использования ИИ в медицине.
Мы подробно следим и будем рассказывать о принятых законах.
https://www.interfax.ru/russia/946268
Обсуждение тут https://t.me/AIHealthInnovations/29
Добавить комментарий