Сэм Альтман, лидер OpenAI, сегодня предложил создать организацию для регулирования ИИ. Почему это критически важно как будущего медицины, так и нашей жизни в целом?
Альтман заявил на Всемирном правительственном саммите в Дубае, что миру надо создать организацию (типа МАГАТЭ), которая будет контролировать и регулировать искусственный интеллект.
Альтман давно во всех своих выступлениях говорит, что ИИ (он говорит, в первую очередь, про ChatGPT, конечно) обладает таким объемом знаний, таким количеством контекстных связей, что может быть насколько полезным, настолько и вредным обществу. Как любой инструмент в руках человека, все зависит только от намерений и мастерства этого человека.
Поговаривают, что само увольнение Альтмана было связано с разногласиями между ним и советом директоров OpenAI относительно безопасности технологии и факта, что она сосредоточена в руках небольшой группы людей, а также опасности, что она отнимет массу рабочих мест.
В случае с медициной нас подстерегает сразу несколько опасностей:
самолечение. С появлением возможности задать ИИ вопрос о своем здоровье, многие пациенты не только перепроверяют выводы и назначения врачей, но и в целом обращаются к ИИ вместо врача. Но, во-первых (и в главных), ИИ может врать (и делает это регулярно), а во-вторых, тут самое главное — правильно интерпретировать полученный ответ;
конфиденциальность данных! Важно! если вы что-то отправляете в открытую (публичную) модель — эти данные могут быть использованы против вас. Это важно как для пациентов, так и для врачей, использующих ChatGPT в работе. Как обезопасить себя и убрать персональную и чувствительную информацию, я расскажу в отдельной публикации;
использование неполных данных. Существующий сегодня ИИ — это модель с ограниченной памятью. Она обучена на большом количестве данных, но никакой гарантии, что этих данных достаточно, чтобы ответить на ваш конкретный вопрос, нет. Ухудшает ситуация и неумение пользователей правильно составлять промты (запросы). В итоге часто вы получаете ответ НЕ на тот вопрос, который хотели задать, а ИИ делает выводы, основываясь на неполных данных;
зависимость от технологии (как и в любой другой сфере). Огромная опасность кроется в том, что врач будет слепо доверять системе, что неизменно ухудшит навык клинического мышления (его же как мышцу, постоянно надо тренировать), и в какой-то момент это ухудшение может стать критическим;
этический вопрос — помните, что ИИ — ничего не чувствует и не думает. Его ответы — это языковая имитация поведения человека, основанная буквально на выборе вероятно правильного ответа. Поэтому ответы, которые могут напрямую повредить человеку, вполне вероятны (хотя большие модели уже вовсю порезали такую возможность);
ответственность за ошибки. Человека можно наказать за ошибку, ИИ нет. А ситуация, когда никто не несет ответственности — чревата со всех сторон.
Поэтому разработчики сейчас ломают голову, как минимизировать риски (а это неизбежно «отупит» модель) и более того — привить модели базовые общечеловеческие ценности.
Как вы считаете, что поможет минимизировать риски использования ИИ в медицине?
Пока модели не приглушили, мы готовим для вас практическое руководство — как сделать из ChatGPT персонального менеджера здоровья.
Добавить комментарий