OpenAI

от автора

в

Сэм Альтман, лидер OpenAI, сегодня предложил создать организацию для регулирования ИИ. Почему это критически важно как будущего медицины, так и нашей жизни в целом?

Альтман заявил на Всемирном правительственном саммите в Дубае, что миру надо создать организацию (типа МАГАТЭ), которая будет контролировать и регулировать искусственный интеллект.

Альтман давно во всех своих выступлениях говорит, что ИИ (он говорит, в первую очередь, про ChatGPT, конечно) обладает таким объемом знаний, таким количеством контекстных связей, что может быть насколько полезным, настолько и вредным обществу. Как любой инструмент в руках человека, все зависит только от намерений и мастерства этого человека.

Поговаривают, что само увольнение Альтмана было связано с разногласиями между ним и советом директоров OpenAI относительно безопасности технологии и факта, что она сосредоточена в руках небольшой группы людей, а также опасности, что она отнимет массу рабочих мест.

В случае с медициной нас подстерегает сразу несколько опасностей:

самолечение. С появлением возможности задать ИИ вопрос о своем здоровье, многие пациенты не только перепроверяют выводы и назначения врачей, но и в целом обращаются к ИИ вместо врача. Но, во-первых (и в главных), ИИ может врать (и делает это регулярно), а во-вторых, тут самое главное — правильно интерпретировать полученный ответ;

конфиденциальность данных! Важно! если вы что-то отправляете в открытую (публичную) модель — эти данные могут быть использованы против вас. Это важно как для пациентов, так и для врачей, использующих ChatGPT в работе. Как обезопасить себя и убрать персональную и чувствительную информацию, я расскажу в отдельной публикации;

использование неполных данных. Существующий сегодня ИИ — это модель с ограниченной памятью. Она обучена на большом количестве данных, но никакой гарантии, что этих данных достаточно, чтобы ответить на ваш конкретный вопрос, нет. Ухудшает ситуация и неумение пользователей правильно составлять промты (запросы). В итоге часто вы получаете ответ НЕ на тот вопрос, который хотели задать, а ИИ делает выводы, основываясь на неполных данных;

зависимость от технологии (как и в любой другой сфере). Огромная опасность кроется в том, что врач будет слепо доверять системе, что неизменно ухудшит навык клинического мышления (его же как мышцу, постоянно надо тренировать), и в какой-то момент это ухудшение может стать критическим;

этический вопрос — помните, что ИИ — ничего не чувствует и не думает. Его ответы — это языковая имитация поведения человека, основанная буквально на выборе вероятно правильного ответа. Поэтому ответы, которые могут напрямую повредить человеку, вполне вероятны (хотя большие модели уже вовсю порезали такую возможность);

ответственность за ошибки. Человека можно наказать за ошибку, ИИ нет. А ситуация, когда никто не несет ответственности — чревата со всех сторон.

Поэтому разработчики сейчас ломают голову, как минимизировать риски (а это неизбежно «отупит» модель) и более того — привить модели базовые общечеловеческие ценности.

Как вы считаете, что поможет минимизировать риски использования ИИ в медицине?

Пока модели не приглушили, мы готовим для вас практическое руководство — как сделать из ChatGPT персонального менеджера здоровья.


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *