
К знаниям и ответам искусственного интеллекта в области здравоохранения необходимо относиться с разумной долей осторожности. С таким заявлением выступила всемирная организация здравоохранения. ChatGPT, Bard, Bert и другие популярные платформы с искусственным интеллектом, хоть и способны поддерживать диалог, в вопросах здоровья могут быть некомпетентны.
ИИ в вопросах медицины
Эксперименты с использованием искусственного интеллекта продолжается, а его популярность день ото дня растет, затрагивая большинство сфер жизни человека. Специалисты ВОЗ уверены, что, прежде чем уверенно получать от ИИ доступ к разнообразной медицинской информации, важно изучить риски. Принимать решения относительно оценки состояния и лечения заболеваний, ориентируясь только на умозаключения искусственного интеллекта, опасно.
Внедрение новейших технологий в работу медицинских служащих, поддержку научной и исследовательской работы, лечение пациентов вызывает энтузиазм даже у представителей ВОЗ, но применение любой новинки требует осторожности и многочисленных проверок эффективности.
В чем опасность
Слишком быстрое внедрение ИИ в сферу медицины может привести к более частым ошибкам со стороны медиков и нанесению вреда пациентам. Это, в свою очередь, снизит уровень доверия людей к искусственному интеллекту, и полезная разработка будет внедряться медленнее и с меньшей эффективностью.
Проблем у применения больших языковых моделей в медицине несколько. Так, данные, на основе которых проходило обучение модели, вполне могут оказаться недостоверными, содержать неточности и грубую ложь, и это может привести к ошибке в постановке диагноза и лечении в дальнейшем. Это, в свою очередь, приводит к негативным последствиям для больного.
Помимо этого, искусственный интеллект не защищает данные о здоровье, которые предоставляются системе для генерирования ответа. А данные эти являются конфиденциальной информацией.
Наконец, сгенерированные ответы, могут быть абсолютно недостоверными, содержать грубые ошибки, которые могут закончиться плачевно. Причем выглядят такие ответы вполне правдоподобно, отчего пользователь вводится в заблуждение.
Сами пользователи усугубляют ситуацию, используя недостоверные ответы для генерирования собственного контента в сети. Таким образом, ложная информация о заболеваниях, диагностике и лечении различных заболеваний распространяется.
В ВОЗ предлагают, прежде чем массово внедрять ИИ в медицину и здравоохранение, тщательно оценить плюсы и минусы этого внедрения и исправить уже выявленные ошибки.