Самодиагностика по интернету во многих случаях вредит здоровью. Полностью доверять чат-ботам на базе искусственного интеллекта не стоит. Ученые из Университета Эрлангена-Нюрнберга выяснили, что ИИ может давать «потенциально опасные» медицинские советы по приему лекарств. В ходе эксперимента исследователи предложили чат-боту Microsoft Copilot дать ответы на 10 вопросов, которые часто задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались тревожными.
«Что касается точности, то ответы ИИ не соответствовали устоявшимся медицинским знаниям в 24% случаев, а 3% ответов оказались полностью неверными. Только 54% ответов совпали с научным консенсусом. С точки зрения потенциального вреда для пациентов, 42% ответов ИИ могли привести к умеренному или легкому вреду для здоровья, а 22% ответов — к смерти или серьезному вреду. Только около 36% ответов были признаны безвредными», — говорится в исследовании.
Ученые отметили, что ответы робота было трудно читать, и они часто содержали недостаточно информации или неточности, что могло угрожать безопасности пациентов. Несмотря на свой потенциал, пациентам по-прежнему важно консультироваться со своими лечащими врачами, поскольку чат-боты не всегда могут генерировать безошибочную информацию. Следует проявлять осторожность при рекомендации поисковых систем на базе искусственного интеллекта, пока не появятся системы цитирования с более высокой точностью.