spot_img
18 октября, 2024
ДомойAI / MLМедицинские советы чат-бота Microsoft Copilot могут привести в 22% случаях к летальному...

Медицинские советы чат-бота Microsoft Copilot могут привести в 22% случаях к летальному исходу

Самодиагностика по интернету во многих случаях вредит здоровью. Полностью доверять чат-ботам на базе искусственного интеллекта не стоит. Ученые из Университета Эрлангена-Нюрнберга выяснили, что ИИ может давать «потенциально опасные» медицинские советы по приему лекарств. В ходе эксперимента исследователи предложили чат-боту Microsoft Copilot дать ответы на 10 вопросов, которые часто задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались тревожными.

«Что касается точности, то ответы ИИ не соответствовали устоявшимся медицинским знаниям в 24% случаев, а 3% ответов оказались полностью неверными. Только 54% ответов совпали с научным консенсусом. С точки зрения потенциального вреда для пациентов, 42% ответов ИИ могли привести к умеренному или легкому вреду для здоровья, а 22% ответов — к смерти или серьезному вреду. Только около 36% ответов были признаны безвредными», — говорится в исследовании.

Ученые отметили, что ответы робота было трудно читать, и они часто содержали недостаточно информации или неточности, что могло угрожать безопасности пациентов. Несмотря на свой потенциал, пациентам по-прежнему важно консультироваться со своими лечащими врачами, поскольку чат-боты не всегда могут генерировать безошибочную информацию. Следует проявлять осторожность при рекомендации поисковых систем на базе искусственного интеллекта, пока не появятся системы цитирования с более высокой точностью.

НОВОСТИ ПО ТЕМЕ

СОЦИАЛЬНЫЕ СЕТИ

12,002ФанатыМне нравится
1,012ЧитателиЧитать
3,086ЧитателиЧитать
714ПодписчикиПодписаться
- Реклама -
- Реклама -
- Реклама -
- Реклама -