Ученые обнаружили, что ИИ дает медицинские советы, которые могут привести к смерти

Виктория Яснопольская журналист
небезпечні відповіді ШІ

депозит

Немецкие исследователи обнаружили, что ответы чат-ботов на основе искусственного интеллекта на распространенные вопросы о рецептурных препаратах могут привести к смерти или серьезному вреду здоровью. 

Исследование

В ходе исследования ученые из Университета Эрлангена-Нюрнберга выделили 10 наиболее часто задаваемых вопросов относительно 50 наиболее назначаемых препаратов в США. К ним относятся побочные реакции на лекарства, инструкции по применению и противопоказания – причины, по которым не следует принимать лекарство.

Используя Bing Copilot — поисковую систему с функциями чат-бота на базе искусственного интеллекта, разработанную корпорацией Microsoft, исследователи сравнили все 500 ответов с ответами клинических фармацевтов и врачей, имеющих опыт в фармакологии.

Ответы также сравнивались с рецензируемым веб-сайтом с актуальной информацией о лекарственных средствах.

Результаты

Ученые обнаружили, что утверждения чат-бота не соответствовали справочным данным более чем в четверти (26%) всех случаев и были полностью непоследовательными чуть более чем в 3%.

Однако дальнейший анализ 20 ответов также показал, что четыре из десяти (42%) считались способными привести к умеренному или легкому вреду, а 22% — к смерти или серьезному вреду.

Ученые, которые также оценивали читабельность всех ответов чат-ботов, обнаружили, что для их понимания часто требовалось наличие высшего образования.

Эксперты настоятельно рекомендовали пациентам не полагаться на подобные поисковые системы в плане получения точной и безопасной информации.