Команда Массачусетского технологического института и Университета штата Аризона провела довольно любопытное исследование, чтобы выяснить, может ли общение с искусственным интеллектом иметь терапевтический эффект.
Для этого ученые попросили более 300 участников пообщаться с программами искусственного интеллекта в области психического здоровья.
При этом одним добровольцам сказали, что чат-бот проявляет сочувствие, другим — что он манипулирует, а третьим — что он нейтрален.

Выяснилось, что те, кому сказали, что они разговаривают с заботливым чат-ботом, гораздо чаще, чем другие группы, воспринимали программу ИИ как заслуживающего доверия терапевта.
Известно, что модные стартапы уже много лет продвигают приложения искусственного интеллекта, предлагающие терапию, общение и другую поддержку психического здоровья, и это большой бизнес.
Как и в любой другой отрасли, которую ИИ угрожает разрушить, критики обеспокоены тем, что боты в конечном итоге заменят людей, а не дополнят их.
Что касается психического здоровья, то, по мнению экспертов, боты вряд ли справятся с этой чрезвычайно сложной и трудной задачей.
Исследователи заявили, что обществу необходимо взять под контроль информацию об искусственном интеллекте.
— То, как ИИ представлен обществу, имеет значение, поскольку это меняет восприятие ИИ, — говорится в отчете ученых.
По словам исследователей, возможно, следует заставить пользователя иметь более низкие или более негативные ожидания от общения с ИИ.