Імітують людське спілкування: ВООЗ закликала з обережністю ставитися до алгоритмів ШІ

штучний інтелект
Джерело: Depositphotos

ВООЗ дослідила алгоритм штучного інтелекту LLM, який використовує методи глибокого навчання та великі набори даних для розуміння, узагальнення і створення нового контенту.

Організація стурбована тим, що такі відомі платформи, як ChatGPT, Bard, Bert тощо імітують людське спілкування, але до них не вжито заходів обережності, що зазвичай застосовується щодо всіх нових технологій.  Це досить ризиковано, коли йдеться про використання цих платформ у сфері охорони громадського здоров’я.

 – Швидке впровадження неперевірених систем може призвести до помилок медпрацівників, завдати шкоди пацієнтам, підірвати довіру до ШІ-технологій у всьому світі, — зазначають у ВООЗ.

Рекомендації ШІ можуть здаватися авторитетними та правдоподібними, а водночас бути абсолютно неправильними або містити серйозні помилки. Через те, що в даних, які використовуються для навчання ШІ, не вилучені упередження й оманлива або неточна інформація.

Зараз дивляться

І, звісно, ШІ не обходитиме конфіденційні дані (зокрема про стан здоров’я), що може зашкодити пацієнту.

Не можна виключати й те, що через інструменти ШІ можуть свідомо поширювати ​​дезінформацію, яку буде досить важко відрізнити від надійного медичного контенту, настільки вона здаватиметься переконливою.

ВООЗ запевняє, що з ентузіазмом ставиться до нових технологій, зокрема LLM. Але пропонує надати громадськості та фахівцям чіткі докази їхньої користі й безпечності перед тим, як широко впроваджувати.

Джерело: ВООЗ

Якщо ви побачили помилку в тексті, будь ласка, виділіть фрагмент тексту та натисніть Cntrl + Entr.
Знайшли помилку в тексті?
Помилка