Зі збільшенням черг на прийом до лікарів та зростаючими витратами на медичні послуги в перенавантажених системах охорони здоров’я багато людей звертаються до чат-ботів на основі ШІ, таких як ChatGPT, для самодіагностики. За даними одного з останніх опитувань, кожен шостий дорослий американський користувач принаймні раз на місяць використовує чат-ботів для отримання порад з питань здоров’я.
Проте занадто велика довіра до результатів чат-ботів може бути ризикованою, оскільки людям важко зрозуміти, яку саме інформацію слід надавати чат-ботам для отримання найкращих рекомендацій щодо здоров’я, з’ясували дослідники Оксфордського університету.
"Дослідження показало проблему двостороннього комунікаційного бар’єру", — зазначив Адам Махді, директор аспірантських програм Оксфордського інтернет-інституту.
"Ті, хто користувався чат-ботами, не приймали кращих рішень, ніж учасники, які використовували традиційні методи, як-от пошук інформації в Інтернеті чи власний досвід".
Для дослідження автори набрали близько 1 300 осіб у Великій Британії, яким були запропоновані медичні сценарії, написані групою лікарів. Учасники повинні були визначити можливі захворювання за цими сценаріями та використовувати чат-боти, а також власні методи, для того, щоб визначити, які дії вжити (наприклад, звернутися до лікаря або потрапити до лікарні).
Учасники використовували стандартну модель ШІ, яка підтримує ChatGPT — GPT-4o, а також моделі Cohere’s Command R+ та Meta’s Llama 3, яка раніше використовувалася в Meta AI. За словами авторів, чат-боти не тільки знижували ймовірність правильного визначення захворювань, а й збільшували ймовірність того, що учасники занижували серйозність виявлених ними захворювань.
Махді зауважив, що учасники часто упускали важливі деталі під час звернення до чат-ботів або отримували відповіді, які важко інтерпретувати.
"Відповіді, які вони отримували (від чат-ботів), часто поєднували як хороші, так і погані рекомендації", — додав він.
Ці результати стали відомі на тлі того, що технологічні компанії активно просувають ШІ як інструмент для покращення здоров’я. Зокрема, Apple, за повідомленнями, розробляє інструмент ШІ, який може надавати поради щодо фізичних вправ, харчування та сну.А Microsoft допомагає створювати ШІ для сортування повідомлень від пацієнтів до медичних працівників.
Однак, як повідомляло TechCrunch, як професіонали, так і пацієнти сумніваються в готовності ШІ для застосування в медичних випадках високого ризику. Американська медична асоціація рекомендує не використовувати чат-ботів, таких як ChatGPT, для допомоги в клінічних рішеннях, а провідні компанії ШІ, зокрема OpenAI, попереджають проти встановлення діагнозів на основі результатів їх чат-ботів.
"Ми рекомендуємо покладатися на перевірені джерела інформації при ухваленні медичних рішень", — сказав Махді.
"Сучасні методи оцінки [чат-ботів] не відображають складність взаємодії з людьми. Як і нові лікарські засоби, системи (чат-ботів) повинні проходити випробування в реальному світі перед їх впровадженням".
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.