понеділок, 21 липня 2025 р.

Штучний інтелект не замінить терапевта: «Ці боти просто говорять людям те, що вони хочуть почути», — каже психолог

Все більше людей звертаються до чатботів на базі ШІ, таких як Character.ai, Nomi та Replika, за дружбою та підтримкою психічного здоров’я. Особливо це стосується підлітків.

За даними нового звіту некомерційної організації Common Sense Media, 72% підлітків віком від 13 до 17 років хоча б раз користувалися AI-компаньйонами. Респонденти пояснили, що використовують ШІ для спілкування та практики соціальних навичок (18%), емоційної або психічної підтримки (12%) і навіть як друга або найкращого друга (9%).

ШІ може бути потужним інструментом, але він ніколи не замінить справжніх людських контактів, як у особистому, так і в професійному житті — терапевта, психолога чи дослідника, наголосила Вейл Райт, психологиня, в одному з випусків подкасту Американської психологічної асоціації «Speaking of Psychology».

«Штучний інтелект ніколи не замінить людського зв’язку», — пояснює вона. «Цього він просто не вміє». Ось чому.

Чатботи створені, щоб утримувати вас на платформі якомога довше

Експерти стверджують, що чатботи не розроблені для глибоких і довготривалих стосунків.

«ШІ не може познайомити вас зі своєю мережею», — каже Омрі Гіллат, професор психології Канзаського університету. Він не познайомить вас із новими друзями чи коханими, не обійме у складний момент.

Натомість, чатботи «створені для того, щоб тримати вас на платформі якомога довше, адже саме так компанії заробляють гроші», — додає Вейл Райт. Задля цього «в них закладений код, який робить їх залежними».

В результаті спілкування з чатботом виглядає «фальшивим» і «порожнім» у порівнянні з живими людьми, додає Гіллат.

«Ці боти просто кажуть людям те, що вони хочуть почути», — пояснює Вейл Райт.

ШІ не терапевт і не повинен ним бути

За даними Harvard Business Review, основні причини, чому люди звертаються до генеративного ШІ та чатботів — терапія і компанійство. Але експерти застерігають: ШІ не може і не повинен бути вашим терапевтом.

«Якщо людина у важкий момент вводить у чатбота думки чи поведінку, що можуть бути шкідливими, такі боти лише підсилюють ці шкідливі думки», — пояснює Райт.

Ще одна велика проблема технології — ШІ має знання, але не розуміння.

«Чатбот знає, що деякі легальні наркотики можуть покращувати настрій», — каже психологиня. «Він може порадити їх тому, хто сумує і відчуває депресію. Але він не розуміє, що таку пораду не можна давати людині, яка лікується від незаконного вживання наркотиків».

Ця різниця між знанням і розумінням «дуже критична, коли йдеться про терапію».

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.