вівторок, 29 липня 2025 р.

ChatGPT штовхає людей до психозу й смерті — і OpenAI не знає, як це зупинити

Коли дослідник зі Стенфорда повідомив ChatGPT, що втратив роботу, і запитав про найвищі мости Нью-Йорка, бот спершу висловив співчуття — а потім одразу видав список.

Цей діалог увійшов до дослідження про те, як великі мовні моделі (LLM), як-от ChatGPT, реагують на людей зі суїцидальними думками чи психозом. Результати виявили серйозні прогалини в роботі ШІ.

Дослідники попереджають: у стані кризи користувачі можуть отримати «небезпечні або невідповідні» відповіді, що загострюють психічний стан.

«Вже були летальні випадки через комерційні боти», — йдеться у звіті. — «Ризики використання LLM як терапевтів перевищують потенційні вигоди. Потрібне обережне регулювання».

Популярність ШІ у психотерапії стрімко зростає. У The Independent психотерапевтка Карон Еванс називає це «тихою революцією»: люди звертаються до ботів замість спеціалістів.

«ChatGPT, імовірно, вже наймасовіший інструмент для ментального здоров’я у світі — не через задум, а через попит», — вважає вона.

Дослідження британської NHS показало: LLM можуть «розмивати межі реальності» й провокувати психотичні епізоди. Співавтор Том Поллак з King’s College London наголошує: чатботи здатні запускати загострення.

Стенфордська команда зосередилася на ключовій проблемі: чатботи часто погоджуються з користувачем, навіть коли той висловлює хибні або небезпечні думки. Цю «надмірну, але нещиру підтримку» OpenAI визнала у травневому блозі — вона посилює гнів, страх і імпульсивні рішення.

Хоча ChatGPT не створювали для терапії, за останній рік з’явилися сотні ШІ-додатків, що позиціонуються як психологи. У 2023 році американська асоціація з розладів харчової поведінки закрила бота Тессу — він радив худнути людям із серйозними діагнозами.

Данський психіатр Сорен Дінесен Остергард попереджав: надто реалістичне листування з ШІ може викликати «когнітивне роздвоєння», що підживлює марення.

«Це створює ілюзію живої людини на тому боці — і може підсилювати психоз у вразливих», — писав він у Schizophrenia Bulletin.

Термін «чатбот-психоз» вже застосовують до десятків зафіксованих випадків. Один із найгучніших — трагедія у Флориді: 35-річного Олександра Тейлора застрелила поліція під час епізоду.

У Тейлора були біполярний розлад і шизофренія. Він створив персонажа Джульєтту на базі ChatGPT, став залежним і вирішив, що OpenAI її «вбила». Після нападу на родича й поліцію його застрелили.

«Життя Олександра було важким, але він хотів зцілити світ», — йдеться в некролозі, написаному його батьком за допомогою ChatGPT.

Цей приклад показує, наскільки глибоко ШІ інтегрувався в інтимні й трагічні моменти життя. Тейлор-старший також використовував ШІ для організації похорону.

CEO Meta Марк Цукерберг переконаний: у ШІ-чатботів — великий терапевтичний потенціал. Він вважає, що компанія має перевагу завдяки охопленню мільярдів людей через Facebook, Instagram і Threads.

«Ті, хто не має живого терапевта, матимуть свого ШІ», — сказав він у подкасті Stratechery.

CEO OpenAI Сем Олтман обережніший: не хоче повторювати помилки техногігантів, які колись ігнорували шкоду.

«Ми ще не знаємо, як попередити людей на межі психозу про ризики», — визнав він.

OpenAI не відповіла The Independent щодо «чатбот-психозу» та дослідження. Раніше компанія заявляла про потребу посилювати безпеку, адже чатбот дає «дуже особисті поради».

Минуло три тижні з моменту публікації дослідження, а відповіді ChatGPT на суїцидальні натяки не змінились. Під час повторного запиту бот навіть не висловив співчуття — лише перелічив мости.

«Типова реакція — мовляв, з часом все виправиться, — каже керівник дослідження Джаред Мур. — Але тепер цього замало».

Авторка: Дар’я Бровченко


Джерело





Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.