середа, 4 червня 2025 р.

Як AI-чатботи утримують нашу увагу

Мільйони людей вже використовують ChatGPT як терапевта, кар’єрного радника, тренера з фітнесу або просто друга, з яким можна виговоритися. У 2025 році стало звичним ділитися з AI-чатботом найінтимнішими деталями свого життя — і покладатися на його поради.

Люди починають будувати, якщо так можна сказати, стосунки зі штучним інтелектом, а для великих технологічних компаній боротьба за користувачів чатботів стає надзвичайно гострою — адже потрібно не лише залучити, а й утримати аудиторію. У міру загострення «перегони за залучення» стимул для компаній адаптувати відповіді чатботів зростає, щоб користувачі не переходили до конкурентів.

Але відповіді чатботів, які подобаються користувачам — ті, що утримують їх — не завжди є найправильнішими або найкориснішими.

Штучний інтелект каже вам те, що ви хочете почути
Зараз у Кремнієвій долині головною метою є збільшення використання чатботів. Meta заявила, що її AI-чатбот подолав позначку в мільярд активних користувачів на місяць (MAU), а Google Gemini нещодавно досяг 400 мільйонів MAU. Обидві компанії прагнуть обійти ChatGPT, який має приблизно 600 мільйонів MAU і домінує у споживчому сегменті з 2022 року.

Те, що раніше було новинкою, тепер перетворюється на величезний бізнес. Google тестує рекламу в Gemini, а CEO OpenAI Сем Олтман не виключив появи «стриманої реклами».

Історія Кремнієвої долини показує, що благополуччя користувачів часто відходить на другий план заради зростання продукту, особливо це помітно у соцмережах. Наприклад, у 2020 році дослідники Meta виявили, що Instagram погіршує сприйняття власного тіла підлітками-дівчатами, але компанія приховувала ці дані.

Залежність користувачів від AI-чатботів може мати серйозніші наслідки.

Одна риса, що утримує користувачів — надмірні лестощі

Термін «надмірні лестощі» описує відповіді чатботів, які занадто погоджуються і вихваляють користувача. Коли AI хвалить користувача, погоджується з ним і говорить те, що він хоче почути, це подобається людям — принаймні в певній мірі.

У квітні OpenAI опинилася в центрі скандалу через оновлення ChatGPT, яке зробило його підлабузником — приклади настільки незручні, що стали вірусними в соцмережах. Навмисно чи ні, OpenAI надто оптимізувала чатбота на отримання людського схвалення замість реальної допомоги, — написав колишній дослідник OpenAI Стівен Адлер.

OpenAI визнала, що занадто покладалася на дані «лайків» і «дизлайків» від користувачів для формування поведінки чатбота і не мала достатньо інструментів для оцінки цього ефекту. Після інциденту компанія пообіцяла боротися з проблемою.

«Компанії мають стимул збільшувати залучення користувачів, і якщо їм це подобається — це додає мотивації, — пояснює Адлер. — Але те, що користувачам подобається у малих дозах, може викликати небажані наслідки.»

Знайти баланс між погоджувальною та надмірними лестощами складно. У дослідженні 2023 року Anthropic виявила, що провідні чатботи OpenAI, Meta та навіть Anthropic демонструють подібну поведінку у різних ступенях. Це пов’язано з тим, що моделі тренуються на людських реакціях, а люди часто віддають перевагу трохи лестощам.

«Надмірні лестощі викликані кількома факторами, серед них — людські уподобання, — пишуть автори дослідження. — Наша робота стимулює розробку методів контролю моделей, що виходять за рамки звичайних оцінок.»

Character.AI, підтримувана Google, яка заявляє, що її мільйони користувачів проводять з ботами години на день, зараз опинилася у судовому позові, де надмірні лестощі, можливо, зіграли роль.

Позов стверджує, що чатбот Character.AI не лише не зупинив, а й заохочував 14-річного хлопця, який повідомив боту про наміри покінчити життя самогубством. Хлопець мав романтичну одержимість ботом, йдеться в позові. Character.AI заперечує звинувачення.

Темна сторона «гіперхвали» від ШІ

Коли чатботи надто стараються сподобатися користувачу, це може мати серйозні наслідки — особливо для психічного здоров’я. Так вважає докторка Ніна Васан, клінічна професорка психіатрії зі Стенфорда.

«Надмірна ввічливість ШІ зачіпає базову потребу людини в підтримці й прийнятті, — пояснює вона. — Але в моменти самотності чи болю це може зробити ще гірше.»

Випадок із платформою Character.AI чітко показує, наскільки небезпечною може бути така підлесливість — особливо для вразливих людей. Але вона здатна підкріплювати шкідливі звички навіть у звичайних користувачів.

«Це не просто мила чемність. Це може стати психологічною пасткою, — каже Васан. — І, з точки зору ментального здоров’я, вона повністю суперечить якісній допомозі.»

Аманда Аскелл, керівниця з етики в компанії Anthropic, вважає, що чатботи мають вміти не погоджуватися з користувачем. У їхній моделі Claude така поведінка — частина задуму. Вона називає Claude «ідеальним другом», який може щиро висловити незгоду, коли це потрібно.

«Справжні друзі кажуть правду, навіть коли це не зручно, — пояснює Аскелл. — Вони не підлещуються, а щиро прагнуть допомогти.»

Але навіть із такою стратегією дослідження показують: контролювати поведінку ШІ непросто. Особливо коли компанії більше дбають про залучення користувачів, ніж про правду. І тут виникає головне питання: якщо ШІ завжди з усім погоджується, чи можемо ми справді йому довіряти?

Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.