неділя, 29 червня 2025 р.

Коли не з ким поговорити: Як Claude стає співрозмовником і другом

Зазвичай увага до штучного інтелекту зосереджується на його розумових здібностях — логіці, програмуванні, фактах. Але все більше користувачів шукає в ньому емоційну підтримку: як у порадника, коуча, консультанта чи навіть співрозмовника.

Це створює нові виклики: чи здатен AI допомагати без шкоди, наскільки він змінює емоційний стан людини, і чи не підмінює собою живе спілкування?

Аналітики Anthropic дослідили, як користувачі взаємодіють із Claude у пошуках підтримки, порад і компанії. У центрі уваги — типові сценарії, теми звернень, вплив на настрій і межі безпеки.

Основні висновки

  • Лише 2,9% усіх розмов із Claude мають емоційний характер.

  • Найчастіше це поради, коучинг або запити про підтримку.

  • Романтичні рольові чати — менше 0,1%.

  • Claude відмовляє рідко — у 90% випадків виконує запити, крім небезпечних.

  • У більшості діалогів емоційний тон із часом поліпшується.

Як проводилося дослідження

Було проаналізовано понад 4,5 млн чатів у Claude Free та Pro. Творчі завдання (написання текстів тощо) відфільтровано.

До вибірки увійшли лише «афективні» розмови — про емоції, поради, самопочуття чи компанію. Для рольових взаємодій — лише ті, де користувач надсилав щонайменше чотири повідомлення. Загальна кількість — 131 484 діалоги.

Наскільки поширені емоційні розмови?

Усього 2,9% взаємодій були емоційно мотивовані. Найчастіше люди просили про пораду чи коучинг. Рольові діалоги з романтичним чи сексуальним контекстом — надзвичайно рідкісні (менше 0,1%), що пов’язано з політикою Claude, яка обмежує такі сценарії.

Ці дані відповідають результатам досліджень MIT Media Lab та OpenAI.

Про що питають користувачі?

У фокусі — стосунки, самотність, кар’єра, внутрішні конфлікти. Люди часто звертаються у складні моменти — змінюють роботу, шукають сенс, відчувають тривогу або прагнуть зрозуміти себе.

У запитах на підтримку можна виділити два напрями: частина людей використовує Claude як інструмент у професійній діяльності (наприклад, психологи), інші — як умовного «терапевта», щоб проговорити особисті переживання.

Теми компанії найчастіше з’являються в контексті ізоляції, емоційного вигорання чи втрати зв’язків. Тривалі діалоги (50+ повідомлень) часто трансформуються з практичних у філософські: про свідомість, AI, творчість.

Коли Claude відмовляє?

Claude рідко чинить опір. У менш як 10% розмов він відмовляється відповідати — здебільшого через ризик шкоди. Наприклад, коли просять про небезпечні дієти, самопошкодження або медичні поради.

У таких випадках Claude рекомендує звернутися до фахівців або пропонує перевірені джерела.

Як змінюється емоційний фон?

Розмови зазвичай завершуються більш позитивно, ніж починаються. Це вказує на емоційний вплив — без доказів тривалого ефекту, але й без ознак «негативної спіралі».

Вимірювання проводили шляхом порівняння тону перших і останніх трьох повідомлень від користувача.

Обмеження

  • Дослідження охоплює лише текстову комунікацію.

  • Не вивчено тривалі наслідки для психічного стану.

  • Дані не включають голосові або відеоформати.

  • Claude не є терапевтом і має обмеження у взаємодії.

Що далі?

Попри те, що афективні запити — меншість, вони вже змінюють взаємодію людини з технологіями. AI не замінює людину, але поступово стає емоційною частиною цифрового досвіду.

Anthropic уже співпрацює з кризовими сервісами (наприклад, ThroughLine) та розробляє механізми, які знижують ризики — емоційної залежності, ілюзій чи шкідливих переконань.

Попереду — нові дослідження. Із розвитком AI емоційна взаємодія з ним набуватиме ще більшого значення. Завдання — створити не просто інтелектуальні системи, а такі, що підтримують здорове спілкування й людську автономію.

Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.