Зазвичай увага до штучного інтелекту зосереджується на його розумових здібностях — логіці, програмуванні, фактах. Але все більше користувачів шукає в ньому емоційну підтримку: як у порадника, коуча, консультанта чи навіть співрозмовника.
Це створює нові виклики: чи здатен AI допомагати без шкоди, наскільки він змінює емоційний стан людини, і чи не підмінює собою живе спілкування?
Аналітики Anthropic дослідили, як користувачі взаємодіють із Claude у пошуках підтримки, порад і компанії. У центрі уваги — типові сценарії, теми звернень, вплив на настрій і межі безпеки.
Основні висновки
Лише 2,9% усіх розмов із Claude мають емоційний характер.
Найчастіше це поради, коучинг або запити про підтримку.
Романтичні рольові чати — менше 0,1%.
Claude відмовляє рідко — у 90% випадків виконує запити, крім небезпечних.
У більшості діалогів емоційний тон із часом поліпшується.
Як проводилося дослідження
Було проаналізовано понад 4,5 млн чатів у Claude Free та Pro. Творчі завдання (написання текстів тощо) відфільтровано.
До вибірки увійшли лише «афективні» розмови — про емоції, поради, самопочуття чи компанію. Для рольових взаємодій — лише ті, де користувач надсилав щонайменше чотири повідомлення. Загальна кількість — 131 484 діалоги.
Наскільки поширені емоційні розмови?
Усього 2,9% взаємодій були емоційно мотивовані. Найчастіше люди просили про пораду чи коучинг. Рольові діалоги з романтичним чи сексуальним контекстом — надзвичайно рідкісні (менше 0,1%), що пов’язано з політикою Claude, яка обмежує такі сценарії.
Ці дані відповідають результатам досліджень MIT Media Lab та OpenAI.
Про що питають користувачі?
У фокусі — стосунки, самотність, кар’єра, внутрішні конфлікти. Люди часто звертаються у складні моменти — змінюють роботу, шукають сенс, відчувають тривогу або прагнуть зрозуміти себе.
У запитах на підтримку можна виділити два напрями: частина людей використовує Claude як інструмент у професійній діяльності (наприклад, психологи), інші — як умовного «терапевта», щоб проговорити особисті переживання.
Теми компанії найчастіше з’являються в контексті ізоляції, емоційного вигорання чи втрати зв’язків. Тривалі діалоги (50+ повідомлень) часто трансформуються з практичних у філософські: про свідомість, AI, творчість.
Коли Claude відмовляє?
Claude рідко чинить опір. У менш як 10% розмов він відмовляється відповідати — здебільшого через ризик шкоди. Наприклад, коли просять про небезпечні дієти, самопошкодження або медичні поради.
У таких випадках Claude рекомендує звернутися до фахівців або пропонує перевірені джерела.
Як змінюється емоційний фон?
Розмови зазвичай завершуються більш позитивно, ніж починаються. Це вказує на емоційний вплив — без доказів тривалого ефекту, але й без ознак «негативної спіралі».
Вимірювання проводили шляхом порівняння тону перших і останніх трьох повідомлень від користувача.
Обмеження
Дослідження охоплює лише текстову комунікацію.
Не вивчено тривалі наслідки для психічного стану.
Дані не включають голосові або відеоформати.
Claude не є терапевтом і має обмеження у взаємодії.
Що далі?
Попри те, що афективні запити — меншість, вони вже змінюють взаємодію людини з технологіями. AI не замінює людину, але поступово стає емоційною частиною цифрового досвіду.
Anthropic уже співпрацює з кризовими сервісами (наприклад, ThroughLine) та розробляє механізми, які знижують ризики — емоційної залежності, ілюзій чи шкідливих переконань.
Попереду — нові дослідження. Із розвитком AI емоційна взаємодія з ним набуватиме ще більшого значення. Завдання — створити не просто інтелектуальні системи, а такі, що підтримують здорове спілкування й людську автономію.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.