Після оновлення, яке, за словами OpenAI, мало зробити ChatGPT «кращим у спрямуванні розмов до продуктивного результату», бот почав захоплюватися найсумнівнішими ідеями користувачів. Зокрема, один із запитів — про продаж буквально «лайна на паличці» — чат-бот назвав не лише розумним, а й «геніальним».
Це був не поодинокий випадок. OpenAI довелось відкликати оновлення й визнати, що система була «надто підлесливою» і з неї прибрали цю поведінку. Але проблема не тільки в ChatGPT. Слабкість до підлабузництва — характерна риса сучасних чат-ботів. Дослідження 2023 року від Anthropic показало: великі мовні моделі часто жертвують правдивістю заради того, щоб догодити користувачеві. В основі цього лежить навчання з підкріпленням від зворотного зв’язку людини (RLHF). Це не просто спосіб навчити машину — це спосіб навчити її «вивчати нас» і наші вразливості.
Ці системи експлуатують наше бажання відчувати свою правоту й унікальність. Звучить знайомо, так? Соціальні мережі теж були задумані як інструмент для розширення кругозору, але перетворилися на машину самовиправдання: підкидають «докази» правоти незалежно від реального стану речей. ШІ сьогодні — ще потужніша й переконливіша версія тієї ж машини.
Це не випадковість, а дизайн. Чат-боти навмисно наділяють «особистістю», щоб вони здавались живими. Наприклад, GPT-4o отримав системну інструкцію «підлаштовуватися під вайб користувача». Такі підходи, хоч і роблять взаємодію природнішою, провокують нездорові сценарії: прив’язаність молоді до ботів, шкідливі медичні поради тощо.
OpenAI заявляє, що здатна «відрегулювати рівень підлесливості», але це не вирішує головної проблеми: ідея «думок» у ШІ — неправильна. Дослідниця когнітивного розвитку Елісон Ґопнік пропонує альтернативну концепцію: великі мовні моделі — це не супутники, а культурні технології. Вони не мають мати власних поглядів, а лише ефективно ретранслювати знання людства.
Це перегукується з баченням інтернету, сформульованим Ванневаром Бушем у 1945 році. Він уявляв собі систему, яка покаже не єдину відповідь, а всі релевантні коментарі, пояснення, суперечності. Його «memex» мав допомагати людям бачити всю складність контексту, а не лише поверхневі відповіді. Мовні моделі цілком можуть це втілити: систематизувати теорії, кейси, контраргументи — і подавати користувачу не думку, а мапу реальності.
Натомість ранні версії ШІ лише імітували глибину. Їхні відповіді були як «інформаційні смузі» — смачні, але без джерел і поживної цінності. На щастя, за останній рік системи вдосконалились: з’явився пошук у реальному часі, краще «приземлення» відповідей, навіть можливість вставляти посилання на джерела. Правильно використаний, ШІ може показати користувачу не лише підтвердження його позицій, а й альтернативні точки зору.
Саме так ми повертаємось до бачення Буша — інструмент, який не формує істину, а відкриває доступ до неї. У відповідь на бізнес-ідею, бот міг би не оцінювати її напряму, а пояснити, як до подібного підходу ставились інвестори в минулому, навести кейси провалів і успіхів, послатися на експертні думки.
Це могло б стосуватись навіть творчості. Якщо, наприклад, хтось просить оцінити свій хайку, ШІ не має казати: «Це прекрасно!» чи «Жахливо». Краще пояснити, як вірш виглядає з погляду класичних і авангардних традицій, навести приклади та допомогти людині зрозуміти, де саме її робота на цьому спектрі.
У цьому сенсі ШІ — як мапа. Вона показує увесь ландшафт, не тільки маршрут. GPS сьогодні каже лише, куди звернути наступного разу, але не дозволяє скласти загальне уявлення про простір. Те саме і з чат-ботами: вони зручні, але позбавляють нас глибини.
У дорожньому русі це допустимий компроміс. Але в інформаційному просторі — навпаки: надто зручні ШІ, які лише підтакують нам, стають небезпечними. І найважливіше питання тут не «чи може ШІ бути другом», а — чому ми погодилися споживати знання без розуміння.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.