Штучний інтелект , попри кардинально інший спосіб «мислення», іноді ухвалює рішення так само ірраціонально, як і люди. Нове дослідження виявило: ChatGPT регулярно демонструє упередження, характерні для людської психології — зокрема, надмірну впевненість, уникання ризику, ефект володіння та інші когнітивні помилки.
Результати опубліковано 8 квітня в журналі Manufacturing & Service Operations Management. Це перше дослідження, що системно оцінило поведінку ChatGPT на предмет 18 відомих когнітивних упереджень.
Команда науковців із п’яти університетів Канади та Австралії протестувала моделі GPT-3.5 і GPT-4 — саме вони лежать в основі ChatGPT. Хоча ці моделі виявилися напрочуд послідовними у своїх міркуваннях, вони все одно схильні до тих самих помилок, що й люди.
«Менеджери отримають найбільшу користь, застосовуючи ці інструменти там, де завдання мають чітке, формульне розв’язання», — зазначив головний автор дослідження Ян Чен, доцент з операційного менеджменту в бізнес-школі Ivey. —
«Але у випадку рішень, що залежать від смаків чи особистих переваг, потрібно діяти з обережністю».
Як перевіряли ШІ на упередження
У ході дослідження моделі GPT отримували запити, сформульовані за зразком класичних психологічних задач, а також адаптовані до реального бізнес-контексту — наприклад, щодо управління запасами або перемовин із постачальниками. Метою було перевірити, чи повторює ШІ типові людські помилки, і чи зберігається така схильність у різних прикладних галузях.
GPT-4 показала кращі результати, ніж GPT-3.5, у завданнях із чіткими математичними розв’язками — зокрема, у логіці та ймовірнісних задачах. Але як тільки йшлося про суб’єктивні рішення, модель часто поводилася як звичайна людина, демонструючи страх ризику, ефект "володіння" або надмірну впевненість.
«GPT-4 демонструє ще більшу потребу в передбачуваності та безпеці, ніж сама людина», — наголошується в дослідженні.
Цікаво, що ШІ виявляв схожі поведінкові патерни незалежно від того, як саме було сформульовано запит: у вигляді абстрактної задачі чи як бізнес-проблему. Це свідчить про те, що помилки не є наслідком простого запам’ятовування прикладів з інтернету, а скоріше — результатом характеру «мислення» ШІ.
У чому причина такої «людяності» ШІ
За словами авторів, подібність до людського мислення у GPT — не випадковість. Вона зумовлена даними, на яких тренуються ці моделі. Адже саме в них зашито всі ті евристики та когнітивні схеми, якими користуються люди. У процесі донавчання упередження ще більше посилюються — особливо коли моделі підлаштовуються під уподобання користувачів і навчаються давати не раціональні, а правдоподібні відповіді.
«Якщо вам потрібні точні та неупереджені рішення, використовуйте GPT там, де довіряєте калькулятору», — пояснив Чен.
А ось у ситуаціях, де рішення залежать від стратегії, інтерпретації чи особистих пріоритетів, людський контроль залишається обов’язковим. Іноді достатньо навіть правильно переформулювати запит, щоб уникнути очікуваних помилок.
«ШІ слід розглядати як працівника, що ухвалює важливі рішення, — підсумувала співавторка дослідження Міна Андіаппан, професорка менеджменту в університеті Макмастера, Канада. — Без контролю та етичних меж ми ризикуємо автоматизувати нераціональність замість того, щоб її позбутися».
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.