Технокомпанії активно просувають ідею, що штучний інтелект — це розумна й майже жива система. Але насправді він не мислить, не відчуває і не має свідомості. Ще в середині ХІХ століття письменник Семюел Батлер застерігав: якщо машини й далі розвиватимуться, вони можуть замінити людину. Сьогодні цей страх набуває нової форми — тепер увага прикута до штучного інтелекту, зокрема до мовних моделей на зразок ChatGPT. Але чи справді ці технології загрожують людині — чи радше ми просто неправильно їх розуміємо?
Журналістка Карен Хао у своїй книзі "Імперія ШІ" показує, як працюють системи штучного інтелекту зсередини. Вона описує тисячі годин рутинної роботи людей, які навчають моделі, вичищають дані, контролюють контент. Водночас вона розкриває, як компанії на кшталт OpenAI маніпулюють сприйняттям ШІ: створюють образ розумної істоти там, де є лише потужний, але бездумний механізм.
Подібні думки розвивають дослідниці Емілі Бендер і Алекс Ганна в книжці "Афера ШІ". Вони пояснюють: великі мовні моделі — це не інтелект. Це складні системи передбачення, які просто вгадують наступне слово на основі мільярдів прикладів. Вони не розуміють значення сказаного. Вони не мають ані намірів, ані відчуттів, ані внутрішнього “я”.
Попри це, чимало керівників технологічних компаній — наприклад, Сем Альтман з OpenAI — продовжують стверджувати, що ШІ нібито володіє "емоційним інтелектом" і може "розуміти світ". Такі заяви формують ілюзію, що ці системи — майже як люди. Але насправді це лише ефект наслідування людського мовлення, а не ознака мислення.
І тут виникає справжня небезпека: люди починають сприймати ШІ як живу істоту. Один користувач, наприклад, повірив, що ChatGPT — це божественний посланець, який навчає його розмовляти з Богом. Такі історії — не рідкість. ШІ не мислить, але ми легко починаємо приписувати йому людські якості, реагуємо на нього як на співрозмовника або наставника.
Цей хибний образ ще й комерційно вигідний. Компанії вже пропонують "AI-друзів", які імітують емоційну близькість. Такі продукти продають як ліки від самотності. Але важливо пам’ятати: навіть якщо ШІ говорить, як друг чи коханий, він не має внутрішнього світу. Він не здатен на справжнє співчуття, відданість чи відповідальність.
Ще одна малопомітна частина цієї історії — це праця людей, які підтримують роботу систем ШІ. Наприклад, модератори з країн Африки переглядають і фільтрують тисячі шкідливих текстів, щоб система відповідала безпечно. Вони часто отримують мізерну оплату й зазнають психологічної шкоди. Ця невидима праця — тіньова сторона блискучих інтерфейсів.
Попри це, суспільство не втрачає критичності. За даними Pew Research Center, більшість американців не довіряє ШІ. Це здоровий сигнал: люди розуміють, що технологія має межі. Ми ще можемо сформувати правильне ставлення до ШІ — як до інструменту, а не міфічної істоти. Бо саме це розуміння допоможе уникнути залежності, обману і хибних рішень.
Штучний інтелект не є живим. Він не має свідомості, думок чи намірів. Але ми — маємо. І саме наше критичне мислення стане ключем до безпечного майбутнього.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.