понеділок, 16 червня 2025 р.

Чому суперінтелектуальний ШІ не захопить світ найближчим часом


Сьогодні бути лідером у сфері ШІ — це не лише технологічне досягнення, а й пророкування приходу «цифрового месії». Даріо Амодеї з Anthropic, Деміс Хассабіс із Google і Сем Олтман з OpenAI заявляють, що їхні моделі не просто найкращі — вони здатні змінити саме суспільство. Навіть Meta, чий головний науковець зі штучного інтелекту раніше скептично ставився до таких заяв, витрачає $14 млрд на пошук лідера, здатного реалізувати бачення AI-суперінтелекту, що буде розумнішим за людину. «Людство близьке до створення цифрового суперінтелекту», — заявив Олтман у нещодавньому есе. Це призведе до зникнення багатьох професій і появи «нового суспільного договору», де боти виконуватимуть як офісну, так і фізичну роботу. Та попри гучні заяви, все більше дослідників, які працюють із сучасним ШІ, вважають ці прогнози перебільшенням.

Дослідження Apple із промовистою назвою «Ілюзія мислення» аналізує мовні моделі, що мають "міркувати" крок за кроком. У ньому вказано, що такі моделі — від OpenAI, DeepSeek і Anthropic — не демонструють обіцяного рівня логічного мислення. Без сумніву, генеративний ШІ корисний у деяких сферах і може підвищити продуктивність. OpenAI нараховує 500 млн щомісячних користувачів ChatGPT — рекордне зростання. Але критики застерігають: надмірна віра в ШІ може призвести до хибних бізнес-рішень і державної політики. Apple продовжила попередні дослідження, а також спиралась на дані Salesforce та університетських лабораторій. Їхні висновки: моделі мислення, що позиціонуються як майбутнє автономного ШІ, часто поступаються попереднім версіям у вирішенні завдань. Apple виявила «фундаментальні обмеження»: при зростанні складності точність моделей різко знижується. Salesforce зробила подібний висновок — нинішні мовні моделі не відповідають потребам реального бізнесу.

Цікаво, що задачі, з якими моделі не справляються, — логічні головоломки, які може розв’язати навіть дитина. А моделі — навіть із підказками — не можуть. Публікація Apple викликала жваву дискусію в технокругах і медіа, поділивши експертів на прихильників та скептиків. «Можна сказати, що Apple просто скаржиться через відсутність власної передової моделі», — каже Джош Вольф із Lux Capital. — «Але це радше об’єктивне спостереження». В OpenAI відповіли, що їхні моделі вже формують базу для агентів, здатних користуватись інструментами та ухвалювати складні рішення.

Суть суперечки — в ідеї, що ШІ нібито "мислить", тоді як насправді діє за спрощеним набором правил, сформованих під час навчання. Гарі Маркус, когнітивний вчений і засновник AI-стартапу, каже, що робота Apple показує: поточні моделі мислення — не прорив, а глухий кут. «Це спрацювало тому, що дослідження зробила саме Apple — і вчасно». Також видно, що прогрес ШІ в сферах поза кодуванням і математикою сповільнився. Нові моделі мислення, на додачу, частіше генерують вигадані дані. «Ідея, що масштаб моделей автоматично дає глибше мислення, скоріше за все — хибна», — каже професор Хорхе Ортіс з Rutgers. Моделі не здатні точно виконувати чіткі інструкції — а це те, чого очікуєш від комп’ютера. Інакше кажучи, ми створюємо системи вільної асоціації, але хочемо, щоб вони поводилися як педантичні інженери чи бухгалтери.

Навіть критики визнають: рух до більш розумного ШІ триває. За словами Ортіса, виявлені недоліки можуть стати ключем до поліпшення. Нові методи навчання — покроковий зворотний зв’язок і додаткові ресурси для складних задач — можуть дозволити ШІ справлятися краще, зокрема в поєднанні з класичним софтом. З погляду бізнесу, ШІ вже створює користь, незалежно від рівня "мислення", додає Вольф. «Моделі стають кращими, і нові підходи з’являються постійно. Цілком можливо, що нинішні обмеження скоро подолають», — вважає Ітан Моллік із Wharton School.

Втім, віра в технологію тільки зростає. Олтман, наприклад, прогнозує, що через 10 років людство вирішуватиме задачі фізики, а вже наступного року — колонізуватиме космос. Ті, хто під’єднає ШІ безпосередньо до мозку, відчують кардинальні зміни в житті. Ця риторика пришвидшує інтеграцію ШІ всюди — в уряди, армії, школи. Часто без повного розуміння наслідків. Одне з головних ризиків — ми переоцінюємо ШІ, довіряємо йому надмірно, навіть коли він демонструє асоціальну поведінку. «Хоч ШІ генерує багато ідей, їх треба ретельно перевіряти, — каже Ортіс. — Наприклад, для податків краще TurboTax, ніж ChatGPT».

Авторка: Дар’я Бровченко


Джерело



Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.