четвер, 29 травня 2025 р.

Два шляхи розвитку штучного інтелекту

Минулої весни Деніел Кокотайло, дослідник безпеки ШІ з OpenAI, звільнився з компанії на знак протесту. Його тривога наростала: він вважав, що OpenAI не готова до майбутнього, яке сама створює. Під час розмови Кокотайло справив враження водночас приємної, обізнаної й дуже стурбованої людини. Він зазначив: розробка методів «узгодження» — механізмів, які мають гарантувати, що ШІ діє відповідно до людських цінностей, — відстає від темпів зростання інтелекту машин. Дослідники стрімко наближаються до створення потужних систем, які вже можуть вийти з-під контролю.

Кокотайло, який спершу вивчав філософію, самостійно опанував технічну базу. В OpenAI він займався створенням хронологій — прогнозів щодо розвитку ШІ. Та коли технологія несподівано прискорилась, довелося переглядати дати на десятиліття вперед. У 2021 році він написав сценарій «Як виглядатиме 2026 рік» — і чимало з описаного стало реальністю раніше. Кокотайло дійшов висновку: точка неповернення, коли ШІ стане кращим за людей у більшості завдань, можлива вже у 2027 році. І це його відверто лякало.

У той час, коли Кокотайло йшов з OpenAI, двоє науковців з Прінстона — Саяш Капур і Арвінд Нараянан — працювали над книжкою «AI Snake Oil: Що може штучний інтелект, що не може, і як розрізнити правду». Їхні погляди діаметрально протилежні. Вони стверджують: прогнози про прорив у ШІ надто оптимістичні, користь часто перебільшена, а реальність — складна. Навіть найновіші моделі ШІ повторюють помилки: неправильно діагностують хвороби, неефективно добирають персонал. Між алгоритмами та дійсністю — глибокий розрив.

Нещодавно всі троє опублікували нові звіти, лише загостривши свої позиції. Кокотайло — як директор проєкту AI Futures Project — представив звіт «AI 2027», де змальовано сценарій, у якому суперінтелект або поневолює людство, або знищує його до 2030 року. Це не фантастика, а попередження. У відповідь Капур і Нараянан оприлюднили «AI як звичайна технологія», де доводять: регуляції, технічні обмеження й людський нагляд суттєво уповільнять розвиток ШІ. Він залишатиметься під контролем, як ядерна енергетика, а не як зброя. «Можливо, ми навіть недовикористовуємо його потенціал через обережність», — пишуть вони.

Звичайна технологія чи початок кінця людства? Френсіс Скотт Фіцджеральд казав: «Ознака високого інтелекту — тримати в голові дві протилежні ідеї й не втрачати здатність діяти». Обидва документи описують одну реальність, створені професіоналами — але ведуть до протилежних висновків. Це як розмова з Річардом Докінзом і Папою Римським одночасно.

Про штучний інтелект зараз говорять дуже багато, але часто — надто складно й заплутано. Як пояснюють дослідники Капур і Нараянан, справа не тільки в самій технології. Проблема глибша: люди по-різному уявляють, що таке ШІ і як він має розвиватися. У Кремнієвій долині його вважають інструментом великих змін, а в академічному світі ставляться обережніше. Технічні компанії роблять ставку на експерименти, а науковці — на повільні висновки. А ще є політичні розбіжності: як ми мислимо, як влаштоване суспільство і чого прагнемо як люди.

Ще одна проблема — надмірна зосередженість на самій темі. Коли вийшов сценарій «AI 2027», багато фахівців погодилися з його головними ідеями, але одразу почали сперечатися про деталі: чому не 2045? Це як у ситуації, коли NASA обговорює, коли саме впаде астероїд — замість того щоб подумати, як його відвернути. Водночас прості речі — наприклад, залишити людину в ролі наглядача — звучать нудно, але можуть врятувати ситуацію.

Коли технологія починає змінювати світ, дискусія має ставати доступнішою. Наукові суперечки важливі, але потрібно й спільне розуміння, на основі якого можна створювати закони. Наразі такого розуміння немає — і ми вже відчуваємо наслідки. Через розбіжності між експертами політики часто просто нічого не роблять. У США навіть пропонують заборонити штатам регулювати ШІ протягом десяти років. Якщо Кокотайло має рацію, до того моменту технологія вже може вийти з-під контролю.

ШІ — це техніка, але розмови про нього дуже впливають на те, як усе розвиватиметься. Іноді зосередженість на безпеці заспокоює нас — і ми перестаємо реагувати. А уява, навпаки, змушує нас турбуватися. Прогнози створюють ілюзію, ніби ми знаємо, що буде. Але це не завжди так. Наприклад, у 2019 році письменник Вільям Ґібсон казав, що думав, ніби розуміє майбутнє — аж поки не побачив, як Дональд Трамп оголошує про балотування. Світ знову пішов іншим шляхом.

«AI 2027» — це не сухий аналіз, а художній сценарій. Кокотайло каже, що це «передбачення, подане як історія». Там є і дані, і елементи фантастики: інженери, які бачать раптовий стрибок інтелекту, і Китай, який терміново будує дата-центр на Тайвані. Усе це може й не справдитись, але головне — інше: якщо ШІ справді стане надто розумним, це спровокує політичну та міжнародну кризу.

Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.