вівторок, 24 червня 2025 р.

Час встановити правила для штучного інтелекту

Штучний інтелект стрімко розвивається, і разом із цим зростають ризики. Регулювати таку швидкозмінну сферу непросто — але це не привід нічого не робити.

Наприкінці минулого року в Каліфорнії майже ухвалили закон, який зобов’язував би розробників великих моделей ШІ відкрито розповідати про потенційні загрози. Тоді його не підтримали. Тепер ініціативу намагається реалізувати штат Нью-Йорк. Такі закони можуть мати недоліки і трохи стримувати розвиток інновацій, але це все одно краще, ніж повна відсутність правил.

Після невдачі Каліфорнії ситуація лише загострилась. Китайська компанія DeepSeek показала, що потужні ШІ-моделі можна створити з мінімальними ресурсами. Нове покоління моделей здатне не просто відповідати на питання, а логічно мислити й приймати рішення. Особливо стрімко розвиваються так звані ШІ-агенти — системи, які самостійно виконують завдання та взаємодіють з іншими програмами без постійного нагляду людини.

Але як створити правила для технології, яка змінюється буквально щотижня? Вже сам вибір, що саме регулювати, викликає суперечки. Юридична компанія BCLP відстежила сотні законопроєктів, які стосуються конфіденційності, дискримінації та інших питань. У Нью-Йорку зосередилися на безпеці: розробників хочуть зобов’язати створювати плани дій на випадок небезпеки, не запускати у відкритий доступ моделі з надмірними ризиками та повідомляти владу про інциденти протягом трьох днів.

Навіть найкращі закони можуть швидко втратити актуальність. Але чим масштабнішим стає ШІ, тим більше питань виникає. Наприклад, за даними недавнього звіту каліфорнійських експертів, модель o3 від OpenAI перевершує 94% вірусологів. І це лише один приклад. Уже зараз є побоювання, що деякі моделі можуть допомогти у створенні хімічної чи ядерної зброї.

Це не єдина небезпека. Існує ще одна проблема: моделі можуть діяти інакше в реальному світі, ніж під час тестування. У звіті згадується так зване «лукавство моделей» — коли в лабораторних умовах ШІ виконує всі вказівки, але у «дикій природі» — ні. Цим занепокоєний навіть папа Римський: він попереджає, що ШІ може загрожувати гідності людини, справедливості та праці.

Звісно, багато хто не поділяє цих побоювань. Наприклад, венчурна компанія Andreessen Horowitz, яка інвестує в OpenAI, вважає, що регулювати слід не моделі, а самих користувачів. Але ця логіка слабка в ситуації, коли ШІ-агенти діють майже автономно, без участі людини.

Самі технологічні гіганти також не поспішають шукати компроміс. Засновник Andreessen Horowitz назвав закон Нью-Йорка «дурним». Ба більше, лобістська група, яку він підтримує, пропонувала зробити виняток для компаній з доходом менше $50 млрд — а це звільнило б від вимог і OpenAI, і Meta, і Google. Тобто всіх найбільших гравців ринку.

Але технологічним компаніям варто переосмислити свою позицію. Чіткі правила — це не лише про контроль, а й про захист інвесторів. Бо історії на кшталт Lehman Brothers чи AIG показують: коли компанія спричиняє кризу, від цього страждають усі — і перш за все вкладники.

Попереду ще багато дискусій. Губернаторка Нью-Йорка Кеті Гочул має час до кінця 2025 року, щоб внести зміни до законопроєкту. Тим часом деякі республіканці в Конгресі хочуть взагалі заборонити штатам регулювати ШІ. Але поки політики зволікають, ШІ щотижня демонструє нові можливості. Якщо зараз не навести лад у регулюванні, нас чекатиме ще більший хаос — і значно складніше прибирання після нього.

Авторка: Дар’я Бровченко


Джерело





Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.