Лише 11 років тому професор Стівен Гокінг застерігав, що стрімкий і неконтрольований розвиток штучного інтелекту може поставити під загрозу майбутнє людства.
Два роки тому понад тисячі лідерів у сфері ШІ, побоюючись «втрати контролю» через його експоненційне зростання та непередбачувані наслідки, закликали до негайної шестимісячної паузи в дослідженнях, аби розробити спільні стандарти безпеки. За два тижні Франція та Індія проведуть у Парижі міжнародний саміт, на якому намагатимуться досягти глобальних угод щодо регулювання ШІ. Це продовження ініціативи, започаткованої під час саміту у Блетчлі-Парку у 2023 році, організованого Великою Британією.
Усе це – важливі кроки. Але історія показує, що подібні ініціативи часто відходять у тінь, коли справа доходить до реальної політики. Серед багатьох побоювань, пов’язаних із поверненням Дональда Трампа – від загрози для американської системи охорони здоров’я та Конституції США до його абсурдної ідеї «викупити» Гренландію – одним із найсерйозніших є скасування підписаного Джо Байденом указу щодо безпеки ШІ.
Цей документ зобов’язував компанії, що працюють з ШІ, ділитися результатами тестувань своїх нових моделей з урядом США перед їхнім виходом на ринок, щоб запобігти загрозам для економіки, суспільства та національної безпеки. Зокрема, документ передбачав єдині стандарти оцінки ризиків у сферах хімічної, біологічної, радіологічної, ядерної безпеки та кіберзахисту. Тепер ці заходи скасовано.
Трамп назвав цей указ «антидемократичним» та «антиінноваційним». Однак найбільше занепокоєння викликає супутнє оголошення про запуск проєкту AI Stargate – інвестиційної програми вартістю $500 млрд на найближчі чотири роки, з яких $100 млрд виділено на будівництво нових дата-центрів та інфраструктури для масштабного впровадження ШІ.
Так, американські ШІ-компанії справді можуть стати домінуючими гравцями на глобальному ринку, однак за рахунок чого? За даними Goldman Sachs, 18% усіх робочих місць у світі може бути втрачено через автоматизацію найближчим часом – це приблизно 300 мільйонів робочих місць.
Дослідник ШІ, професор Ентоні Елліот, у своїй новій книзі «Алгоритми тривоги: страх у цифрову епоху» наголошує, що передача прийняття рішень машинам вже сьогодні спричиняє масову тривожність серед людей. Від того, як ми водимо авто, що дивимося чи як швидко працюємо, – усе дедалі частіше визначають алгоритми. А це ще до того, як «штучний інтелект Трампа» увірветься у наші життя.
Великій Британії варто діяти рішуче
На тлі цього хаосу Британія йде власним шляхом. Нещодавно опублікований План дій щодо можливостей ШІ підкреслює: ця технологія має величезний потенціал для розвитку. Наприклад, завдяки алгоритму AlphaFold від DeepMind науковці змогли заощадити 400 мільйонів років дослідницького часу на вивчення структури білків.
Документ визнає: ШІ несе значні ризики, і суспільство має бути від них захищене. Саме тому необхідне регулювання, яке не душитиме інновації, але водночас створюватиме довіру до нових технологій.
Однак, щоб залишатися конкурентоспроможною, Британія не може просто споживати американські ШІ-рішення. Уряд створює новий підрозділ UK Sovereign AI, який має забезпечити незалежний розвиток національної галузі штучного інтелекту у співпраці з приватним сектором.
Прем’єр-міністр Кір Стармер підтримує цей курс і заявляє, що уряд докладе всіх зусиль для реалізації 50 рекомендацій з розвитку ШІ, які стануть основою нової промислової стратегії країни.
Однак з Вашингтона така позиція виглядає як виклик. Втрата лідерських позицій у сфері ШІ – серйозна проблема для Британії, яка вже віддала США контроль над DeepMind та дозволила продаж компанії Arm Holdings японській SoftBank після Brexit.
Наразі Лондон має шанс змінити ситуацію. Він може розвивати стратегічне партнерство з ЄС та іншими країнами, створюючи альянси для спільного розвитку та регулювання ШІ.
Нам потрібен власний «Бостонське чайне повстання» у світі штучного інтелекту. Ми не можемо дозволити, щоб американські корпорації одноосібно диктували правила цієї гри.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.