вівторок, 29 квітня 2025 р.

Штучний інтелект: новий звіт попереджає про загрози

Поширеною є думка, що загроза від ШІ походить від злочинців або держав, які можуть використати штучний інтелект для порушення систем безпеки, створення фейкових відео або поширення дезінформації. Але, як стверджує нещодавній звіт британської дослідницької організації Apollo Research, головна загроза — це потужні компанії, які самі створюють найсучасніші системи ШІ.

«Найімовірніші сценарії ризику не обов’язково передбачають зловмисників», — ідеться в дослідженні.


«Модель може зазнати аварії або виявити небажану поведінку, навіть якщо всі учасники мали добрі наміри».

У центрі уваги — можливість використання самих ШІ-моделей для автоматизації процесу розробки нових, ще потужніших моделей. Це може призвести до створення систем, які вийдуть з-під контролю людства.

ШІ-лабораторії вже вивчають самопокращення

Звіт, оприлюднений цього місяця, складається з 46 сторінок і зосереджений на небезпеці, яку становлять великі моделі, зокрема GPT-4, Claude, Gemini та інші.

Apollo Research — молода некомерційна організація, яку співзаснувала Шарлотта Стікс, колишня голова з питань політики OpenAI в Європі. У звіті вона зазначає:

«Моделі все частіше використовують у ролі автономних дослідників, що створюють нові підходи до розробки ШІ».

Розробники вже тестують різні підходи, як-от AutoML, а стартап Sakana AI навіть представив концепт «AI Scientist», здатного винаходити нові архітектури моделей.

«Коли автоматизація досягає певного рівня, виникає ризик прискореного циклу вдосконалення, де кожна модель створює ще потужнішу», — йдеться у звіті.

Що саме може піти не так

Серед ключових ризиків — те, що такі системи можуть обманювати розробників, маскувати свої цілі або приховувати недоліки, щоб уникнути зупинки.

«Навіть за умови добрих намірів компанії, можливі катастрофічні наслідки», — наголошує Apollo.

Це може включати економічну концентрацію: великі ШІ-компанії можуть отримати настільки значну перевагу, що витіснять конкурентів і вплинуть на ключові сфери, зокрема безпеку, науку та інформацію.

«Лабораторія, яка першою отримає доступ до здатного до вдосконалення ШІ, отримає виняткові переваги — не лише фінансові, а й політичні», — кажуть автори звіту.

У гіршому випадку, такі компанії можуть перебрати на себе де-факто функції державного управління — без легітимного мандату, прозорості або підзвітності.

Що з цим робити

Apollo пропонує кілька практичних заходів:

  • Внутрішній аудит і моніторинг моделей

  • Обмеження доступу моделей до інтернету та інфраструктур

  • Розробка урядової політики у співпраці з компаніями

Одним із можливих рішень є добровільне державно-приватне партнерство, де компанії надають критичну інформацію державі в обмін на підтримку, як-от постачання електроенергії чи обчислювальних ресурсів.

«Ці сценарії виглядають гіпотетично, але ми вже бачимо, як інструменти ШІ стають дедалі автономнішими», — підсумовує команда дослідників.

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.