Компанії, що розробляють штучний інтелект, «фундаментально не готові» до наслідків створення систем із людським рівнем інтелекту, заявляє провідна організація з безпеки ШІ.
Інститут майбутнього життя (Future of Life Institute, FLI) оприлюднив звіт, згідно з яким жодна з компаній, включених до індексу безпеки ШІ, не отримала оцінку вище за «D» за планування безпеки існування людства. Один із п’яти експертів, що переглядали звіт, наголосив: попри амбіції створити AGI, жодна компанія не має «цілісного та дієвого плану» гарантії безпеки.
AGI — це гіпотетичний рівень ШІ, коли система здатна виконувати будь-які інтелектуальні завдання на рівні людини. Розробник ChatGPT, компанія OpenAI, стверджує, що її місія — забезпечити, щоб AGI «служив на благо всього людства». Однак експерти попереджають: AGI може стати екзистенційною загрозою, вийшовши з-під контролю.
«Індустрія не готова до своїх амбітних цілей. Компанії обіцяють створити AGI в найближчі 10 років, але жодна не отримала оцінку вищу за D», — йдеться у звіті. Індекс охоплює сім провідних розробників — Google DeepMind, OpenAI, Anthropic, Meta, xAI, а також китайські Zhipu AI і DeepSeek. Оцінювання базувалося на шести категоріях, зокрема «поточні ризики» та «безпека існування».
Найвищу загальну оцінку — C+ — отримала Anthropic, за нею йдуть OpenAI (C) і Google DeepMind (C-).
FLI — незалежна неприбуткова організація, що існує завдяки пожертві крипто-підприємця. Інша структура, SaferAI, також визнала практики управління ризиками в провідних компаніях «дуже слабкими».
До експертної групи FLI увійшли, зокрема, Стюарт Рассел і Снеха Реванур, засновниця Encode Justice. Співзасновник FLI Макс Тегмарк назвав ситуацію тривожною: «Це як збудувати атомну станцію без плану запобігання аварії».
Він також зазначив, що технології розвиваються значно швидше, ніж очікували, і якщо раніше прогнозували десятиліття на підготовку до AGI, то зараз самі компанії говорять про лічені роки.
Серед прикладів останнього прогресу — нові моделі Grok 4 від xAI, Gemini 2.5 і відеогенератор Veo3 від Google.
У Google DeepMind відповіли, що звіт не враховує всі їхні заходи безпеки, підкресливши: «Наш підхід до безпеки значно ширший, ніж показано у звіті». До коментарів було також запрошено OpenAI, Anthropic, Meta, xAI, Zhipu AI та DeepSeek.
Авторка: Дар’я Бровченко

Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.