У день інавгурації Трампа китайська компанія DeepSeek презентувала мовну модель світового рівня. Це стало тривожним сигналом для США. Сенатор Марк Ворнер визнає: розвідку це застало зненацька.
Минулого року адміністрація Байдена занепокоїлась, що китайські військові та шпигуни швидше впровадять ШІ. Вона доручила Пентагону, розвідці й енергетичному відомству активніше експериментувати з новими моделями й співпрацювати з Anthropic, DeepMind та OpenAI.
14 липня Пентагон уклав контракти до $200 млн з Anthropic, Google, OpenAI і xAI Ілона Маска. Мета — тестувати агентні моделі, здатні діяти від імені користувача, розбивати задачі й керувати пристроями.
Ці лабораторії працюють і на армію, і на спецслужби. Головне завдання — аналіз секретних даних. У січні Microsoft повідомила, що 26 її хмарних сервісів схвалено для розвідки. У червні Anthropic запустила Claude Gov — уже впроваджену у провідних агенціях США. Такі моделі працюють на захищених серверах, без доступу до інтернету. Всередині відомств паралельно будують нове покоління агентів.
Європа не пасе задніх. “Ми намагаємось швидко наслідувати лідерів,” каже джерело в британській розвідці. Французька Mistral співпрацює з військовим агентством AMIAD. Їхня модель Saba працює з мовами Близького Сходу й Південної Азії. Ізраїль з початком війни в Газі в 20 разів частіше використовує GPT-4.
Але впровадження йде повільно, каже Катріна Малліган з OpenAI. NSA має досвід із розпізнавання голосу, але більшість агенцій досі створюють “обгортки” для чатботів, що відстають від публічних моделей.
“Перелом — не просто використання чатбота,” пояснює Тарун Чхабра, ексрадник Білого дому, нині в Anthropic. “А коли ШІ змінює сам підхід до роботи.”
Гра шпигунів на ШІ
Скептики застерігають: очікування можуть бути завищені. Річард Картер з Alan Turing Institute каже: розвідки прагнуть не прориву, а стабільності. У Британії застосовують “retrieval augmented generation” — коли LLM отримує перевірену інформацію, щоб зменшити помилки. “Головне — послідовність і надійність,” підкреслює Картер.
Натомість лабораторії просувають агентні моделі. Mistral показала демо: окремі агенти обробляють різні потоки даних — супутникові знімки, перехоплення тощо — щоб пришвидшити рішення. Один із сценаріїв: ШІ ідентифікує сотні іранських ядерних вчених і спонукає до втечі. “Ми ще не продумали, як агенти діятимуть у бойових умовах,” каже Чхабра.
Картер застерігає: агентні моделі генерують власні запити, що збільшує ризик помилок. ChatGPT agent “галюцинує” у 8% відповідей — більше, ніж попередня версія o3.
У GCHQ, британському аналогу NSA, інженери налаштовані скептично. Це, за словами Картера, не бюрократія, а обережність.
Картер також вважає: сучасні LLM не мають причинно-наслідкового мислення, а отже, не “розуміють” світ. Розвідкам потрібні нові моделі.
Тим часом Китай може діяти швидше. “Ми майже не знаємо, як DeepSeek використовується у їхніх військових цілях,” каже Філіп Рейнер з Institute for Security and Technology. “Ймовірно, в них менше обмежень, тож і швидші результати.”
23 липня адміністрація Трампа зобов’язала Пентагон і розвідку регулярно звіряти темпи впровадження ШІ з конкурентами, зокрема Китаєм, і “створити механізм адаптації”.
Сенатор Ворнер визнає: США слабо відстежують прогрес Китаю. “Поглинання технологій і проникнення в їхні компанії досі низькі.” Найбільший ризик, каже Малліган, у тому, що США мислять по-старому. “Можна виграти гонку за AGI — і програти в його реальному впровадженні.”
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.