OpenAI працює над новим агентом штучного інтелекту, який може спричинити справжній фурор — якщо вірити опису, який надала фінансова директорка компанії Сара Фраєр. За її словами, вже незабаром компанія випустить третій ШІ-агент під назвою A-SWE (Agentic Software Engineer). Цей агент зможе виконувати не лише завдання звичайного інженера-програміста, а й додаткові — включно з тестуванням якості, пошуком помилок у коді та виправленням багів.
«Третій агент, який ми запускаємо, має назву A-SWE — agentic software engineer. Це не просто доповнення до роботи нинішніх програмістів, як те, що ми бачимо сьогодні з Copilot. Це справжній агент, який може створити для вас застосунок», — заявила Фраєр під час розмови з Goldman Sachs.
За її словами, A-SWE здатен взяти на себе повний цикл розробки — від обробки pull request до створення коду, його тестування, написання документації і навіть "багбашингу" — тобто пошуку і усунення помилок.
«Це речі, які програмісти зазвичай не люблять робити. QA, тестування, документація — тепер це все може зробити агент. Таким чином, ми можемо масштабувати команду розробників», — пояснила вона.
Попередні агенти: експерименти тривають
OpenAI вже запустила двох ШІ-агентів: Operator — у січні, та Deep Research — у лютому. Обидва наразі доступні лише платним користувачам ChatGPT. Operator спеціалізується на виконанні дій за запитами користувача, а Deep Research, за словами OpenAI, мав би замінити помічника-дослідника.
Проте практика показала, що ці твердження значно випереджали реальність. На момент запуску Deep Research компанія заявляла, що він зможе повністю взяти на себе роль асистента-дослідника — цю тезу Сара Фраєр повторила й зараз. Але фактичні можливості агента залишаються обмеженими.
Чому варто залишатись обережними?
Хоча OpenAI просуває новий агент як проривний, подібні амбітні заяви викликають сумніви. Багато конкурентів — зокрема, xAI та Perplexity — також уже представили свої версії ШІ-агентів. Але досі залишається неясно, наскільки ефективно ці моделі можуть замінити реальних фахівців.
Однією з головних проблем залишається галюцинація — коли модель генерує вигадану інформацію, але подає її з повною впевненістю. Це робить її використання ризикованим у завданнях, де важлива точність і достовірність.
І річ не лише в тому, що часом ШІ помиляється — помиляються й люди. Проблема в тому, що штучний інтелект впевнено створює дезінформацію, що ускладнює її виявлення. Ця проблема існувала ще з моменту запуску ChatGPT у 2022 році — і досі не зникла.
Підсумок
Поки OpenAI заявляє, що їхній новий ШІ-агент зможе виконувати всю роботу програміста — і навіть більше, експерти радять не втрачати пильності. Хайп навколо штучного інтелекту росте, але технології ще не досконалі.
A-SWE виглядає перспективно, але чи стане він реальним інструментом у робочому середовищі — покаже час.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.