вівторок, 15 квітня 2025 р.

OpenAI готує до запуску A-SWE — агента, що сам тестує свій код

OpenAI працює над новим агентом штучного інтелекту, який може спричинити справжній фурор — якщо вірити опису, який надала фінансова директорка компанії Сара Фраєр. За її словами, вже незабаром компанія випустить третій ШІ-агент під назвою A-SWE (Agentic Software Engineer). Цей агент зможе виконувати не лише завдання звичайного інженера-програміста, а й додаткові — включно з тестуванням якості, пошуком помилок у коді та виправленням багів.

«Третій агент, який ми запускаємо, має назву A-SWE — agentic software engineer. Це не просто доповнення до роботи нинішніх програмістів, як те, що ми бачимо сьогодні з Copilot. Це справжній агент, який може створити для вас застосунок», — заявила Фраєр під час розмови з Goldman Sachs.

За її словами, A-SWE здатен взяти на себе повний цикл розробки — від обробки pull request до створення коду, його тестування, написання документації і навіть "багбашингу" — тобто пошуку і усунення помилок.

«Це речі, які програмісти зазвичай не люблять робити. QA, тестування, документація — тепер це все може зробити агент. Таким чином, ми можемо масштабувати команду розробників», — пояснила вона.

Попередні агенти: експерименти тривають

OpenAI вже запустила двох ШІ-агентів: Operator — у січні, та Deep Research — у лютому. Обидва наразі доступні лише платним користувачам ChatGPT. Operator спеціалізується на виконанні дій за запитами користувача, а Deep Research, за словами OpenAI, мав би замінити помічника-дослідника.

Проте практика показала, що ці твердження значно випереджали реальність. На момент запуску Deep Research компанія заявляла, що він зможе повністю взяти на себе роль асистента-дослідника — цю тезу Сара Фраєр повторила й зараз. Але фактичні можливості агента залишаються обмеженими.

Чому варто залишатись обережними?

Хоча OpenAI просуває новий агент як проривний, подібні амбітні заяви викликають сумніви. Багато конкурентів — зокрема, xAI та Perplexity — також уже представили свої версії ШІ-агентів. Але досі залишається неясно, наскільки ефективно ці моделі можуть замінити реальних фахівців.

Однією з головних проблем залишається галюцинація — коли модель генерує вигадану інформацію, але подає її з повною впевненістю. Це робить її використання ризикованим у завданнях, де важлива точність і достовірність.

І річ не лише в тому, що часом ШІ помиляється — помиляються й люди. Проблема в тому, що штучний інтелект впевнено створює дезінформацію, що ускладнює її виявлення. Ця проблема існувала ще з моменту запуску ChatGPT у 2022 році — і досі не зникла.

Підсумок

Поки OpenAI заявляє, що їхній новий ШІ-агент зможе виконувати всю роботу програміста — і навіть більше, експерти радять не втрачати пильності. Хайп навколо штучного інтелекту росте, але технології ще не досконалі.

A-SWE виглядає перспективно, але чи стане він реальним інструментом у робочому середовищі — покаже час.

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.