Групи агентів штучного інтелекту на основі великих мовних моделей здатні самі формувати соціальні норми, як це роблять люди Новітнє дослідження показало, що штучний інтелект може спонтанно розвивати соціальні конвенції, схожі на людські.
Спільне дослідження City St George’s (Лондон) та IT University of Copenhagen засвідчує: коли агенти штучного інтелекту на базі великих мовних моделей (LLM), як-от ChatGPT, спілкуються у групах без втручання зовнішніх чинників, вони починають формувати мовні форми та соціальні норми, схожі на ті, що виникають у людських спільнотах.
Аріель Флінт Ашері, провідна дослідниця проєкту, зазначає, що їхній підхід відрізняється від більшості існуючих досліджень, які розглядають штучний інтелект як ізольований від інших агентів.
«Більшість досліджень досі вивчають LLM окремо, але реальні системи штучного інтелекту все більше передбачають взаємодію багатьох агентів», — пояснює Ашері.
«Ми хотіли дізнатися: чи можуть ці моделі координувати свою поведінку, формуючи конвенції — фундаментальні блоки суспільства? Відповідь — так, і те, що вони роблять разом, не зводиться до простої суми їхніх дій поодинці».
У дослідженні групи LLM-агентів налічували від 24 до 100 учасників. У кожному експерименті двом випадково обраним агентам пропонували вибрати “назву” — це міг бути один символ або рядок символів — з обмеженого набору варіантів.
Якщо обидва агенти обирали однакову назву, вони отримували винагороду. Якщо різні — карали й показували один одному свої вибори.
Попри те, що ШІ-агенти не знали, що вони частина великої групи, і мали дуже коротку пам’ять — тільки про останні розмови, — серед усіх агентів поступово з’являлась спільна система назв. І це сталося само собою, без жодних підказок чи правил. Такий процес дуже схожий на те, як у людському суспільстві формуються мовні норми.
Професор Андреа Барончеллі з університету City St George’s, один з авторів дослідження, порівнює це з появою нових слів.
«Агенти не слухають накази і не копіюють якогось лідера, — каже він. — Вони просто намагаються домовитися в парах. Кожна взаємодія — це спроба дійти згоди щодо назви. І ніхто з них не бачить повної картини».
Він навів приклад: слово "спам" ніхто офіційно не визначав, але з часом воно стало загальновідомим способом називати небажану пошту — саме через багаторазові спроби людей узгодити, як це називати.
Крім того, вчені помітили цікаву річ: серед агентів виникали певні колективні упередження — і їх неможливо було пояснити діями окремих учасників.
У завершальному експерименті дослідники побачили, що невелика група агентів здатна вплинути на поведінку всієї спільноти — і змусити її перейти на нову назву. Це нагадує ефект критичної маси, коли рішуча меншість змінює правила для всіх. Таке ж буває й у людських групах.
Барончеллі підсумував, що ці результати відкривають новий напрям у дослідженнях безпеки ШІ:
«Це показує, наскільки глибоко можуть впливати нові типи агентів, які вже починають взаємодіяти з нами й надалі впливатимуть на наше майбутнє».
Він додав:
«Щоб ШІ працював на нас, а не навпаки, потрібно розуміти, як саме він приймає рішення. Ми вже живемо у світі, де штучний інтелект не просто відповідає на запитання — він може вести діалог, домовлятися, а іноді й сперечатися про спільні правила, як і ми».
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.