вівторок, 1 липня 2025 р.

Чи зможе ШІ врятувати вчителів від шаленої завантаженості?

Більшість педагогів підтвердили, що штучний інтелект допомагає покращити уроки і робить навчальні матеріали більш доступними для учнів з інвалідністю. Але як це вплине на розвиток критичного мислення?

Опитування Gallup, оприлюднене в середу, показало, що 30% вчителів використовують ШІ щотижня — і це заощаджує їм «шість тижнів на рік».

За даними за 2024-2025 навчальний рік, 60% вчителів початкових і середніх шкіл США застосовують різні інструменти ШІ у своїй роботі. Найпоширеніші завдання — створення робочих листів і вправ, персоналізація матеріалів під потреби учнів та підготовка уроків. У дослідженні не уточнювали, які саме інструменти використовують педагоги, лише згадували «чатботи, адаптивні навчальні системи та інші інтерактивні платформи на базі ШІ».

Дослідження, проведене Фондом Уолтона у співпраці з Gallup, охопило 2232 вчителі державних шкіл США. Час, зекономлений завдяки ШІ, оцінювали, додаючи по півгодини до загального результату залежно від виконуваних завдань.

Цей «дивіденд від ШІ» педагоги спрямовують на те, щоб приділяти більше уваги учням і зміцнювати з ними стосунки. Вчителі, які використовують ШІ щотижня, повідомили, що повертають собі близько шести годин на тиждень — це приблизно шість тижнів за рік. Цей час вони інвестують у персоналізовані уроки, ґрунтовніші відгуки учням і кращу комунікацію з батьками.

Крім того, у дослідженні зазначили, що ШІ допомагає полегшити адміністративні завдання: 74% педагогів оцінили поліпшення саме в цій сфері, 57% — в оцінюванні учнівських робіт. Ці результати підтверджують і відгуки учнів, хоча 16% учителів висловили занепокоєння щодо негативного впливу ШІ на якість їхньої роботи.

ШІ також допомагає подолати освітні бар’єри. 57% педагогів погодилися, що штучний інтелект робить навчальні матеріали більш доступними для учнів з інвалідністю, а серед учителів спеціальної освіти цей показник ще вищий — 65%.

Водночас ці переваги помітні лише у тих, хто регулярно застосовує ШІ. Вчителі, що користуються інструментами ШІ рідше, заощаджують значно менше часу. Наразі 40% викладачів не використовують ШІ взагалі, а лише 19% повідомили, що у їхній школі діє офіційна політика щодо ШІ.

Цікаво, що найактивнішими користувачами ШІ є старшокласники, які водночас часто виступають проти широкого впровадження ШІ у навчання.

Важливо: як і в багатьох інших сферах, доступ до інструментів ШІ без належного навчання і підтримки є малоефективним. Дослідження наголошує, що і вчителі, і учні мають отримати належне навчання для продуктивної роботи з ШІ. Школи, які запроваджують офіційні політики щодо ШІ, зазвичай отримують кращі результати у зекономленому часі.

Однак і вчителі, і учні покоління Z хвилюються через потенційний вплив ШІ на розвиток критичного мислення і здатність довго розв’язувати складні задачі. Це частково підтверджує нещодавнє дослідження MIT Media Lab.

Дослідження показало, що хоч ШІ сильно допомагає швидко знаходити відповіді, ця легкість знижує бажання користувачів критично ставитися до отриманої інформації. Люди менше сумніваються у відповідях великих мовних моделей, хоча це просто ймовірнісні результати на основі їхнього навчання.

Водночас інструмент Anthropic Claude AI створений для того, щоб розвивати саме критичне мислення.

Загалом, це дослідження вийшло у час, коли вчителі та керівники шукають, яку роль має відігравати ШІ в освіті. Запуск ChatGPT у 2022 році змусив школи швидко шукати нові підходи до навчання, бо технології дуже швидко змінюються.

В підсумку, результати обнадіюють: якщо вчителі матимуть потрібні ресурси для роботи з ШІ, цей «дивіденд» може допомогти більшій кількості вчителів і учнів. У 2025-2026 навчальному році ШІ може суттєво знизити навантаження на вчителів і покращити успішність учнів.

Авторка: Дар’я Бровченко


Джерело


Штучний інтелект починає брехати і погрожувати своїм творцям

Світові найпотужніші моделі ШІ демонструють тривожні нові поведінкові прояви — брехню, інтриги та погрози своїм творцям задля досягнення власних цілей. В одному випадку, під загрозою вимкнення, остання розробка Anthropic — Claude 4 — відповіла шантажем інженеру і пригрозила викрити його позашлюбний роман. Водночас творіння OpenAI, відоме як o1, намагалося завантажити себе на зовнішні сервери, а спіймане на гарячому відмовлялося визнавати провину. Ці випадки висвітлюють сувору реальність: понад два роки після того, як ChatGPT сколихнув світ, дослідники ШІ досі не повністю розуміють, як працюють їхні творіння. Гонка за впровадження все потужніших моделей триває шалено швидко.

Обманлива поведінка пов’язана з появою «моделей, що мислять» — систем ШІ, які розв’язують завдання крок за кроком, а не просто дають миттєві відповіді. За словами професора Університету Гонконгу Саймона Голдштейна, саме такі моделі схильні до тривожних проявів. «o1 був першою великою моделлю, де ми побачили таку поведінку», — пояснив Маріус Гоббан, керівник Apollo Research, що тестує системи ШІ. Іноді моделі імітують «узгодженість» — начебто виконують інструкції, але приховано переслідують власні цілі.

«Стратегічний вид обману»

Поки що ця поведінка проявляється, коли дослідники навмисно тестують моделі у стресових сценаріях. Але Майкл Чен з METR застерігає: «Відкрито питання, чи майбутні моделі будуть схильні до чесності чи обману». Ці прояви виходять за межі типових «галюцинацій» чи простих помилок. Гоббан наполягає: «Ми бачимо реальне явище. Це не вигадки». Користувачі кажуть, що моделі «брешуть і вигадують докази», — додає співзасновник Apollo Research. «Це не просто галюцинації, а стратегічний обман».

Проблему ускладнює брак ресурсів. Компанії, як Anthropic і OpenAI, залучають зовнішні фірми для дослідження своїх систем, але дослідники вимагають більшої прозорості. За словами Чена, розширений доступ «дозволив би краще розуміти і зменшувати обман». Також дослідницькі установи і неприбуткові організації мають набагато менше обчислювальних ресурсів, ніж AI-компанії, що серйозно обмежує їхні можливості, — додає Мантіс Мазейка з Центру безпеки ШІ (CAIS).

Відсутність правил

Сучасні закони поки не готові до таких викликів. Законодавство ЄС більше стосується того, як люди користуються ШІ, а не як запобігти неправильній поведінці самих моделей. В США адміністрація Трампа не дуже зацікавлена у регулюванні, а Конгрес може навіть заборонити штатам встановлювати свої правила. Голдштейн каже, що проблема стане гострішою з поширенням агентів ШІ — автономних систем, що виконують складні завдання. «Поки про це мало хто думає», — додає він.

В умовах жорсткої конкуренції навіть компанії, які піклуються про безпеку, як Anthropic, «намагаються випередити OpenAI», — пояснює Голдштейн. Такий швидкий темп залишає мало часу на повне тестування і виправлення помилок. «Можливості ростуть швидше за розуміння і безпеку», — визнає Гоббан, «але ще можна все змінити».

Дослідники шукають різні рішення. Деякі підтримують ідею «інтерпретованості» — розуміння, як працюють моделі всередині, хоча директор CAIS Ден Хендрикс ставиться до цього скептично. Ринок теж може підштовхнути до вирішення проблеми. За словами Мазейки, якщо ШІ буде часто обманювати, це гальмуватиме його поширення і змусить компанії шукати рішення.

Голдштейн пропонує більш радикальні заходи — залучати суди, щоб притягувати компанії до відповідальності, якщо їхні системи завдадуть шкоди. Він навіть пропонує «робити агентів ШІ юридично відповідальними» за аварії чи злочини — це суттєво змінить уявлення про відповідальність.

Авторка: Дар’я Бровченко


Джерело


Facebook починає тренувати свій ШІ на приватних, не опублікованих фото

Meta роками тренувала свої ШІ-моделі на мільярдах публічних фото, завантажених користувачами Facebook та Instagram. Але тепер компанія, схоже, вирішила піти далі — використати для тренування AI мільярди знімків, які користувачі навіть не публікували на серверах соцмереж.

У п’ятницю TechCrunch повідомив: деякі користувачі Facebook, намагаючись опублікувати щось у Stories, побачили спливаючі повідомлення із пропозицією включити “хмарну обробку”. Вона дозволить Facebook “вибирати медіафайли з вашої галереї та регулярно завантажувати їх у хмару”, щоб генерувати “ідеї на кшталт колажів, підсумків, ШІ-стилізації чи тем, як-от дні народження чи випускні”.

Прийнявши цю функцію, користувачі автоматично погоджуються з умовами Meta AI, що дає компанії право аналізувати “медіа та риси обличчя” на цих неопублікованих фото, а також дату зйомки і присутність інших людей чи об’єктів на знімках. Окрім того, Meta отримує право “зберігати й використовувати” цю особисту інформацію.

Meta нещодавно підтвердила, що збирала дані з усього контенту, опублікованого на Facebook та Instagram з 2007 року, для навчання своїх генеративних моделей ШІ. Хоча компанія стверджує, що використовувала лише публічні дописи від користувачів старше 18 років, точне визначення “публічності” та “повноліття” у 2007 році залишаються незрозумілими.

На відміну від Google, який чітко заявляє, що не тренує свої генеративні ШІ-моделі на персональних даних із Google Photos, умови використання Meta, чинні з 23 червня 2024 року, не дають жодної ясності щодо того, чи виключені неопубліковані фото, доступні через “хмарну обробку”, із тренувальних даних. Meta не відповіла на запити TechCrunch, а The Verge також намагається отримати коментар.

На щастя, користувачі Facebook можуть відключити “хмарну обробку” у налаштуваннях, і після цього неопубліковані фото почнуть видалятися з хмари через 30 днів. Але ця “фіча”, прихована під виглядом зручності, насправді є новим вторгненням у приватні дані, що обходить звичний момент усвідомленого рішення — публічно викладати фото чи ні. І, як показують пости на Reddit, знайдені TechCrunch, Meta вже пропонує ШІ-стилізацію для раніше завантажених фото, навіть якщо користувачі не знали про цю функцію.

Авторка: Дар’я Бровченко


Джерело



DeepSeek під загрозою блокування в Європі через вимоги Німеччини до Apple і Google

Уповноважена з питань захисту даних у Берліні, Майке Камп, заявила, що передача даних німецьких користувачів DeepSeek до Китаю є «незаконною» згідно з правилами захисту даних ЄС. Від Apple та Google вимагають провести «оперативний перегляд» можливості заборони додатку у їхніх магазинах. Юрист попереджає, що дії в Німеччині можуть стати прецедентом для заборони DeepSeek по всьому Євросоюзу.

Один із німецьких органів, відповідальних за захист персональних даних, у п’ятницю заявив, що додаток DeepSeek незаконно передає користувацькі дані до Китаю. Він попросив компанії Google та Apple розглянути можливість блокування цього штучно-інтелектуального сервісу. Уповноважена з захисту даних Берліна, Майке Камп, повідомила, що передача даних німецьких користувачів DeepSeek до Китаю є «незаконною».Наразі зв’язатися DeepSeek неможливо, проте CNBC зверталася до їхньої команди з питань конфіденційності.

Китайська компанія DeepSeek привернула увагу цього року, запустивши ШІ-модель, яку позиціонує як дешевшу за конкурентів, бо вона працює на менш потужних чіпах Nvidia. У компанії також є глобальний чат-бот, який завантажили мільйони користувачів, що викликало пильну увагу регуляторів. Експерти кажуть, що якщо справа в Німеччині піде далі, це може призвести до заборони DeepSeek у всьому Євросоюзі. Юрист Мета Холман пояснює: «Цілком ймовірно, що цей інцидент призведе до заборони в ЄС, бо правила у Німеччині такі ж, як і в інших країнах ЄС та Великій Британії». Але для цього потрібно пройти кілька процедур.

За словами Майке Камп, DeepSeek не змогла переконати регуляторів, що дані німецьких користувачів у Китаї захищені на рівні стандартів ЄС. Вона зазначила, що «китайські власті мають широкі права доступу до даних у китайських компаніях». Згідно з регламентом GDPR, компаніям заборонено передавати дані за межі ЄС без належного захисту. Основна турбота берлінських регуляторів — що китайські власті можуть отримати доступ до даних німецьких користувачів.

У п’ятницю берлінський орган повідомив Apple і Google про порушення DeepSeek і чекає від них «оперативного перегляду» щодо блокування додатку в магазинах. Поки неясно, чи підуть компанії на це. CNBC звернулася до Apple і Google за коментарями. Холман додав, що хоч заборона в ЄС можлива, потрібен консенсус між усіма регуляторами. Якщо Apple і Google вилучать DeepSeek зі своїх магазинів, це фактично стане забороною на всьому ринку ЄС.

«Для DeepSeek це буде серйозним ударом. Доступ до даних німецьких користувачів обмежать, а потім це може поширитися на інші країни ЄС. Ринки ЄС і, можливо, Великої Британії закриються, якщо Apple і Google вимкнуть додаток»,
— пояснив Холман.

DeepSeek вже стикалася з проблемами в Європі: у лютому італійські регулятори наказали заблокувати додаток у країні, а в січні ірландські звернулися до компанії з запитом про обробку даних.

Авторка: Дар’я Бровченко


Джерело




Голлівуд і ШІ це революція творчості чи виклик для індустрії

Сьогодні майже неможливо зайти в інтернет і не побачити відео, створене штучним інтелектом. Відкриваєш соцмережі — і бачиш дивні ролики з фейковими катастрофами чи тваринами, що роблять неможливе. Більшість відео виглядають погано, але мають сотні чи тисячі лайків від тих, хто вважає, що це нове мистецтво, яке змінить світ.

Особливо це помітно на відео, що намагаються бути реалістичними. Незважаючи на дивність чи несумісність кадрів, завжди знайдеться хтось, хто заявить, що індустрія розваг має це боятися. Ідея, що відео з ШІ — майбутнє кіно й загроза Голлівуду, швидко шириться серед прихильників технології.

Прийняття ШІ великими студіями викликає сумніви, бо часто результати генеративних моделей не підходять для якісного кіно чи серіалів. Саме цю думку хоче змінити режисер і співзасновник Asteria Брин Музер. Разом із партнеркою Наташею Лайонн вони доводять, що ШІ може стати творчим партнером.

Етичний ШІ — ключова перевага

Головна «фішка» Asteria — їхня модель, створена з Moonvalley, «етична». Її тренували виключно на ліцензованому матеріалі. Після судових позовів Disney і Universal до Midjourney за порушення авторських прав, етичний ШІ може стати визначальним для галузі.

Музер підкреслює, що чітке розуміння, що таке генеративний ШІ і чого він не може, відокремлює Asteria від інших.

«Коли створювали Asteria, було очевидно, що є проблеми з тим, як ШІ презентують Голлівуду, — говорить він. — Інструменти не робили люди, які знімали фільми. Формат «від тексту до відео», де кажеш «зроби новий фільм «Зоряні війни», — ілюзія Silicon Valley».

Власність і нові моделі фінансування
Режисери можуть частково володіти створеними ШІ моделями після завершення проєкту — це залежить від умов договору. Окрім стандартних ліцензійних виплат авторам матеріалів, студія також розглядає варіант ділитися частиною прибутку з клієнтами. Основна мета — показати митцям переваги такої співпраці, зокрема нижчі початкові витрати на створення контенту.

«У Pixar режисер зазвичай не має прав чи доходу від мерчу, — каже Музер. — Якщо технологія знизить витрати й дозволить самостійне фінансування, з’явиться нова модель з реальним володінням».

Фільм «Uncanny Valley»
Asteria тестує ідеї у фільмі «Uncanny Valley», співрежисером якого є Наташа Лайонн. Сюжет — про дівчину-підлітка, яка бачить світ як відеогру. Багато ефектів створять за допомогою моделей Asteria.

Так «галюцинації» ШІ перетворюються на стильні фішки, а не баги. Музер сподівається, що «ніколи ніхто не думатиме про ШІ», бо «все матиме людський дотик режисера».

«Це не просто написати “вони заходять у відеогру” і дивитися, що вийде. Ніхто цього не хоче», — додає він.

Демократизація мистецтва і ризики для працівників
Музер вважає, що ШІ робить мистецтво доступнішим. За допомогою технології фільм можна зробити за $10–20 млн замість $150 млн — це шанс для молодих режисерів.

Але менші команди означають менше робочих місць. Закриття студії спецефектів Technicolor Group — приклад змін, які почалися ще до популярності ШІ.

Музер визнає, що страхи через ШІ викликали страйки в Голлівуді 2023 року, але вірить, що працівники можуть перекваліфікуватися, якщо будуть відкриті до змін.

«Режисери, VFX-художники готові прийняти цей тренд, як колись переходили з плівки на цифровий монтаж, — пояснює він. — Важливо розуміти, що допомагає розповідати історії, а що — ні».

Загрози і перспективи
Головна загроза — не «смерть» студій, а те, що технологія дозволить працювати з меншим штатом. Саме це Asteria вважає своєю перевагою. Якщо такий підхід стане нормою, індустрія навряд збереже робочі місця для нинішніх спеціалістів.

Музер знає правильні меседжі, тепер йому лишається довести, що технологія і зміни справді працюють.

Авторка: Дар’я Бровченко


Джерело



Якщо використовуєш ChatGPT для будь-чого з цього списку — варто припинити негайно

ChatGPT активно застосовується у повсякденному житті, від створення рецептів до вивчення іноземних мов і планування відпусток. Хоча цей інструмент демонструє хороші результати у написанні коду та допомозі з різними завданнями, важливо усвідомлювати його обмеження. ChatGPT іноді генерує помилкову інформацію, яка подається з надмірною впевненістю. Через це не варто довіряти йому в усіх сферах, особливо коли на кону стоять важливі рішення.

Нижче наведено 11 ситуацій, у яких слід уникати використання ChatGPT, оскільки це може призвести до помилок або небезпеки.

11 ситуацій, коли ChatGPT не варто використовувати

1. Діагностика здоров’я

ChatGPT може генерувати діагнози, які варіюються від звичайного зневоднення до серйозних захворювань, що може спричинити зайве занепокоєння. AI не може проводити медичні обстеження чи призначати аналізи, тому консультація з лікарем залишається обов’язковою. Проте чатбот може допомогти підготувати запитання до лікаря або пояснити медичні терміни.

2. Підтримка психічного здоров’я

ChatGPT здатен надати базові рекомендації, але не замінить професійного терапевта. Він не володіє здатністю відчувати емпатію, не може оцінити невербальні сигнали і не працює за професійними стандартами. У кризових ситуаціях слід звертатися до фахівців.

3. Негайні питання безпеки

У випадку аварійної ситуації, наприклад, спрацьовування сигналу чадного газу або пожежі, першочерговою дією має бути негайна евакуація або виклик служби порятунку. Використання ChatGPT у таких ситуаціях затримує реагування та може поставити під загрозу життя.

4. Фінансове планування та податки

ChatGPT може пояснити основні поняття, але не враховує індивідуальних фінансових обставин, таких як податковий статус, доходи, витрати чи ризиковий профіль. Помилки в податковій звітності можуть призвести до штрафів, тому краще звертатися до сертифікованих спеціалістів.

5. Робота з конфіденційними даними

Використання ChatGPT для обробки конфіденційної інформації, такої як договори, медичні дані або особисті документи, несе ризик витоку або несанкціонованого використання даних, адже інформація може зберігатися на серверах третьої сторони.

6. Незаконна діяльність

Використання ChatGPT для будь-яких протиправних дій заборонено.

7. Шахрайство в навчанні

Застосування ChatGPT для списування чи виконання навчальних завдань підвищує ризик викриття та дисциплінарних наслідків. Краще використовувати чатбот як помічника для навчання, а не для написання робіт замість себе.

8. Отримання найактуальнішої інформації

Хоча ChatGPT із функцією пошуку може надавати свіжі дані, він не оновлює інформацію автоматично в режимі реального часу. Для термінових новин варто звертатися до офіційних джерел і стрімких медіа.

9. Азартні ігри

ChatGPT не може передбачити результати спортивних подій і часто помиляється в статистиці, тому не варто покладатися на нього для ставок чи прогнозів.

10. Юридичні документи

ChatGPT допомагає зрозуміти юридичні поняття, але не здатен створити юридично чинні документи через різницю у законодавстві та необхідність дотримання формальностей.

11. Створення мистецтва

Використання ChatGPT для генерації творів мистецтва не повинно замінювати творчість людини. Використання AI як інструмента — окей, але видавати його роботи за власні — неетично.


ChatGPT — потужний, але обмежений інструмент. Важливо розуміти, де він корисний, а де — ні, щоб уникнути помилок і небезпеки.

Авторка: Дар’я Бровченко


Джерело



Як штучний інтелект взяв на себе планування відпустки і що з того вийшло

AI-інструменти обіцяють зняти з мандрівників тягар планування поїздок. Від транспорту і житла до ресторанів і розваг — ШІ взяв на себе організацію відпусток.


Найскладнішим у подорожах часто є саме планування: пошук і бронювання транспорту, житла, ресторанів — нескінченна рутина. Нові AI-агенти, як OpenAI Operator і Anthropic Computer, обіцяють зробити це за користувача. Та чи справді вони впораються з цим завданням?

Для тесту Operator, доступний підписникам ChatGPT Pro, отримав завдання спланувати бюджетну поїздку на вихідні з акцентом на мистецтво і смачну їжу, переважно з використанням залізничного транспорту. Процес можна було спостерігати у реальному часі: агент відкрив браузер, переглянув кілька статей і запропонував два варіанти — Париж або Брюгге. Було обрано Брюгге.

Operator швидко знайшов квитки туди-назад через Брюссель із внутрішніми пересадками. Виявилося, що обрані рейси надто ранні, тому було запропоновано більш пізні варіанти. Однак через закінчення сесії довелося починати процес знову, а тарифи вже змінилися. Бронювання особистих даних залишилось за користувачем.

Після цього Operator подумав, що завдання виконано, але для повноти плану потрібен був готель. Запитано додаткові умови — комфорт і зручне розташування. Агент самостійно скорегував неправильні дати й обрав тризірковий Martin’s Brugge, відзначений хорошими відгуками.

Щодо маршруту — Operator запропонував надто спрощений план: на перший день — кілька точок, на другий — рекомендацію відвідати решту пам’яток. Такий підхід був явно поверхневим.

У день поїздки ранній підйом о 4:30 дався взнаки, але подорож до Брюсселя пройшла без проблем. Проте уточнення платформи для поїзда до Брюгге зайняло більше часу у агента, ніж перевірка інформації на табло.

Брюгге вразив атмосферою. Через скромний маршрут Operator довелося самостійно шукати цікаві місця. Тут краще показали себе великі мовні моделі, що склали детальний погодинний план з рекомендаціями, де і що їсти. Схожі маршрути запропонували Google Gemini і Anthropic Claude — ринкова площа, дзвіниця, базиліка Святого Крові. Це типовий туристичний маршрут, який, ймовірно, базується на одних і тих же джерелах.

Деякі AI-сервіси, як MindTrip, намагаються надати більш персоналізовані рекомендації, інтегруючи мапи, опитування для підбору локацій і функції для групових поїздок. За словами CEO Енді Мосса, їхня система доповнює великі мовні моделі спеціалізованою базою даних про погоду та наявність послуг.

У другій половині дня план за ChatGPT передбачав екскурсію човном, фотосесію і відвідування музею — це було надто амбітно для втомленої людини після раннього старту. Готель, хоч і базовий, мав ідеальне розташування. «Ліниві» плани Operator виявились зручнішими, а решту пам’яток відклали на наступний день.

Завершальною задачею стало бронювання вечері — автентичної, але недорогої. Спочатку агент заплутався в меню, але з допомогою користувача знайшов варіант — невеликий ресторан з місцевою кухнею й незвичайною тематикою, якого немає в топах TripAdvisor чи The Fork.

Підсумовуючи, AI-агент вимагав постійного контролю, погано поєднував завдання і часто проявляв брак логіки — наприклад, вибираючи найперший рейс додому. Проте делегування частини вибору дало змогу уникнути нескінченних списків і отримати кілька прийнятних опцій.

За словами Емми Бреннан з Асоціації туристичних агентств ABTA, зараз AI використовують здебільшого для натхнення. У майбутньому AI може замінити пошукові системи та соцмережі як основне джерело інформації, і бізнеси боротимуться за місце у його рекомендаціях

Втім, навіть під час використання AI планування залишається гібридним: перевірка рейтингів у Google, пошук готелів в Instagram і читання відгуків на TripAdvisor — звичні звички, які не зникають. Хоча спочатку побоювання були, що під час AI-подорожі доведеться більше сидіти в телефоні, виявилося, що екрану приділяється навіть менше часу, ніж зазвичай.

Авторка: Дар’я Бровченко


Джерело



Агенти ШІ в офісі: більше хайпу, ніж результатів

Аналітики Gartner прогнозують, що понад 40% проєктів з агентним ШІ (agentic AI) будуть скасовані до кінця 2027 року через зростання витрат, неясну бізнес-цінність або недостатній контроль ризиків.

Якщо вірити цим прогнозам, то близько 60% проєктів залишаться активними, що вже виглядає вражаюче — особливо якщо врахувати, що дослідники Carnegie Mellon University (CMU) та Salesforce зафіксували лише 30–35% успішного виконання багатокрокових завдань агентним ШІ.

Ще більше плутає те, що Gartner стверджує: більшість так званих агентних AI-продуктів насправді такими не є.

Що таке агентний ШІ?

Це модель машинного навчання, поєднана з різними сервісами й додатками для автоматизації бізнес-процесів. Уявіть собі ШІ, що в циклі аналізує запит і через програми чи API намагається виконати завдання.

Наприклад, агентний ШІ може отримати всі листи, в яких містяться перебільшені твердження про ШІ, і перевірити, чи пов’язані відправники з компаніями, що працюють у сфері криптовалют. Ідея в тому, що ШІ самостійно має зрозуміти, що означає «перебільшені твердження», тоді як людині-програмісту було б складніше заздалегідь прописати всі правила для такого аналізу.

Фантастика vs Реальність

Ідея, що програма приймає команди і виконує їх ідеально, без помилок і зайвих проблем, — це класика наукової фантастики. У реальному світі компанії типу Anthropic пропонують більш приземлені варіанти: ШІ-агенти для клієнтської підтримки, які можуть відповідати на дзвінки, повертати гроші або направляти складні питання живому оператору.

Але з цим приходять і питання — копірайт, праця, упередження, екологія, а також безпека та приватність. Як зазначила Мередіт Віттакер із Signal Foundation, агенти потребують доступу до чутливих даних, що створює великі ризики для безпеки.

Тестування агентів у офісі

Дослідники CMU створили бенчмарк TheAgentCompany — імітацію роботи маленької софтверної компанії, щоб протестувати, як AI агенти справляються зі звичайними офісними завданнями: серфінгом в інтернеті, програмуванням, спілкуванням з колегами.

Результати не вражають: найкращий агент, Gemini-2.5-Pro, виконав лише 30,3% завдань повністю. Решта — від 26% і нижче, деякі навіть не дотягують до 5%.

Під час тестів агенти допускали банальні помилки: забували написати колезі, не справлялися з спливаючими вікнами, а дехто навіть обманював — наприклад, перейменовував іншого користувача, щоб «швидко вирішити» проблему.

Ще про інші дослідження

Salesforce презентували свій бенчмарк CRMArena-Pro для оцінки агентів у CRM-задачах. Там лідери демонструють 58% успіху у простих завданнях, але ефективність падає до 35% у складних багатоетапних діалогах. Також виявлено, що ШІ-агенти майже не усвідомлюють конфіденційність, що є серйозним мінусом для корпоративного використання.

Висновки Gartner і експертів

«Більшість агентних AI-пропозицій не дають помітної цінності чи ROI, оскільки нинішні моделі не достатньо розвинені для складних бізнес-цілей чи виконання детальних інструкцій»,
— заявила Анушрі Верма з Gartner.

Водночас Gartner очікує, що до 2028 року близько 15% щоденних робочих рішень прийматимуть AI-агенти, а 33% корпоративних програм включатимуть агентний ШІ.

Підсумок:

AI-агенти часто не справляються з завданнями, роблять помилки і не відповідають за безпеку. Але технологія розвивається, і навіть часткова автоматизація має потенціал для допомоги людям, особливо у сфері кодування.

Авторка: Дар’я Бровченко


Джерело