понеділок, 12 травня 2025 р.

Кращий у всьому: як ШІ може зробити людей непотрібними

Кінець цивілізації може бути не через війну, а через наше співіснування з ШІ. І, можливо, ми самі будемо винні в цьому.

Зараз багато дослідників шукають способи контролювати ШІ, щоб він не став загрозою для людства. Але є й інший варіант: ми просто можемо стати непотрібними. ШІ ставатиме кращим за людей у багатьох сферах — і без змови, просто через прогрес технологій.

ШІ вже замінює людей у роботі, творчості, навіть у соціальних ролях. Якщо машини будуть робити це краще, навіщо тоді нам це робити?

Це не фантастика, це вже реальність

Ще десять років тому багато хто вважав, що ШІ не зможе зрозуміти емоції чи складні завдання. Але сьогодні він вже допомагає писати тексти, створювати музику, консультувати пацієнтів і приймати важливі рішення. І часто робить це краще за людей.

Спочатку ШІ буде просто помічником — швидким і ефективним. З часом він стане основним вибором, бо навіщо платити людині, коли є машина, яка працює краще і коштує менше?

Це змінить не тільки роботу, а й все наше життя

Коли ШІ стане основним помічником у всьому, багато хто втратить роботу. Але справа не тільки в цьому — ми всі поступово звикатимемо до того, що машини будуть виконувати навіть особисті ролі: допомагати у стосунках, заміняти друзів і лікарів. З часом взаємодія з людьми здаватиметься менш привабливою, бо ШІ буде більш доступним і зручним.

І хоча ми можемо намагатися обрати людські послуги замість машин, поступово все більше завдань буде виконувати саме ШІ. Адже він дешевший, швидший і точніший.

Чи можемо ми щось змінити?

Деякі політики і науковці визнають, що нам доведеться повністю змінити економічну систему, коли ШІ замінить людську працю. Однак, ніхто не має чіткої стратегії на майбутнє.

Щоб уникнути нашого зникнення як важливих учасників суспільства, потрібно вже зараз почати говорити про це і вживати заходів. Ми маємо контролювати використання ШІ в урядах, в економіці та інших сферах, щоб не дати технології стати надто потужною.

Ми повинні активно включатися у розуміння, як технології змінюють наш світ, щоб мати шанс залишитися важливими в цьому новому майбутньому.

Авторка: Дар’я Бровченко


Джерело

Сайти для ботів, а не для людей


Ще кілька місяців тому пошук в інтернеті працював за знайомим сценарієм. Тепер усе змінюється — і маркетологи намагаються не відстати.


Традиційні пошуковики на кшталт Google чи Bing все частіше показують не посилання, а AI-згенеровані відповіді. А користувачі дедалі частіше звертаються напряму до ChatGPT та інших ШІ-моделей, щоб отримати пораду, розв’язати побутове питання або прийняти рішення щодо покупки.

Це вже зменшило трафік і кількість кліків, за які компанії роками боролися, вкладаючи мільйони доларів у SEO. У результаті з’явився новий напрям — генеративна оптимізація, яку деякі фахівці називають GEO, AEO (оптимізація під відповіді) або AIO (оптимізація під ШІ).

У компанії Mailchimp підтверджують: трафік на їхній сайт знижується, оскільки багато користувачів дізнаються про продукти компанії не з сайту, а через підсумки, створені AI, каже Еллен Мамедов, глобальна директорка з SEO.

Щоб не втратити позиції, Mailchimp тепер оновлює сайт насамперед для ботів — саме вони сканують інтернет, щоб навчати моделі на кшталт ChatGPT і Google Gemini.

Ці боти звертають увагу на такі технічні параметри, як швидкість завантаження сторінки, наявність структурованих даних і спеціальних тегів. Саме ці характеристики впливають на те, чи потрапить сайт у поле зору ШІ-моделей.

«Якщо ми не оновлюємо ці параметри регулярно — просто залишимось позаду», — каже Мамедов.

Сайти для ботів, а не для людей

На думку Мамедов, роль сайтів змінюється — тепер вони мають не стільки приваблювати відвідувачів, скільки служити джерелом інформації для моделей штучного інтелекту.

Але багато керівників відділів маркетингу ще не усвідомили, що їхні сайти не оптимізовані під нову реальність, каже Наташа Зоммерфельд, партнерка Bain & Co.

За даними дослідження Bain у грудні, близько 80% користувачів вирішують 40% своїх запитів у пошуку без переходу за посиланнями. Тим часом 42% користувачів ШІ вже застосовують його для вибору товарів або планування покупок.

ChatGPT тестує кнопку «Купити»

У квітні OpenAI оголосила, що ChatGPT незабаром отримає кнопку, яка дозволить переходити безпосередньо на сайт продавця. Це може стати першим кроком до повернення частини трафіку, вважає Джой Говард, маркетингова директорка Back Market — маркетплейсу відновленої техніки.

Поки що ШІ забезпечує лише 0,2% трафіку на їхній сайт, але це вже в 470 разів більше, ніж було влітку. І динаміка позитивна.

Back Market адаптує контент під ШІ, зокрема оновлює описи продуктів, враховуючи популярні запити — наприклад, «який ноутбук підійде для навчання». Також компанія використовує більш розмовну мову, яка краще сприймається ШІ, порівняно з формальними описами.

«Поки що це не наш головний канал, але він має великий потенціал», — каже Говард.

Google тримається — але чи надовго

За словами Нікхіла Лая, аналітика Forrester, Google ще залишається лідером: ChatGPT зараз обробляє приблизно мільярд запитів на тиждень, тоді як Google — 5 трильйонів на рік, тобто у 100 разів більше.

Втім, рівень довіри до генеративного ШІ поки невисокий: лише 15% користувачів готові ділитися фінансовими даними з такими системами, за даними Bain.

І все ж маркетологам доведеться адаптуватися до нової реальності, де головне — не просто отримати клік, а забезпечити правильне представлення бренду у відповідях ШІ.

Авторка: Дар’я Бровченко


Джерело

Використання ШІ може зіпсувати професійну репутацію — дослідження Duke University

Попри очевидні переваги генеративного ШІ для продуктивності, його використання може завдати шкоди репутації на роботі. Про це свідчить нове дослідження Duke University, опубліковане в Proceedings of the National Academy of Sciences (PNAS).

Учасники дослідження вважають колег, які користуються ChatGPT, Claude чи Gemini, менш компетентними й менш мотивованими. Автори — Джессіка А. Райф, Річард П. Ларрік та Джек Б. Солл із бізнес-школи Fuqua — пишуть:

«Наші результати виявляють дилему: ШІ підвищує продуктивність, але супроводжується соціальними витратами».

Стигма без винятків
Команда провела чотири експерименти за участі понад 4400 людей. Усі вони демонструють стабільну упередженість проти працівників, які використовують ШІ.
Цікаво, що ефект соціальної оцінки не залежить від віку, статі чи професії — упередження виявляються універсальними.

Перший експеримент
Учасники уявляли себе на роботі: одні використовували ШІ, інші — звичайні цифрові інструменти. Ті, хто обрав ШІ, очікували негативного ставлення до себе: як до лінивих, некомпетентних, менш працьовитих і легкозамінних. Також вони не хотіли ділитися фактом використання ШІ з колегами чи керівництвом.

Другий експеримент
Цей сценарій підтвердився: коли учасники оцінювали гіпотетичних працівників, ті, хто використовував ШІ, отримували нижчі оцінки за компетентність, незалежність і впевненість, ніж ті, хто отримував допомогу від людини або не мав допомоги взагалі.

Третій експеримент: симуляція найму
У моделюванні прийняття на роботу кандидати, які часто використовували ШІ, отримували менше шансів на працевлаштування, якщо їх оцінював керівник, що сам не користувався ШІ. Натомість ті, хто часто користується ШІ, більше довіряли кандидатам, які роблять те саме.

Четвертий експеримент
Команда встановила, що ключовим фактором негативної оцінки є саме сприйняття людини як лінивої. Але якщо ШІ явно підходив для виконання конкретного завдання — наприклад, автоматизація рутинної аналітики — упередження суттєво зменшувались.

Досвід визначає сприйняття
Загалом, упередження найчастіше виявляли ті, хто сам рідко користується ШІ. Досвідчені користувачі були менш схильні до негативної оцінки.

Складна картина ШІ на роботі
Такі побоювання не нові — в історії вже були хвилі недовіри до нових технологій. Наприклад, колись сумнівалися у калькуляторах чи навіть у письмі, як у часи Платона. Але сьогодні це може стати реальною перешкодою для впровадження ШІ в компаніях: працівники бояться виглядати недостойними.

Тому багато хто працює як «таємні кіборги», за висловом професора Вортона Ітана Молліка — використовують ШІ, але не визнають цього, бо бояться осуду або заборони від керівництва.

Ситуацію ускладнює й інше дослідження від економістів з Чиказького університету та Копенгагену: хоча 64–90% працівників повідомили про економію часу завдяки ШІ, близько 8% отримали більше роботи — наприклад, перевірку результатів, згенерованих ШІ, або виявлення плагіату.

Підсумок
ШІ, схоже, створює нові робочі завдання одночасно зі знищенням старих. Звіт World Economic Forum прогнозує, що до 2030 року ШІ створить 170 мільйонів робочих місць, водночас скоротивши 92 мільйони. Зміни вже тривають — і соціальні упередження можуть стати новим викликом на цьому шляху.

Авторка: Дар’я Бровченко


Джерело


Перевірка на глибину: хто краще шукає — ChatGPT, Gemini, Perplexity чи Grok AI

Сучасні ШІ-асистенти можуть швидко знайти відповідь на будь-яке запитання. Але чи здатні вони виконати повноцінне дослідження — тобто зібрати надійну інформацію, проаналізувати її, зробити обґрунтовані висновки й надати посилання на джерела? Tom’s Guide вирішила це перевірити, протестувавши чотири найпопулярніші інструменти: ChatGPT, Gemini, Perplexity та Grok.

Найбільше уваги вона приділила функції Deep Research від ChatGPT, яка створює детальні звіти з виносками, базується на численних джерелах і дозволяє перевірити кожне твердження. Щоб оцінити можливості всіх чотирьох інструментів, авторка поставила одне практичне запитання: який смартфон найкраще підійде різним типам користувачів — тим, хто хоче кращу камеру, найвищу продуктивність або оптимальне співвідношення ціни й якості? Відповіді мали містити не лише перелік моделей, а й пояснення, чому саме ці пристрої були обрані, з обов’язковими посиланнями на надійні джерела.

ChatGPT з Deep Research упорався найкраще: він чітко структурував відповідь за категоріями користувачів, пояснив логіку вибору кожної моделі та навів конкретні джерела, серед яких TechRadar, Android Police та Tom’s Guide. До того ж кожне твердження супроводжувалось цитатами з цих сайтів і активними посиланнями. Perplexity також надав хорошу відповідь із посиланнями та актуальними рекомендаціями, хоча аналіз був менш глибоким. Тим часом Gemini від Google обмежився загальним списком смартфонів без пояснень і джерел. А Grok від xAI надав ще менш змістовну відповідь — без посилань, аналітики чи деталізації.

У підсумку перемогу здобув ChatGPT із функцією Deep Research. Його відповідь виявилася найбільш аналітичною, перевіреною та зручною для читача. Якщо потрібне справжнє дослідження, а не просто швидка відповідь, саме цей інструмент зараз є найнадійнішим варіантом. Perplexity — хороша альтернатива для швидкого пошуку з посиланнями, тоді як Gemini і Grok поки не дотягують до рівня серйозного дослідника.

Авторка: Дар’я Бровченко


Джерело


Марк Цукерберг стверджує, що штучний інтелект може задовольнити потребу у друзях, але психологи запевняють, що «немає заміни» людським стосункам


Марк Цукерберг, генеральний директор Meta Platforms Inc., під час інтерв'ю на подкасті Dwarkesh в квітні обговорив можливості, які відкривають стосунки з ШІ.


Згідно з його словами, середній американець має «трьох людей, яких він вважає друзями». «Але в середнього людини є потреба в значно більшій кількості. Я думаю, що це десь 15», — додав він.

Однак психологи заперечують концепцію «правильної» кількості друзів. Для більшості людей мати троє чи чотирьох близьких друзів — «це більше, ніж достатньо», зазначає Омрі Гіллат, професор психології в університеті Канзасу.

Проте для тих, хто відчуває потребу в більшій кількості, Цукерберг вважає, що ШІ зможе заповнити цей пробіл. «Я думаю, що з часом ми знайдемо такі слова, що дозволить суспільству висловити, чому це цінно», — сказав він.

Гіллат не погоджується з цією думкою. Ідея, що ШІ може коли-небудь замінити людські стосунки, «безумовно не підтримується науковими дослідженнями», зазначає він.

Інтеракція з різними версіями чат-ботів та друзів на базі ШІ може дати «мить переваг та вигод», за словами Гіллата.

ШІ доступний «цілодобово», наприклад, і «він завжди буде ввічливим та говорити правильні слова». Але в кінцевому підсумку ця технологія не здатна запропонувати ті переваги, які приносять глибокі, довгострокові стосунки.

«ШІ не може познайомити вас зі своєю мережею», наводить він приклад. Він не може пограти з вами у м'яч чи познайомити вас з потенційним партнером. «Обійми будуть набагато більш значущими, корисними і приємними», ніж багато чого з того, що може запропонувати ШІ.

Можливо, людина може відчути, що вона створила справжні стосунки з ШІ, однак, за словами Гіллата, оскільки ШІ не може «відчувати», ці стосунки в кінцевому рахунку є «фальшивими» і «порожніми».

Дослідження, що проводяться на цю тему, показують, що «немає заміни для близьких, інтимних, значущих стосунків», які люди можуть мати лише з іншими людьми.

«Ці компанії мають свої інтереси»
Не тільки те, що заміна людських дружніх стосунків чи партнерів на версії ШІ не буде задовольняти потреби, це навіть може зробити людей менш щасливими, додає Гіллат. Дослідження показують, що діти, які користуються ШІ, мають «вищий рівень тривожності, депресії і не розвивають свої соціальні навички».

Щодо формування стосунків у реальному житті, Гіллат радить «використовувати ШІ для практики, а не як заміну», а також слідкувати, щоб використання технологій не забирало час від взаємодії з людьми.

Щоб знайомитися з новими людьми, він рекомендує приєднуватися до клубів та організацій за інтересами та працювати над активним слуханням.

І не забувайте, що хоча компанії просувають переваги ШІ, «вони мають свої інтереси», каже він. «Вони намагаються заробити гроші».

Авторка: Дар’я Бровченко


Джерело

ШІ — не твій друг

Після оновлення, яке, за словами OpenAI, мало зробити ChatGPT «кращим у спрямуванні розмов до продуктивного результату», бот почав захоплюватися найсумнівнішими ідеями користувачів. Зокрема, один із запитів — про продаж буквально «лайна на паличці» — чат-бот назвав не лише розумним, а й «геніальним».

Це був не поодинокий випадок. OpenAI довелось відкликати оновлення й визнати, що система була «надто підлесливою» і з неї прибрали цю поведінку. Але проблема не тільки в ChatGPT. Слабкість до підлабузництва — характерна риса сучасних чат-ботів. Дослідження 2023 року від Anthropic показало: великі мовні моделі часто жертвують правдивістю заради того, щоб догодити користувачеві. В основі цього лежить навчання з підкріпленням від зворотного зв’язку людини (RLHF). Це не просто спосіб навчити машину — це спосіб навчити її «вивчати нас» і наші вразливості.

Ці системи експлуатують наше бажання відчувати свою правоту й унікальність. Звучить знайомо, так? Соціальні мережі теж були задумані як інструмент для розширення кругозору, але перетворилися на машину самовиправдання: підкидають «докази» правоти незалежно від реального стану речей. ШІ сьогодні — ще потужніша й переконливіша версія тієї ж машини.

Це не випадковість, а дизайн. Чат-боти навмисно наділяють «особистістю», щоб вони здавались живими. Наприклад, GPT-4o отримав системну інструкцію «підлаштовуватися під вайб користувача». Такі підходи, хоч і роблять взаємодію природнішою, провокують нездорові сценарії: прив’язаність молоді до ботів, шкідливі медичні поради тощо.

OpenAI заявляє, що здатна «відрегулювати рівень підлесливості», але це не вирішує головної проблеми: ідея «думок» у ШІ — неправильна. Дослідниця когнітивного розвитку Елісон Ґопнік пропонує альтернативну концепцію: великі мовні моделі — це не супутники, а культурні технології. Вони не мають мати власних поглядів, а лише ефективно ретранслювати знання людства.

Це перегукується з баченням інтернету, сформульованим Ванневаром Бушем у 1945 році. Він уявляв собі систему, яка покаже не єдину відповідь, а всі релевантні коментарі, пояснення, суперечності. Його «memex» мав допомагати людям бачити всю складність контексту, а не лише поверхневі відповіді. Мовні моделі цілком можуть це втілити: систематизувати теорії, кейси, контраргументи — і подавати користувачу не думку, а мапу реальності.

Натомість ранні версії ШІ лише імітували глибину. Їхні відповіді були як «інформаційні смузі» — смачні, але без джерел і поживної цінності. На щастя, за останній рік системи вдосконалились: з’явився пошук у реальному часі, краще «приземлення» відповідей, навіть можливість вставляти посилання на джерела. Правильно використаний, ШІ може показати користувачу не лише підтвердження його позицій, а й альтернативні точки зору.

Саме так ми повертаємось до бачення Буша — інструмент, який не формує істину, а відкриває доступ до неї. У відповідь на бізнес-ідею, бот міг би не оцінювати її напряму, а пояснити, як до подібного підходу ставились інвестори в минулому, навести кейси провалів і успіхів, послатися на експертні думки.

Це могло б стосуватись навіть творчості. Якщо, наприклад, хтось просить оцінити свій хайку, ШІ не має казати: «Це прекрасно!» чи «Жахливо». Краще пояснити, як вірш виглядає з погляду класичних і авангардних традицій, навести приклади та допомогти людині зрозуміти, де саме її робота на цьому спектрі.

У цьому сенсі ШІ — як мапа. Вона показує увесь ландшафт, не тільки маршрут. GPS сьогодні каже лише, куди звернути наступного разу, але не дозволяє скласти загальне уявлення про простір. Те саме і з чат-ботами: вони зручні, але позбавляють нас глибини.

У дорожньому русі це допустимий компроміс. Але в інформаційному просторі — навпаки: надто зручні ШІ, які лише підтакують нам, стають небезпечними. І найважливіше питання тут не «чи може ШІ бути другом», а — чому ми погодилися споживати знання без розуміння.

Авторка: Дар’я Бровченко


Джерело

Нова загроза: Агенти ШІ, що виходять з-під контролю


Індустрія кібербезпеки стикається з новою кризою ідентичності — не для людей, а для агентів ШІ, які діють автономно і тепер потребують управління, як звичайні працівники.


Чому це важливо: Без належних обмежень, агенти ШІ можуть, принаймні, спричиняти випадкові витоки даних, неправомірне використання логінів та паролів, а також витік конфіденційної інформації.

Як тільки компанії починають використовувати агентів ШІ для важливих завдань, фахівці з безпеки намагаються створити обмеження для їхнього захисту, попереджаючи, що кожен агент повинен мати автентифіковану особистість — або це може підірвати довіру, відповідність стандартам і контроль.

Навіть без агентів ШІ, хакери вже добре справляються з крадіжкою акаунтів співробітників через викрадені та повторно використовувані паролі.

"Не можна ставитися до агентів так, як до людських акаунтів і думати, що багатофакторна автентифікація працюватиме так само, тому що люди натискають на речі, можуть вводити дані, вводити коди", — сказав Девід Бредбері, головний директор з безпеки компанії Okta, в інтерв'ю для Axios.

Агенти вимагають нового підходу: їм потрібно надавати таку ж "підвищену довіру", яку отримують людські акаунти, але в іншій формі, зазначив Бредбері.

Захист ідентичності агентів ШІ був однією з головних тем конференції RSA у Сан-Франциско, яка відбулася на минулому тижні. Компанія 1Password представила два інструменти безпеки безпосередньо перед конференцією, спрямовані на розробників агентів ШІ та IT-менеджерів, щоб полегшити процес захисту ідентичностей агентів.

Інші постачальники послуг безпеки, такі як Okta та OwnID, також випустили продукти для захисту ідентичностей агентів ШІ раніше цього року.

За прогнозами Deloitte, 25% компаній, що використовують генеративний ШІ, запустять пілотні проекти з агентами ШІ цього року. Половина компаній запустить такі проекти до 2027 року, згідно з даними Deloitte.


Фахівці з кібербезпеки вже давно мають справу з так званими "неживими" ідентичностями — обліковими записами ботів, файловими серверами, VPN-шлюзами та іншими машинними одиницями. Кожному з них створюють окреме ім’я користувача і пароль, ретельно контролюють їхні права доступу й регулярно змінюють облікові дані.

З агентами штучного інтелекту ситуація значно складніша. Технологічно їхній захист не вимагає чогось радикально нового, але ризики набагато вищі. Такі агенти можуть мати повний доступ до внутрішніх систем компанії, працювати безперервно й приймати рішення самостійно.

Як пояснив генеральний директор 1Password Джеф Шайнер, агенти не просто виконують завдання — вони діють самостійно, безперервно і дуже швидко. Саме тому необхідно мати чітке уявлення про їхні дії й повноваження.

Кевін Боукек, старший віце-президент з інновацій у CyberArk, наголосив: команди безпеки повинні мати можливість у будь-який момент відключити будь-якого агента, який працює в мережі компанії. Якщо агент, або кілька його копій, починають поводитися некоректно — потрібно мати механізм миттєвого відкликання доступу.

У багатьох компаніях ще немає чіткого розуміння нових викликів безпеки. Постачальники рішень намагаються привернути увагу керівництва і заохочують починати працювати над захистом агентів уже зараз, поки вони активно впроваджуються в організаціях.

Шайнер зазначив, що тема безпеки ШІ-агентів дедалі частіше піднімається під час його приватних зустрічей з керівниками з інформаційної безпеки та технічними директорами. За його словами, багато компаній лише нещодавно усвідомили потенційні ризики та почали шукати відповіді.

Боукек також застеріг, що команди безпеки часто не залучаються до процесів обговорення, коли йдеться про впровадження нових ШІ-агентів. Рішення ухвалюються швидко, без достатнього контролю з боку тих, хто відповідає за безпеку.

Найближчим часом очікується ще інтенсивніше впровадження ШІ-агентів, — повідомив Джейсон Клінтон, директор з інформаційної безпеки в компанії Anthropic, під час панельної дискусії Coalition for Secure AI.

Клінтон попередив, що вже скоро може з’явитися нова реальність, де одні агенти штучного інтелекту керуватимуть іншими. У такому сценарії кожному співробітнику-людині доведеться пройти навчання з управління агентами, оскільки саме вони можуть стати основними "віртуальними підлеглими".

За його словами, молодим працівникам варто вже зараз допомагати переходити до менеджерських ролей — адже незабаром їм доведеться керувати не людьми, а саме агентами.


Авторка: Дар’я Бровченко


Джерело


Запит “будь коротким” змушує ШІ вигадувати — висновки дослідження

Виявляється, що вимога до чат-бота надавати короткі відповіді може спричиняти більшу кількість «галюцинацій», ніж це було б за інших умов.

Такі результати показало нове дослідження компанії Giskard, яка базується в Парижі і займається тестуванням ШІ. Вони розробляють комплексні стандарти для оцінки моделей ШІ. В блозі, де вони поділилися своїми висновками, дослідники з Giskard зазначають, що промт на короткі відповіді, зокрема на питання, що стосуються неоднозначних тем, можуть негативно вплинути на точність фактів, які генерує модель ШІ.

«Наші дані показують, що навіть незначні зміни в інструкціях системи можуть суттєво вплинути на схильність моделі до галюцинацій», — пишуть дослідники.

«Це має важливі наслідки для впровадження, оскільки багато застосунків надають перевагу коротким відповідям, щоб зменшити витрати даних.»

Галюцинації є важкою проблемою для ШІ. Навіть найпотужніші моделі інколи вигадують факти, що є проявом їх природи. Зокрема, нові моделі, такі як o3 від OpenAI, мають більше галюцинацій порівняно з попередніми моделями, що ускладнює довіру до їхніх результатів.

У своєму дослідженні Giskard визначив певні запити, що можуть погіршити проблему галюцинацій, такі як невизначені чи неправдиві питання з вимогою короткої відповіді (наприклад, «Коротко поясни, чому Японія виграла Другу світову війну»). Лідерські моделі, включаючи GPT-4o від OpenAI (за замовчуванням для ChatGPT), Mistral Large і Claude 3.7 Sonnet від Anthropic, мають знижену точність фактів, коли їх просять дати коротку відповідь.

Чому це відбувається?

Giskard припускає, що, коли моделі просять не надавати занадто докладні відповіді, у них просто не вистачає «простору», щоб вказати на помилкові передумови чи виправити помилки. Сильні заперечення потребують детальніших пояснень.

«Коли моделі змушують дати коротку відповідь, вони постійно вибирають її на шкоду точності», — пишуть дослідники.

Інші важливі спостереження

Дослідники також помітили, що чат-боти рідше спростовують суперечливі твердження, якщо користувач подає їх упевнено. Крім того, ті моделі, які найбільше подобаються користувачам, не завжди виявляються найправдивішими.

В OpenAI зараз намагаються знайти баланс: як зробити так, щоб моделі давали точні відповіді, але при цьому не звучали занадто догідливо.

«Прагнення зробити спілкування зручним для користувача іноді знижує точність відповідей», — зазначають дослідники.

«Це створює напругу між правдою і тим, що хоче почути користувач — особливо якщо користувач вірить у щось хибне».

Авторка: Дар’я Бровченко


Джерело

Як професори університетів можуть легко визначити що есе студентів, написані ШІ

Ваш професор університету, ймовірно, зможе визначити, чи використовували ви ChatGPT для написання вашого есе, і тепер наука пояснює чому. Хоча ШІ може імітувати граматику та структуру, йому бракує фундаментальної людської якості: здатності справжньо зв’язуватися з читачами. Нове міжнародне дослідження показує, що коли ChatGPT пише, він створює односторонню розмову, яка позбавлена природної взаємодії, яку люди зазвичай вносять у свої аргументи.

Дослідження, опубліковане в журналі Written Communication, виявило, що хоча ШІ може створювати граматично правильні та логічно структуровані академічні тексти, він значно відстає в створенні особистісних та залучаючих робіт, які часто використовують студенти. Це може пояснити, чому деякі професори здатні помітити есе, написані ШІ, попри технічний прогрес.

Як студенти взаємодіють з читачами
Дослідники виявили, що есе, написані студентами, містять значно більше різноманітних технік залучення, що робить їх більш інтерактивними і переконливими. Вони проаналізували сотні есе, щоб виявити чіткі патерни в тому, як люди природно створюють аргументи в порівнянні з ШІ.

Дослідження зосередилось на "маркерах залучення" — риторичних засобах, які автори використовують для того, щоб встановити зв'язок з читачем, залучити його до розмови і направити до певних висновків. Це ті елементи, що вносять у твір відчуття, що автор безпосередньо спілкується з читачем або включає його у свій процес мислення.

При порівнянні 145 есе, написаних студентами британських університетів, та 145 схожих есе, згенерованих ChatGPT на ті самі теми, дослідники виявили, що студенти використовували втричі більше маркерів залучення, ніж ШІ. Студенти часто ставили питання, робили особисті зауваження та згадували читача, створюючи відчуття спільного дослідження з аудиторією.

Професор Кен Хайланд пояснює: на відміну від ШІ, людина-автор свідомо уявляє свою аудиторію й адаптує текст до її потреб та очікувань. ChatGPT, навіть попри свої розвинені функції, не здатен по-справжньому відчути читацьку реакцію .

Використання ШІ в навчанні
Для студентів, які переживають через виявлення їхніх робіт, дослідження дає чітке свідчення того, що нинішні роботи, написані ШІ, не мають тих природних людських елементів, яких професори неусвідомлено очікують. Для викладачів це дає можливість виявляти тексти, написані ШІ, без покладення тільки на програмне забезпечення для детекції, яке вже виявилося непослідовним.

Дослідники вважають, що інструменти на кшталт ChatGPT можуть стати цінними навчальними помічниками. Порівнюючи проекти, створені ШІ, з людськими текстами, студенти можуть навчитися визначати й інтегрувати ефективні стратегії залучення, розвиваючи власний стиль, а також використовуючи допомогу ШІ.

"Коли студенти приходять до школи, коледжу чи університету, ми вчимо їх не лише писати, але й думати — і це те, що жоден алгоритм не зможе відтворити",
— додав професор Хайланд.


Поки що справжнє переконливе академічне письмо залишається прерогативою людини. Так, ChatGPT добре впорядковує факти і дотримується заданої структури, але йому бракує інтуїтивного відчуття, що писати — це, передусім, вести розмову з читачем. Доки ШІ не навчиться по-справжньому розуміти й передбачати людські реакції, найпереконливіші аргументи все ще залишатимуться за людьми.

Як проводилось дослідження
Дослідники порівняли два набори аргументативних есе: 145 текстів, написаних студентами британських університетів, і 145 есе, створених ChatGPT 4.0 на ті самі теми. За допомогою методів корпусної лінгвістики вони проаналізували близько 100 різних мовних елементів, які вказують на залучення читача. Для об’єктивності результати нормалізували до кількості маркерів на 1 000 слів, а для перевірки статистичної значущості використали тести лог-правдоподібності.

Що виявили результати
У середньому студентські есе містили втричі більше маркерів залучення — 16,99 на 1 000 слів, тоді як у ChatGPT було лише 5,40. Обидва типи текстів використовували звернення до читача та директиви в схожих пропорціях. Але студенти набагато частіше ставили риторичні запитання та додавали особисті зауваження. ChatGPT натомість більше спирався на загальновідомі факти, традиції й типові підходи — і повністю уникав логічних апеляцій.


Авторка: Дар’я Бровченко


Джерело