понеділок, 19 травня 2025 р.

Фактчек за секунду — чи можна довіряти ШІ в боротьбі з фейками?

Використання чатботів на базі штучного інтелекту (ШІ) для швидких фактчеків стрімко зростає. Але суперечливі заяви Grok про «білі геноциди» показують, що відповіді Grok, ChatGPT, Meta AI та інших ботів не завжди можна вважати надійними.

Після запуску в листопаді 2023 року чатбота Grok від Elon Musk і відкриття доступу для всіх користувачів X (колишній Twitter) у грудні 2024 року, тисячі користувачів звертаються до нього з питаннями на кшталт «@Grok, це правда?», щоб миттєво перевірити інформацію.

За результатами опитування британського технічного видання TechRadar, 27% американців вже користуються ШІ-інструментами на кшталт ChatGPT (OpenAI), Meta AI, Gemini (Google), Copilot (Microsoft) чи Perplexity замість класичних пошуковиків Google чи Yahoo.

Але наскільки ж ці відповіді точні й надійні? Особливо це питання загострилось після того, як Grok почав просувати тему «білого геноциду» в Південній Африці — і робив це навіть тоді, коли його питали про інші теми, наприклад, HBO.

У соцмережах це викликало обурення: користувачі отримували непотрібні і суперечливі відповіді. xAI пояснили, що це сталося через «несанкціоновані зміни» в роботі Grok і провели ретельне розслідування. Але чи такі помилки — рідкість? Чи можна покладатися на чатботів у фактчеку?

Дослідження виявили суттєві помилки й перекручування фактів

Дві серйозні роботи — від британського BBC і американського Tow Center for Digital Journalism — показали масштаб проблем із точністю ШІ-чатботів у передачі новин.

У лютому BBC виявило, що 51% відповідей чатботів (ChatGPT, Copilot, Gemini, Perplexity), основаних на матеріалах BBC, містили «серйозні неточності». 19% відповідей містили власні фактичні помилки, а 13% цитат були змінені або відсутні.

Pete Archer, директор програми Generative AI у BBC, констатував:
«Наразі на ШІ не можна покладатися як на точне джерело новин, вони можуть вводити в оману аудиторію.»

«Тривожна впевненість» — небезпека неправдивих відповідей

У березні дослідження Tow Center опублікували в Columbia Journalism Review: 8 ШІ-інструментів помилялися у визначенні джерела матеріалів у 60% випадків.

Перфлексіті показала найкращий результат — 37% помилок, а Grok — аж 94% неправильних відповідей.

Окремо підкреслювалась «тривожна впевненість» ботів у своїх помилках. ChatGPT, наприклад, помилково ідентифікував 134 статті, але сумнівів у своїй відповіді висловлював лише 15 разів із 200 і ніколи не відмовлявся відповідати.

Загалом боти часто не відмовляються відповідати, якщо не впевнені, і замість цього вигадують чи спекулюють.

Від чого залежить якість відповідей ШІ?

Джерела інформації — база для ШІ. Чим якісніша «дієта» даних, тим краща відповідь. Якщо в навчальні бази потрапляє дезінформація або пропаганда, це призводить до відповідних помилок.

Томмазо Канетта, заступник директора італійського проєкту фактчекінгу Pagella Politica, зазначає:
«Якщо джерела недостовірні — відповіді теж будуть неточними, неповними чи навіть хибними.»

Власник Grok, Ілон Маск, відомий підтримкою Дональда Трампа, тому існує ризик політичного контролю за «дієтою» ШІ.

Проблеми з розпізнаванням штучних зображень

DW провела експеримент із Grok, попросивши ідентифікувати дату й місце зображення пожежі в літаковому ангарі. Grok плутав локації та припускав, що фото — реальне, хоча воно було згенероване штучним інтелектом із очевидними помилками.

Так само Grok визнав справжнім відео з «гігантською анакондою» у басейні Амазонки, яке було штучно згенероване.

Висновок експертів: AI — це не інструмент для фактчеку

Фелікс Саймон (Оксфордський інтернет-інститут):
«Grok, Meta AI, ChatGPT не повинні розглядатися як інструменти фактчеку. Вони можуть допомогти, але невідомо, наскільки добре і стабільно вони це роблять, особливо в нестандартних випадках.»

Томмазо Канетта:

«ШІ може бути корисним для простих фактчеків, але довіряти йому повністю не варто. Користувачі мають завжди перевіряти відповіді з інших джерел.»

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.