пʼятниця, 4 липня 2025 р.

Проросійська дезінформація підсилюється безкоштовними AI-інструментами


Безкоштовні AI-інструменти для звичайних користувачів посилили проросійську дезінформацію — росте кількість фейкових фото, відео, QR-кодів і підроблених сайтів. Нова хвиля проросійської дезінформації, відома під різними назвами — Operation Overload, Matryoshka і Storm-1679, почала використовувати доступні онлайн AI-інструменти, щоб збільшити обсяг фейкового контенту та розпалити напругу навколо виборів, війни в Україні, міграцій і інших суперечливих тем. Кампанія діє з 2023 року і, за оцінками Microsoft та Інституту стратегічного діалогу, пов’язана з російським урядом. Її мета — сіяти розбрат у демократичних країнах, головна аудиторія — Україна. Сотні відео, змонтованих із допомогою AI, просувають проросійські наративи.

Між вереснем 2024 і травнем 2025 кількість контенту від кампанії зросла — мільйони переглядів по світу. З липня 2023 по червень 2024 зафіксували 230 унікальних матеріалів — фото, відео, QR-коди, фейкові сайти. За останні вісім місяців Operation Overload створила 587 одиниць контенту, більшість — за допомогою безкоштовних AI-інструментів. Це стало можливим через масштабування виробництва контенту — операція «контентного амальгамації» означає видачу багатьох матеріалів із однією історією. «Це свідчить про перехід до масштабнішої, багатомовної і складнішої пропаганди», — кажуть дослідники з Reset Tech і Check First. «Кампанія збільшила виробництво контенту, сигналізуючи про перехід до швидших і масштабованих методів».

Дослідники були вражені різноманітністю інструментів та форм контенту. «Мене здивувала кількість і типи контенту. Вони розширили палітру, щоб охопити якомога більше кутів подачі історій. Накладають різні типи матеріалів один на один», — пояснює Олександра Атанасова. Кампанія не створює кастомних AI-моделей, а користується доступними всім генераторами голосу та зображень на основі штучного інтелекту.

Хоча визначити всі інструменти складно, виділили Flux AI, текстово-візуальний генератор від німецької компанії Black Forest Labs. За допомогою SightEngine вони виявили 99% ймовірності, що частина фейкових фото — наприклад, кадри з мусульманськими мігрантами, які нібито бунтують у Берліні чи Парижі — створені через Flux AI. Це демонструє, як AI може зловживатися для поширення расистських і антиісламських стереотипів. Black Forest Labs заявляють, що впроваджують багаторівневі засоби захисту, співпрацюють із платформами і органами влади для посилення модерації.

Operation Overload застосовує AI-клонування голосу, щоб змінювати зміст відео, ніби відомі особи говорять те, чого не казали. Кількість таких відео зросла з 150 (червень 2023 — липень 2024) до 367 (вересень 2024 — травень 2025). В одному прикладі на платформі X з’явилось відео, де викладачка французького університету Ізабель Бурдон нібито закликає німців до заворушень і голосувати за ультраправу партію AfD. Насправді це змонтоване з офіційного відео, де вона розповідала про наукову нагороду.

Контент поширюють понад 600 каналів Telegram, боти у соцмережах X і Bluesky. Нещодавно фейки з’явилися на TikTok — 13 акаунтів опублікували відео, які переглянули 3 млн разів, поки платформа не видалила акаунти. TikTok активно бореться з такими акаунтами, але Bluesky заблокував 65% фейкових профілів, а X зробив мало, попри численні звернення.

Operation Overload надсилає сотні тисяч листів із прикладами фейків і проханнями перевірити їх достовірність до медіа та фактчекінгових організацій. Для них навіть висвітлення контенту з позначкою “FAKE” — це перемога. З вересня 2024 надіслали близько 170 тис. листів більш ніж 240 отримувачам.

Проросійські дезінформаційні групи давно експериментують із AI. Минулого року CopyCop створювала фейкові сайти, схожі на реальні медіа, і запускала їх через соцмережі, потрапляючи в топ Google. Sunlight Project оцінює, що російські мережі щорічно створюють щонайменше 3 млн AI-генерованих статей, отруюючи результати AI-чатботів, як ChatGPT і Google Gemini. Експерти переконані, що обсяг AI-контенту для дезінформації зростатиме, а розрізнити правду від фейку стане складніше. «У них уже є робоча формула. Вони знають, що роблять», — підсумовує Олександра Атанасова.

Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.