У травні 2025 року пост на Reddit із провокативною назвою «Чи я мудак за те, що розповіла нареченому коханки мого чоловіка про їхній зв’язок?» миттєво зібрав понад 6 200 вподобань і майже 1 000 коментарів. Публікація опинилася на головній сторінці трендів. Але є одне «але»: дуже ймовірно, що написала її нейромережа.
Пост був перенасичений клішованими фразами (на кшталт «родина мого чоловіка у люті»), дивною кількістю лапок і нереалістичним сюжетом, який скоріше мав викликати обурення, ніж описувати реальну ситуацію. Модератори Reddit згодом видалили публікацію, але користувачі продовжують обурюватися стрімким поширенням такого контенту.
Цей приклад — класичне прояви так званого “AI slop”: дешевий, неякісний вміст, створений штучним інтелектом. Його масово генерують — від невеликих інфлюенсерів до політичних кампаній.
Інтернет захоплює штучне сміття
За оцінками, понад половину довгих англомовних постів на LinkedIn вже пише ШІ. У відповідь на це представник компанії LinkedIn Адам Валькевич заявив журналістам Wired, що платформа має «надійні системи для виявлення неякісного або дубльованого контенту» і вживає заходів проти його поширення. Та незважаючи на зусилля, соцмережі й надалі заповнює маса низькопробних матеріалів — від текстів до згенерованих зображень.
Згідно з дослідженням Центру передового досвіду StratCom НАТО, ще у 2023 році за €10 можна було купити десятки тисяч фейкових вподобань, переглядів і сотні ШІ-коментарів на будь-якій великій платформі.
Візуальні маніпуляції і “контент-зажерливість”
Зображення, створені нейромережами, часто мають чітку мету — збирати максимум лайків, коментарів і репостів. Такі публікації — це "clickbait" у новому виконанні, або ж “engagement bait” — пастка для уваги, яка не має жодної цінності, але активно просувається алгоритмами.
Навіть якщо ви не підписані на сумнівні акаунти, система все одно може рекомендувати такі пости — від фото немовлят у капусті до фейкових історій про «доброчинні акції». Багато з цих сторінок згодом продаються заради прибутку.
Meta, материнська компанія Facebook, заявила в квітні, що бореться з “спамним” контентом, що маніпулює алгоритмом. Проте чіткої згадки про ШІ-контент не було. Іронічно, що сама Meta певний час використовувала ШІ-генеровані профілі, які згодом довелося видалити.
Загроза для демократії
Масове виробництво такого вмісту може мати реальні наслідки для політичної комунікації. Вартість створення фейкових постів — мінімальна, а переконливість — зростає. Напередодні виборів у США 2024 року дослідники виявили масштабну кампанію на користь республіканців. Але подібні маніпуляції застосовують усі політичні сили — незалежно від ідеології.
До гри долучаються й авторитарні режими. Китай, Іран — активно інвестують у ШІ-кампанії, щоб впливати на вибори по всьому демократичному світу. Ефективність таких втручань досі викликає суперечки: одні дослідження вказують на їхню неефективність, інші — на прямий вплив на рейтинги.
Навіть позаполітичний AI-контент має свій ефект — у такому потоці стає дедалі важче знайти достовірні джерела й перевірену журналістику.
А як щодо науки?
Не завжди і науковці дотримуються етики. У Цюрихському університеті команда дослідників створила ботоферму для експерименту на Reddit — без погодження з модераторами. Юридичний відділ платформи вже розглядає можливість подати позов, зазначаючи, що «поведінка науковців була глибоко аморальною та юридично сумнівною».
Що робити?
На жаль, простих рішень поки немає. Навіть інструменти, створені для виявлення ботів (як-от Botometer), не справляються з новими формами маскування. Особливо складно виявляти фейки у коротких формах — коментарях, репліках, картинках. Технології створення ШІ-сміття щодня вдосконалюються.
Соцмережі починають втрачати користувачів — ті йдуть до закритих спільнот. Але це теж має наслідки: ще більша фрагментація суспільства, ще глибша поляризація думок.
Платформи намагаються втримати аудиторію, але схоже, що готові нав’язувати стільки AI-контенту, скільки публіка здатна витримати.
Можливі технічні рішення — маркування ШІ-вмісту, покращення систем виявлення ботів, законодавчі зобов’язання розкривати походження контенту. Але ефективність таких заходів поки що не підтверджена.
Дослідники лише починають усвідомлювати масштаб проблеми. І найприкріше — якщо людство захлинеться в AI-смітті, то слідом за ним потоне і сам штучний інтелект. Бо нейромережі вчаться на контенті з мережі, й якщо він — суцільне сміття, то й результат буде відповідний.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.