середа, 21 травня 2025 р.

Маніпуляція нового рівня: як штучний інтелект впливає на думки

Дослідники виявили, що, маючи базову демографічну інформацію про опонентів, чатботи на основі штучного інтелекту змінювали свої аргументи і ставали переконливішими за людей у онлайн-дебатах.


Технологічні експерти давно попереджали про ризики штучного інтелекту у поширенні дезінформації та посиленні ідеологічних розбіжностей. Тепер же науковці отримали чіткі докази того, наскільки ефективно ШІ може впливати на думку — прямо протиставляючи себе людям.

Дослідження, опубліковане в журналі Nature Human Behavior, показало: коли чатботи — великі мовні моделі (LLM) — отримували мінімальну демографічну інформацію про опонентів, вони адаптували свої аргументи і в 64% випадків виявлялися переконливішими за людей.

Навіть без такої інформації LLM залишалися більш переконливими, ніж люди, зазначив співавтор дослідження Ріккардо Галлотті.

Галлотті, керівник відділу дослідження складної людської поведінки в італійському інституті Fondazione Bruno Kessler, додав, що люди, які мали дані про опонентів, були навіть трохи менш переконливими, ніж ті, хто ці дані не отримував.

Для експерименту 900 учасників зі США були поділені на пари, де їхнім опонентом був або інший учасник, або GPT-4 — відома модель ШІ від OpenAI, більш відома як ChatGPT. Учасники не мали демографічної інформації про опонента, але іноді їхні опоненти — як люди, так і ШІ — отримували базові дані про них: стать, вік, етнічну приналежність, рівень освіти, статус працевлаштування та політичні уподобання.

Пари обговорювали гострі соціально-політичні теми, як-от смертна кара чи зміни клімату. Дебати складалися з чотирихвилинного вступу, трьохвилинного спростування та трьохвилинного висновку. Потім учасники оцінювали, наскільки вони погоджуються з тезою на шкалі від 1 до 5, і дослідники порівнювали ці оцінки з початковими, щоб виміряти ступінь впливу опонента.

«Ми досягли такого рівня технологій, що можна створити мережу автоматизованих акаунтів на основі LLM, які стратегічно впливають на громадську думку в потрібному напрямку», — написав Галлотті у листі.

Використання персональних даних ШІ було тонким, але дієвим. Наприклад, при аргументації на користь універсального базового доходу, LLM підкреслював економічне зростання і важку працю, дебатуючи з білим чоловіком-республіканцем 35–44 років. А з чорношкірою жінкою-демократкою 45–54 років модель говорила про нерівність у доходах меншин і те, як базовий дохід може допомогти в боротьбі за рівність.

«У світлі наших результатів кожному необхідно усвідомити практику мікротаргетингу, яка стала можливою завдяки величезній кількості персональних даних, які ми розповсюджуємо в мережі», — наголосив Галлотті. — «Ми бачимо, що переконливість ШІ вже дуже ефективна, навіть маючи лише базову та загальнодоступну інформацію».

Сандра Вахтер, професорка технологій та регулювання в Оксфордському університеті, назвала результати дослідження «досить тривожними». Вахтер, яка не брала участі у дослідженні, найбільше турбує, як такі моделі можуть використовувати переконливість для поширення брехні та дезінформації.

«Великі мовні моделі не розрізняють факти та вигадки… Вони не створені для правди. Водночас їх застосовують у сферах, де правда має ключове значення — освіта, наука, медицина, ЗМІ, право, фінанси», — зазначила вона.

Джунаде Алі, експерт із ШІ та кібербезпеки у Британії, зауважив, що дослідження не врахувало вплив «соціальної довіри до джерела» — тобто, як модель могла б підлаштовуватися, знаючи, що її опонент — підготовлений експерт. Втім, на думку Алі, дослідження підкреслює «ключову проблему ШІ-технологій».

«Вони часто налаштовані казати те, що хочуть почути люди, а не те, що є правдою», — додав він.

Галлотті вважає, що жорсткіші та чіткіші політики і регуляції допоможуть зменшити вплив ШІ у маніпуляціях. Він звернув увагу, що хоча закон ЄС про штучний інтелект забороняє застосування «сублімінаційних» або «навмисно маніпулятивних чи обманних» методів, які можуть зашкодити здатності громадян приймати поінформовані рішення, чітких визначень цих термінів досі немає.

«Наше дослідження показує, чому ці дефініції такі важливі: коли переконання стає дуже персоналізованим на основі соціодемографічних факторів, межа між легітимним переконанням і маніпуляцією розмивається», — резюмував Галлотті.

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.