четвер, 26 червня 2025 р.

Небезпеки персоналізації на основі ШІ

У першій половині 2025 року одна зі спільнот на Reddit, де користувачі ведуть доброзичливі дебати й запрошують інших переконати їх у зворотному, була непомітно проінфільтрована штучним інтелектом. Як повідомляє The Atlantic, дослідники запустили туди ШІ, щоб перевірити: чи здатна ця технологія створювати настільки переконливі аргументи, що вони змінюють думки реальних людей? Виявилося — здатна.

Особливе обурення викликало те, що іноді ШІ мав доступ до історії онлайн-активності користувачів. Це дозволяло формулювати повідомлення, точно адаптовані під особистість конкретної людини. Такий підхід у психології називається “персоналізованим переконанням”. І хоча в окремих випадках він може бути привабливим — адже хто не хоче отримувати контент, дійсно релевантний до власних інтересів, — розвиток технологій наближає ситуацію, коли персоналізація переходить у зовсім іншу, небезпечну площину.

Ідеться про так звану глибоку персоналізацію (deep tailoring), яка базується не лише на базових уподобаннях, а й на глибокому аналізі внутрішньої психології людини. Це дозволяє ШІ непомітно вбудовуватися в цифрове середовище, поступово вивчаючи цінності, потреби та ідентичність користувача — й використовувати цю інформацію для формування маніпулятивних повідомлень, здатних впливати на переконання та поведінку.

Згідно з сучасними дослідженнями, базова адаптація повідомлень до аудиторії справді може бути ефективною. Проте глибока персоналізація — це вже робота з основами світогляду людини. Повідомлення, які “влучають” у фундаментальні цінності, сприймаються значно переконливіше. Наприклад, одна й та сама політична ідея може бути подана по-різному: для людей із ліберальними поглядами — як така, що сприяє справедливості, а для консервативної аудиторії — як така, що підтримує спільноту та її традиції. І кожен із цих підходів буде працювати, якщо звертатися до відповідної ціннісної системи.

Попри відчуття новизни, ШІ-переконання — не нова ідея. Компанії працюють над такими технологіями вже десятки років. Зокрема, IBM створила “Project Debater” — систему, яка навчалася дебатувати за участі досвідчених людей. У 2019 році ця система перемогла чинного чемпіона світу з дебатів у прямому ефірі.

Сьогодні з появою зручних інструментів — таких як ChatGPT — будь-хто може використовувати ШІ для власних цілей переконання. Дослідження показують, що навіть стандартні повідомлення, згенеровані ШІ, можуть бути не менш переконливими за людські.

Але найгостріше питання: чи здатний ШІ на глибоку персоналізацію в масштабах?

Щоб реалізувати глибоку персоналізацію в масовому форматі, потрібні дві речі. Перше — здатність визначити психологічний профіль людини. Сьогодні вже доведено, що ШІ може з достатньою точністю оцінювати риси особистості за активністю у соцмережах, зокрема у Facebook. І це — лише початок. За словами професорки Колумбійської бізнес-школи Сандри Мац, цифрові сліди — це потужне джерело прогнозування поведінки: “Практично все, що ви намагаєтеся передбачити, можна передбачити з певним ступенем точності”.

Друге — здатність формулювати повідомлення, що максимально відповідають виявленим особистісним рисам. І такі інструменти вже працюють. Наприклад, якщо попросити ШІ створити рекламу для “приземленої, традиційної” людини, результатом буде аргумент, що товар “не буде дорогим, але добре виконає свою функцію”. Така реклама виявляється ефективною саме для цільового типу особистості.

У майбутньому ШІ-системи, що поєднують персоналізовані повідомлення з візуальними дипфейками, фальшивими голосами та динамічними діалогами, лише вдосконалюватимуться. Питання: як захиститися?

Перш за все, варто усвідомлювати, що онлайн-комунікація вже зараз часто є персоналізованою. Якщо повідомлення здається “створеним спеціально для вас” — швидше за все, так воно і є. Навіть якщо здається, що особистих даних у мережі мінімум — кожен клік, пошук, перегляд залишає слід. І, погоджуючись із політиками конфіденційності, користувачі часто несвідомо надають право на використання цих даних рекламодавцям.

Для захисту варто переглянути власну поведінку в мережі, налаштувати конфіденційність, використовувати VPN, а також бути уважним до повідомлень, які здаються “занадто влучними”.

Однак вся відповідальність не може лежати лише на користувачах. Платформи та законодавчі органи мають розглядати впровадження правил, які зобов’язують чітко маркувати персоналізований контент, а також пояснювати, чому саме це повідомлення показано конкретному користувачеві. Дослідження свідчать, що розуміння методів впливу підвищує супротив до маніпуляцій. Також необхідно визначити обмеження щодо типів даних, які можуть використовуватися для персоналізації, — щоб не допустити вторгнення у психологічно глибокі сфери.

Навіть за умови захисту, потенціал таких технологій в руках зловмисників викликає серйозне занепокоєння. Рекомендації товарів на основі історії покупок — це одне. А от використання системи, яка непомітно аналізує особистість людини і перетворює її на мішень для маніпуляцій — зовсім інше.

Комунікаційні технології завжди були інструментами — як для конструктивного, так і для руйнівного впливу. Але саме зараз настав момент обговорити етичні межі використання ШІ в комунікації — поки ситуація не вийшла з-під контролю.

Авторка: Дар’я Бровченко

Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.