четвер, 15 травня 2025 р.

Захист від дипфейків у епоху штучного інтелекту

Поява генеративного штучного інтелекту докорінно змінила ландшафт кібербезпеки. Зловмисники почали використовувати великі мовні моделі (LLM), щоб імітувати довірених осіб і автоматизувати соціальну інженерію у масштабах, раніше неможливих.

Розглянемо сучасний стан цих загроз, що їх посилює і як реально запобігти цим атакам, а не просто виявляти їх.

Останні звіти з кіберрозвідки вказують на те, що AI-атки стають дедалі складнішими і частішими. За даними CrowdStrike, у другій половині 2024 року кількість голосового фішингу зросла на 442% через застосування AI для генерації підроблених голосів і методів обману. У той же час, звіт Verizon підтверджує, що соціальна інженерія — одна з основних причин витоків даних, а фішинг і вигадані сценарії є ключовими інструментами зловмисників. Крім того, північнокорейські кіберзагрози використовують дипфейк-технології для створення синтетичних особистостей, які проходять онлайн-співбесіди з метою отримання віддаленої роботи і проникнення в організації.

Проблема зростає через поєднання трьох ключових факторів. По-перше, AI робить обман дешевим і масштабованим: з відкритими інструментами для підробки голосу та відео достатньо кількох хвилин матеріалу, щоб імітувати будь-кого. По-друге, віртуальні платформи для співпраці, такі як Zoom, Microsoft Teams чи Slack, за замовчуванням припускають, що учасник за екраном — це саме та особа, якою вона себе називає. Зловмисники користуються цим припущенням для проникнення. По-третє, існуючі засоби захисту базуються на ймовірностях і припущеннях, а не на доказах — інструменти виявлення дипфейків аналізують ознаки на обличчі або поведінці і роблять висновок, але це не дає 100% гарантії в умовах високого ризику.

Навіть навчання користувачів чи застосування програм на пристроях не дають відповіді на найважливіше питання в реальному часі: чи можна довіряти співрозмовнику?

Традиційні технології виявлення, що спираються на ймовірність, вже не справляються з високим рівнем досконалості дипфейків. Щоб справді захиститися, потрібно змінити парадигму — переходити від виявлення до запобігання. Це означає, що лише користувачі з підтвердженою ідентичністю, яка базується на криптографічних методах, мають доступ до важливих нарад і чатів. Також необхідно перевіряти цілісність і відповідність пристроїв політикам безпеки, блокуючи пристрої, які є зараженими або скомпрометованими, навіть якщо особа перевірена. Учасники зустрічей мають бачити чіткий, візуальний доказ того, що кожен співрозмовник є справжньою і безпечною людиною, позбавляючи їх від необхідності самим оцінювати ризики.

Запобігання — це створення умов, за яких імітація стає не просто складною, а неможливою. Саме так блокуються AI-дипфейкові атаки, перш ніж вони потраплять у важливі переговори, фінансові операції або партнерські взаємодії.

Серед прикладів сучасних рішень — продукт RealityCheck від Beyond Identity. Він створений для усунення цього розриву довіри в найпопулярніших інструментах для співпраці. RealityCheck надає кожному учаснику наради перевірений бейдж із криптографічним підтвердженням пристрою і постійною оцінкою ризиків. Наразі він підтримує Zoom і Microsoft Teams (відео та чат). Система підтверджує, що кожен учасник є справжнім і має відповідні повноваження, перевіряє пристрої в реальному часі, навіть якщо вони не перебувають під управлінням IT-відділу, і демонструє візуальний індикатор перевірки для всіх інших учасників.

Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.