вівторок, 4 лютого 2025 р.

Штучний інтелект тепер заборонений в ЄС

З неділі в Європейському Союзі регулятори можуть заборонити використання систем штучного інтелекту, які вони вважають такими, що несуть "неприйнятний ризик" або шкоду.

2 лютого був перший термін виконання вимог для Акту про ШІ ЄС, всеосяжної нормативної бази для регулювання штучного інтелекту, яку Європейський парламент затвердив ще в березні після багаторічної розробки. Акт набув чинності 1 серпня, а тепер настає перший термін виконання вимог.

Конкретні деталі викладені в статті 5, але загалом Акт спрямований на охоплення широкого спектра випадків, де ШІ може бути застосований і взаємодіяти з людьми — від споживчих додатків до фізичних середовищ.

У рамках підходу ЄС існує чотири основні рівні ризику:

  1. Мінімальний ризик (наприклад, фільтри спаму в електронній пошті) не підлягає регуляторному контролю.

  2. Обмежений ризик, до якого входять чат-боти для обслуговування клієнтів, буде регулюватися м'яко.

  3. Високий ризик — наприклад, ШІ для медичних рекомендацій — підлягає суворому регулюванню.

  4. Неприйнятний ризик — саме такі системи ШІ, на яких зосереджено вимоги цього місяця, будуть заборонені повністю.

До неприйнятних застосувань належать:

  • ШІ для соціального оцінювання (наприклад, складання профілів ризику на основі поведінки людини).

  • ШІ, що маніпулює рішеннями людини підсвідомо або обманним шляхом.

  • ШІ, що експлуатує вразливості, такі як вік, інвалідність чи соціально-економічний статус.

  • ШІ, що намагається передбачити злочинні дії людей на основі їх зовнішнього вигляду.

  • ШІ, що використовує біометричні дані для виведення характеристик людини, таких як сексуальна орієнтація.

  • ШІ, що збирає "реальні" біометричні дані в публічних місцях для цілей правоохоронних органів.

  • ШІ, що намагається передбачити емоції людей на роботі чи в школі.

  • ШІ, що створює або розширює бази даних для розпізнавання облич, збираючи зображення в Інтернеті або з камер спостереження.

Компанії, які використовують будь-які з вищезазначених застосувань ШІ в ЄС, будуть підлягати штрафам, незалежно від того, де знаходиться їх головний офіс. Штрафи можуть скласти до 35 мільйонів євро (~36 мільйонів доларів) або 7% від річного доходу за попередній фінансовий рік, залежно від того, що більше.

Проте штрафи набудуть чинності не відразу, зазначив Роб Сумрой, керівник відділу технологій британської юридичної фірми Slaughter and May, в інтерв'ю TechCrunch.

"Очікується, що організації будуть повністю відповідати вимогам до 2 лютого, але... наступний великий термін, про який компаніям слід знати, настає в серпні,"
— сказав Сумрой.
"До того часу ми дізнаємося, хто буде відповідати за компетентність, а штрафи та заходи примусу набудуть чинності."

Попередні зобов'язання

Термін 2 лютого є в деякому сенсі формальністю.

Минулого вересня понад 100 компаній підписали Пакт ШІ ЄС — добровільне зобов'язання почати застосовувати принципи Акту ШІ до його вступу в силу. Серед підписантів — Amazon, Google та OpenAI, які зобов'язалися ідентифікувати системи ШІ, які, ймовірно, будуть класифіковані як високий ризик за Актом ШІ.

Деякі техногіганти, зокрема Meta та Apple, відмовилися підписувати Пакт. Французький стартап Містрал, один з найбільш критичних до Акту ШІ, також не підписав угоду.

Це не означає, що Apple, Meta, Містрал чи інші, хто не підписав Пакт, не виконуватимуть свої зобов'язання, зокрема заборону на неприйнятно ризиковані системи. Сумрой зазначає, що враховуючи характер заборонених випадків, більшість компаній все одно не займуться такими практиками.

"Для організацій важливе питання щодо того, чи з'являться чіткі керівні принципи, стандарти та кодекси поведінки вчасно — і чи забезпечать вони організаціям ясність щодо відповідності вимогам,"  
— сказав Сумрой.
"Однак робочі групи на даний момент виконують свої терміни для розробки кодексу поведінки для розробників."

Можливі винятки

Існують винятки для кількох заборон, передбачених Актом ШІ.

Наприклад, Акт дозволяє правоохоронним органам використовувати певні системи, що збирають біометричні дані в публічних місцях, якщо ці системи допомагають провести "цілеспрямований пошук", наприклад, для пошуку жертви викрадення, або для запобігання "конкретній, значущій та невідкладній" загрозі життю. Цей виняток вимагає дозволу від відповідного органу влади, і Акт наголошує, що правоохоронці не можуть ухвалювати рішення, що "мають негативний правовий ефект" для особи на основі результатів цих систем.

Акт також передбачає винятки для систем, що інтерпретують емоції на роботі чи в школах, коли є "медичне або безпекове" обґрунтування, наприклад, для терапевтичного використання.

Європейська Комісія, виконавчий орган ЄС, повідомив, що додаткові керівні принципи будуть опубліковані "на початку 2025 року" після консультацій з учасниками в листопаді. Однак ці принципи ще не були опубліковані.

Сумрой зазначив, що також неясно, як інші закони можуть взаємодіяти з заборонами та відповідними положеннями Акту ШІ. Чіткість може з'явитися пізніше цього року, коли наблизиться термін застосування штрафів.

"Для організацій важливо пам'ятати, що регулювання ШІ не існує в ізоляції,"

 — сказав Сумрой.

"Інші правові рамки, такі як GDPR, NIS2 та DORA, будуть взаємодіяти з Актом ШІ, що може призвести до певних труднощів — особливо через перекриття вимог до повідомлення про інциденти. Розуміння того, як ці закони взаємодіють, буде так само важливим, як і розуміння самого Акту ШІ."

 Авторка: Дар’я Бровченко

 

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.