Штучний інтелект має величезний потенціал — від спрощення комунікації й креативу до розширення доступу для людей з інвалідністю. Але нещодавній приклад засвідчив, що за зовнішньою ефективністю технології можуть ховатися глибоко вкорінені упередження.
Під час експерименту з генерацією зображень за допомогою AI система створила фотографії, де людина з інвалідністю зображена з двома руками — попри чітку вказівку врахувати особливості зовнішності. Це не випадковість. Це симптом системної проблеми.
Замість того щоб відтворити реальність, алгоритм «виправив» її, підлаштовуючи під уявну «норму». І це — про набагато більше, ніж одну конкретну людину. Це про весь досвід людей з інвалідністю, який постійно стирається — буквально й метафорично — у цифровому середовищі, де інклюзивність не закладена в основу.
У той час як технології мають потенціал руйнувати бар’єри, вони можуть і відтворювати ті самі упередження, що й суспільство. Причина — упереджені дані, недосконалі алгоритми та відсутність представників різних груп, зокрема людей з інвалідністю, у процесі розробки.
Одним із найгучніших прикладів такої технологічної дискримінації стала ситуація з системами розпізнавання облич. Дослідження MIT Media Lab 2018 року показало, що комерційні AI-продукти припускаються помилок у 34% випадків під час ідентифікації жінок із темною шкірою, тоді як для світлошкірих чоловіків цей показник становив лише 1%. Така різниця — наслідок виключення з наборів даних цілого спектра різноманітності.
Те саме відбувається з досвідом людей з інвалідністю. Коли їх немає серед тих, хто формує технології, результат — викреслення цілої спільноти з цифрової культури.
AI може створювати реалістичні портрети, переносити людей у вигадані локації чи стилізувати під відомих художників. Але йому все ще складно просто зобразити людину з інвалідністю — навіть за прямим запитом. Це означає, що навіть у найсучасніших системах інвалідність не розглядається як повноцінна частина людського досвіду.
Ситуація, у якій навіть запит на створення зображення з ампутованою кінцівкою ігнорується, — свідчення того, як сильно вкорінений ідеалізований образ «нормального» тіла. І це створює не лише естетичну проблему, а й глибоко етичну.
Наразі — у вирішальний момент розвитку технологій — суспільство має шанс змінити цю парадигму. Інакше штучний інтелект і надалі лише віддзеркалюватиме викривлену реальність, у якій немає місця для інакшості.
Рішення — у залученні людей з інвалідністю до процесів розробки та тестування. Їхній досвід повинен не просто враховуватись, а формувати фундамент технологічного дизайну. Якщо AI навчатиметься на повному спектрі людських історій, він зможе не лише імітувати реальність, а й трансформувати її — у бік більшої рівності й справедливості.
Уявімо, що технології створюють зображення, де люди з протезами, візками чи іншими ознаками інвалідності — це звична річ, яка не потребує окремого запиту. Уявімо, що алгоритми не виключають такі образи, а навпаки — інтегрують їх як частину нормального різноманіття.
Тільки тоді AI стане не лише інструментом, а й агентом змін. Технології не повинні просто копіювати суспільство — вони здатні формувати нову реальність, у якій бачать кожного.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.