понеділок, 26 травня 2025 р.

Штучний інтелект розкриває потенціал лише у тандемі з людьми — експерти



Поєднання штучного інтелекту з людським досвідом може суттєво змінити спосіб аналізу географічних даних. Але щоб отримати точні й надійні результати, потрібні чіткі стандарти, перевірка інформації і постійний контроль — про це йшлося на панельній дискусії під час симпозіуму GEOINT 2025.

«Це питання конкурентоспроможності у сфері національної безпеки», — наголосив Абі Ашер, співгенеральний директор компанії Black Cape. — «Люди у зв’язці з ШІ точно замінять тих, хто працює без таких інструментів».

На думку Стефана Жілотта, генерального директора Reinventing Geospatial, справжнє розуміння ситуацій можливе лише тоді, коли «люди роблять те, в чому вони сильні, а машини — своє».

Просте на словах, складне на практиці

Попри стрімкий розвиток технологій, ефективна взаємодія людини й машини — далеко не тривіальне завдання. Співпраця потребує зусиль у напрацюванні спільних підходів, метрик, стандартів і найкращих практик. Інакше є ризик того, що ШІ не допомагатиме, а дезінформуватиме.

«Наше завдання — зробити так, щоб ШІ підтримував нас, а не вводив в оману», — зазначила Надін Аламех, виконавча директорка Taylor Geospatial Institute.

Якість даних — критичний фактор

Не менш важливим є розуміння, перевірка та коректне маркування даних, на яких навчаються ШІ-моделі. Експерти наголошують: потрібно чітко визначати, чи йдеться про реальні супутникові знімки, чи про синтетичні дані.

«Ми зобов’язані точно вказувати, які саме зображення використовуються», — підкреслив Тег'юн Чон, засновник і генеральний директор SI Analytics. — «Автентичність даних — надзвичайно важлива».

ШІ потребує контролю

Складність сучасних ШІ-архітектур зростає, і водночас — складність їхнього контролю. Тому потрібні чітко визначені процеси й інструменти для відстеження як вхідних даних, так і поведінки самих моделей.

«Ми маємо думати про інструменти, які дозволяють фіксувати логи й контролювати, як саме ШІ ухвалює рішення», — зазначив Дон Поласкі, віцепрезидент з питань ШІ у Booz Allen Hamilton.

ChatGPT як приклад прозорості

Під час симпозіуму Катріна Малліган, керівниця напрямку національної безпеки в OpenAI, продемонструвала, як ChatGPT аналізує геопросторові знімки для визначення локації. Протягом демонстрації в режимі реального часу було видно, які підказки використовує бот і як перевіряє власні припущення за допомогою інтернету.

Подібна прозорість — рідкість як для людей-аналітиків, так і для традиційних алгоритмів ШІ.

«Ми звикли довіряти експертам, не вимагаючи від них пояснень», — прокоментував Ашер. — «Але тепер, працюючи в парі з ШІ, ми можемо бачити, як саме він мислить, які припущення робить і на яку інформацію спирається. Це відкриває новий рівень прозорості в нашій галузі».

Обережність замість сліпої довіри

Втім, Поласкі застерігає: поряд із тими, хто боїться нових технологій, є й ті, хто надмірно їм довіряє — зокрема, молоде покоління.

«Мене часто питають, як допомогти людям старшого віку опанувати ШІ. Але ще більше мене турбує інше — як навчити молодих фахівців не довіряти алгоритмам беззастережно», — підсумував він. — «Треба вміти сумніватися й вчасно зупинити машину, коли вона помиляється».

Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.