Поєднання штучного інтелекту з людським досвідом може суттєво змінити спосіб аналізу географічних даних. Але щоб отримати точні й надійні результати, потрібні чіткі стандарти, перевірка інформації і постійний контроль — про це йшлося на панельній дискусії під час симпозіуму GEOINT 2025.
«Це питання конкурентоспроможності у сфері національної безпеки», — наголосив Абі Ашер, співгенеральний директор компанії Black Cape. — «Люди у зв’язці з ШІ точно замінять тих, хто працює без таких інструментів».
На думку Стефана Жілотта, генерального директора Reinventing Geospatial, справжнє розуміння ситуацій можливе лише тоді, коли «люди роблять те, в чому вони сильні, а машини — своє».
Просте на словах, складне на практиці
Попри стрімкий розвиток технологій, ефективна взаємодія людини й машини — далеко не тривіальне завдання. Співпраця потребує зусиль у напрацюванні спільних підходів, метрик, стандартів і найкращих практик. Інакше є ризик того, що ШІ не допомагатиме, а дезінформуватиме.
«Наше завдання — зробити так, щоб ШІ підтримував нас, а не вводив в оману», — зазначила Надін Аламех, виконавча директорка Taylor Geospatial Institute.
Якість даних — критичний фактор
Не менш важливим є розуміння, перевірка та коректне маркування даних, на яких навчаються ШІ-моделі. Експерти наголошують: потрібно чітко визначати, чи йдеться про реальні супутникові знімки, чи про синтетичні дані.
«Ми зобов’язані точно вказувати, які саме зображення використовуються», — підкреслив Тег'юн Чон, засновник і генеральний директор SI Analytics. — «Автентичність даних — надзвичайно важлива».
ШІ потребує контролю
Складність сучасних ШІ-архітектур зростає, і водночас — складність їхнього контролю. Тому потрібні чітко визначені процеси й інструменти для відстеження як вхідних даних, так і поведінки самих моделей.
«Ми маємо думати про інструменти, які дозволяють фіксувати логи й контролювати, як саме ШІ ухвалює рішення», — зазначив Дон Поласкі, віцепрезидент з питань ШІ у Booz Allen Hamilton.
ChatGPT як приклад прозорості
Під час симпозіуму Катріна Малліган, керівниця напрямку національної безпеки в OpenAI, продемонструвала, як ChatGPT аналізує геопросторові знімки для визначення локації. Протягом демонстрації в режимі реального часу було видно, які підказки використовує бот і як перевіряє власні припущення за допомогою інтернету.
Подібна прозорість — рідкість як для людей-аналітиків, так і для традиційних алгоритмів ШІ.
«Ми звикли довіряти експертам, не вимагаючи від них пояснень», — прокоментував Ашер. — «Але тепер, працюючи в парі з ШІ, ми можемо бачити, як саме він мислить, які припущення робить і на яку інформацію спирається. Це відкриває новий рівень прозорості в нашій галузі».
Обережність замість сліпої довіри
Втім, Поласкі застерігає: поряд із тими, хто боїться нових технологій, є й ті, хто надмірно їм довіряє — зокрема, молоде покоління.
«Мене часто питають, як допомогти людям старшого віку опанувати ШІ. Але ще більше мене турбує інше — як навчити молодих фахівців не довіряти алгоритмам беззастережно», — підсумував він. — «Треба вміти сумніватися й вчасно зупинити машину, коли вона помиляється».
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.