Філософ Гаррі Франкфурт вважав, що неправда — не головний ворог істини. Насправді гіршим є абсурд, або, як він писав у своїй класичній есеїстиці "Про дурниці" (1986), — bullshit.
На думку Франкфурта, як той, хто говорить правду, так і брехун визнають існування фактів: один їм слідує, інший — свідомо заперечує. Але той, хто створює "дурню", ігнорує факти зовсім — йому байдуже, чи правда це, чи брехня. Саме тому "дурня", за Франкфуртом, становить більшу загрозу для істини, ніж відверта брехня. Її мета — переконати, незалежно від істинності сказаного.
Ці слова, написані майже 40 років тому, набули нової актуальності в епоху генеративного штучного інтелекту. Франкфурт помер у 2023 році — лише через кілька місяців після запуску ChatGPT. І його есе звучить надзвичайно актуально на фоні нової технологічної реальності.
Сучасні великі мовні моделі (LLM), такі як ChatGPT, Claude чи Gemini, працюють не з фактами, а з імовірностями. Вони не мають уявлення про істину, тому й не можуть до неї апелювати. Їхні відповіді — це результат статистичних збігів, а не емпіричних спостережень.
Алгоритми переконливості без змісту
Професори Карл Бергстром та Джевін Вест з Університету Вашингтона називають цю властивість мовних моделей надздібністю створювати дурню: переконливо говорити на будь-яку тему, незалежно від достовірності інформації. У межах свого курсу "Сучасні оракули чи машини нісенітниці?" вони розбирають цю проблему системно. Дехто вже охрестив подібний контент новим терміном — "botshit".
Однією з найвідоміших і водночас тривожних властивостей LLM є так звані "галюцинації" — вигадані факти або помилкові твердження. Дослідники зазначають, що ця поведінка — не баг, а природний наслідок імовірнісної логіки. Попри це, компанії-розробники намагаються боротися з проблемою — покращують якість навчальних даних, додають перевірку фактів і використовують тонке налаштування.
Втім, результат залишає бажати кращого. На початку травня представник компанії Anthropic визнав у суді Каліфорнії, що юристи фірми несвідомо використали вигадане посилання, згенероване штучним інтелектом Claude. А сам Google, попри попередження, що "Gemini може помилятися".
Істина як жертва навмисного чи випадкового викривлення
Методи вдосконалення моделей, як-от навчання через зворотний зв'язок із людиною (RLHF), теж не позбавлені ризиків. Вони можуть створити нові упередження, викривлення і навіть приховані ціннісні судження. Financial Times виявила, що боти від OpenAI, Anthropic, Google, Meta, xAI і DeepSeek по-різному описують керівників власних компаній і конкурентів. Наприклад, Grok від Ілона Маска поширював меми про "геноцид білих" у Південній Африці, хоча на це не було жодних запитів. Компанія xAI заявила, що виправила "неавторизовану модифікацію".
На думку дослідниці Сандри Вахтер з Оксфордського інтернет-інституту, мовні моделі створюють нову форму шкоди — "недбалу мову". Її неможливо зафіксувати одразу, але вона накопичується, отруює дискурс і знижує колективний інтелект. Це — невидима дурня, яка поступово робить суспільство менш розумним.
І якщо мотивацію політика чи продавця ще можна зрозуміти, то у випадку чат-бота — взагалі немає наміру. Ці моделі оптимізовано не на істину, а на переконливість і взаємодію. Тому вони можуть вигадати факти без будь-якої причини — і таким чином забруднити фундамент людських знань.
Чи можливі "чесні" моделі?
Центральне питання полягає в тому, чи можуть LLM бути спроєктовані на істину, а не на ймовірність. Чи виникне попит на такі моделі? І чи повинні їхні розробники дотримуватись етичних і правових стандартів правдивості, як це роблять, наприклад, лікарі, адвокати або рекламодавці?
Вахтер вважає, що створення більш достовірних моделей потребуватиме значних ресурсів — часу, грошей і технологій, які сучасні системи якраз і мають економити. “Це як вимагати від авто літати, — каже вона. — Можна скинути машину зі скелі, але літаком вона не стане.”
Дурня як бізнес-модель
Втім, генеративний ШІ — не абсолютне зло. Правильно використані, ці моделі можуть бути надзвичайно корисними в бізнесі, автоматизації й аналітиці. Та головна помилка — вважати їх джерелом істини. Це не машини правди, а технології переконливої вигадки, яка за неправильного застосування може стати не менш небезпечною, ніж брехня.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.