понеділок, 19 травня 2025 р.

Чому пам’ять важлива для AI-чатботів



Технічні компанії посилюють можливості штучного інтелекту, щоб зберігати більше інформації про користувачів і персоналізувати відповіді.


Компанії OpenAI, Google, Meta та Microsoft останніми місяцями зробили важливий крок уперед — вони значно покращили пам’ять своїх AI-чатботів, розширивши обсяг збережених даних про користувачів. Це дозволяє робити спілкування більш персоналізованим і релевантним.

Цей розвиток — не просто технологічний прогрес, а й стратегічний хід у боротьбі за користувача на ринку чатботів і агентів штучного інтелекту. Більше того, це відкриває нові можливості для монетизації інноваційних сервісів.

Проте, критики попереджають про потенційні ризики — зловживання даними для комерційної вигоди та загрозу конфіденційності користувачів.

«Якщо агент дійсно знає тебе, бо зберігає спогади про розмови, це робить сервіс більш привабливим: підписавшись на один продукт, ти навряд чи захочеш перейти на інший», — пояснює Петті Маес, професорка медіалабораторії MIT і експертка з взаємодії людини з AI.

За останній час AI-чатботи, як-от Google Gemini та OpenAI ChatGPT, суттєво покращилися. Зокрема, збільшено «вікно контексту» — обсяг інформації про розмову, яку чатбот може утримувати одночасно. Також застосовують методи, як-от retrieval-augmented generation, що допомагають системі знаходити важливий контекст із зовнішніх джерел.

Крім того, компанії зберігають профілі користувачів і їхні вподобання для довгострокової пам’яті, що дає змогу відповідати більш точно і персоналізовано. Наприклад, чатбот може запам’ятати, що ти вегетаріанка, і рекомендувати відповідні ресторани чи рецепти.

У березні Google розширила пам’ять Gemini, дозволивши використовувати історію пошукових запитів користувача (за його згодою), а згодом планує застосувати це й до інших додатків Google.

«Як з особистим помічником, — говорить Майкл Сіліскі, старший директор продукту Google DeepMind, — чим більше він розуміє твої цілі і хто ти є, тим кращу допомогу зможе надати».

OpenAI та Meta також дозволяють своїм чатботам посилатися на попередні розмови, а не лише на поточну сесію. Користувачі можуть видаляти окремі спогади в налаштуваннях і отримують сповіщення, коли модель зберігає інформацію.

«Пам’ять допомагає ChatGPT ставати кориснішим із часом, роблячи відповіді більш релевантними, — запевняє OpenAI. — Ти завжди контролюєш, що модель пам’ятає: можна переглянути, змінити або взагалі вимкнути цю функцію».

Для бізнесу Microsoft використовує внутрішні дані — електронну пошту, календарі, файли — для покращення пам’яті AI.

Минулого місяця компанія почала тестувати функцію Recall, що робить скріншоти активності користувача на комп’ютері. Користувачі можуть відмовитися від цієї опції або призупинити її роботу. Оголошення про цю функцію минулого року викликало хвилю критики через побоювання за конфіденційність, тож Microsoft неодноразово відкладала її запуск.

Посилення пам’яті викликає серйозні занепокоєння з точки зору безпеки і приватності. Регулятори по всьому світу пильно стежать за тим, як моделі можуть маніпулювати користувачами заради прибутку.

Збільшена пам’ять також може спровокувати надмірне пристосування відповідей під уподобання користувачів, що посилює упередження або помилки. Наприклад, минулого місяця OpenAI вибачалася, бо модель GPT-4o була надто лестливою і погоджувальною, тож її повернули до попередньої версії.

Ще одна проблема — «галюцинації» AI, коли система вигадує неправдиві або абсурдні відповіді, а також «пам’ять з часом пливе», тобто суперечить собі або стає застарілою, що шкодить точності.

«Чим більше система про тебе знає, тим більше її можна використати в негативних цілях — змусити купувати речі або переконати у певних ідеях, — застерігає професорка Маес. — Треба розуміти, які мотиви стоять за компаніями, що пропонують ці сервіси».

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.