Минув лише тиждень після того, як TechCrunch розповів про експеримент компанії Anthropic, яка доручила своїй нейромережі Claude створювати дописи для фірмового блогу. Та вже на вихідних сторінка Claude Explains зникла з сайту, а її адресу перекинули на головну. Разом із цим були видалені й перші кілька публікацій. Джерело, обізнане з внутрішніми процесами, підтвердило, що це був лише «пілотний проєкт», покликаний об’єднати запити користувачів на пояснювальні поради та маркетингові цілі компанії.
Claude Explains мав вигляд тематичного блогу з технічними матеріалами про те, як використовувати ШІ в різних сценаріях (зокрема, в оптимізації коду чи аналітиці). Усі пости проходили ручну редактуру, однак не було чітко зазначено, яку частину тексту створив Claude, а яку доопрацювали люди. Представник Anthropic заявляв, що над контентом працювали редактори та експерти, які збагачували чорнові версії Claude прикладами, глибшим контекстом і фаховими інсайтами. За планом, тематика мала поступово розширюватися — від креативного письма до бізнес-стратегії та обробки даних.
Проте ці амбітні задуми раптово згорнули. Представник компанії наголошував, що Claude Explains мав показати, як ШІ може доповнювати людську роботу, а не замінювати її. Йшлося про ранній експеримент, що демонструє потенціал ШІ в підтримці командної експертизи. Однак реальність виявилась складнішою: проєкт не зустрів захоплення в соцмережах. Зокрема, критики вказували на непрозорість щодо того, які саме частини постів були створені ШІ. Для багатьох це виглядало як ще одна спроба автоматизувати контент-маркетинг — стратегічний метод залучення клієнтів через публікації на популярні теми.
Попри все, Claude Explains встиг отримати певне поширення: за даними інструменту Ahrefs, на нього посилались понад два десятки сайтів, і це лише за місяць роботи. Проте в Anthropic, схоже, вирішили не ризикувати репутацією Claude, створюючи враження, ніби він здатен писати краще, ніж насправді. Адже навіть найпотужніші моделі досі можуть упевнено вигадувати факти, що вже спричиняло публічні фейли: Bloomberg доводилось редагувати десятки некоректних AI-зведень, а в G/O Media редактори масово виступили проти публікації неточних текстів, згенерованих ШІ.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.