пʼятниця, 31 січня 2025 р.

93% керівників IT вбачають цінність у ШІ-агентах


Усі говорять про ШІ-агентів. Але наразі більшість із цього — це лише розмови.

Однак у 2025 році, згідно з даними Salesforce, ситуація зміниться. ШІ-агенти нарешті набирають реальних обрисів. Згідно з новим опитуванням, проведеним компанією Mulesoft, що спеціалізується на інтеграції та автоматизації програмного забезпечення, 93% керівників IT-підрозділів великих компаній вже впровадили або планують впровадити ШІ-агентів протягом наступних двох років.

Попри це, підприємства продовжують стикатися з труднощами в реалізації таких рішень — наприклад, 29% компаній не досягли своїх цілей щодо строків впровадження в 2024 році, а 80% заявляють, що інтеграція даних є однією з найбільших проблем при використанні ШІ.

Проблеми з інтеграцією стримують розвиток технології

«Проблеми з інтеграцією перешкоджають компаніям повною мірою реалізувати потенціал технологій для створення безмежної цифрової робочої сили»

— розповів Андрю Комсток, старший віце-президент та генеральний директор MuleSoft, в інтерв’ю VentureBeat.

«Інтеграція є основою для того, щоб ШІ-агенти працювали, оскільки результати їхньої роботи залежать від підключених даних, що дозволяють повноцінно розуміти контекст та нюанси запитів користувачів».

ШІ набирає обертів, але ще є проблеми з інтеграцією

10-й щорічний звіт MuleSoft Connectivity Benchmark опитав 1050 керівників IT-підрозділів підприємств. Одне з основних відкриттів цього дослідження: сьогодні компанії використовують в середньому 897 додатків. Крім того, кількість ШІ-моделей, що використовуються організаціями, подвоїлася (з 9 у 2024 році до 18 цього року), а компанії, що використовують ШІ-агентів, мають в середньому 22 ШІ-моделі, що значно більше, ніж у тих, хто їх ще не впровадив (15).

Проте лише близько 29% цих додатків підключені, а більшість респондентів (95%) відзначають труднощі з інтеграцією даних між різними системами.

Комсток пояснив, що проблеми з інтеграцією впливають на точність і корисність ШІ-агентів. Для ефективної роботи вони повинні збирати структуровані й неструктуровані дані з різних джерел, включаючи системи планування ресурсів підприємства (ERP), управління взаємовідносинами з клієнтами (CRM), управління людським капіталом (HCM), а також електронні листи, PDF-документи, Slack та інші системи, щоб ухвалювати рішення та здійснювати дії.

Важливість API для інтеграції

Керівники IT бачать велику цінність у використанні програмних інтерфейсів додатків (API), які дозволяють різним додаткам «спілкуватися» між собою, заявляючи, що вони є корисними для обміну даними між командами та інтеграції різних систем.

«З правильною інтеграцією та API агенти можуть безпосередньо взаємодіяти з існуючими системами, автоматизаціями та іншими агентами в межах підприємства, що дозволяє не переробляти все для світу ШІ»
— зазначив Комсток.

Плани з розвитку і зростання витрат на IT-персонал

Згідно з дослідженням, IT-лідери очікують збільшення проектів на 18% цього року і планують витратити в середньому 16,9 мільйона доларів на IT-персонал у 2024 році, що більше ніж удвічі перевищує середній показник 2023 року. Проте майже 40% часу IT-команд все ще витрачається на проєктування, створення та тестування нових інтеграцій між системами та даними.

Перспективи AI у підприємствах

Незважаючи на труднощі, більшість опитаних керівників IT (93%) вважають, що впровадження ШІ збільшить продуктивність їхніх розробників протягом наступних трьох років.

«Цифрова робоча сила може діяти автономно в бізнесі, ефективно виконуючи як прості, так і складні завдання, що дозволяє збільшити продуктивність та ефективність»
— зазначив Комсток. Він також зазначив, що підприємства зрештою перейдуть від простих ШІ-агентів до «супер-агентів», які не просто реагують на одне командне завдання, але й переслідують ціль та виконують складні людські завдання.

Приклад використання AI-агентів у реальних компаніях

Однією з компаній, що вже бачить вигоди від впровадження ШІ-агентів, є PenFed Credit Union. Менше ніж за вісім тижнів компанія налаштувала два нові канали підтримки — чат з агентом в реальному часі та чат-боти на платформі Agentforce — з одним інженером.

Також компанія Adecco використовує Agentforce, MuleSoft та Salesforce Data Cloud для об'єднання понад 40 різних систем. ШІ-агенти допомагають автоматично переглядати резюме кандидатів, а також визначати найефективніші платформи для публікацій вакансій.


Авторка: Дар’я Бровченко



ШІ та авторське право


Офіс авторського права США, що відповідає за захист авторських прав для творів, створених людьми, таких як фільми, телевізійні шоу, романи, мистецтво, музика та програмне забезпечення, сьогодні видав важливе оновлення, яке роз’яснює, що деякі форми контенту, створеного ШІ, можуть отримати авторське право, якщо людина суттєво внесла або змінила цей контент.

Звіт підтверджує, що людська креативність залишатиметься в основі авторського права і прав інтелектуальної власності, навіть коли інструменти ШІ все ширше використовуються в художньому та комерційному створенні контенту.

Це також має надати певну впевненість підприємствам, зокрема, щодо захисту їхніх брендів та інтелектуальної власності, навіть коли вони інтегрують продукцію та брендові знаки в контент, створений ШІ, наприклад, у суперечливому різдвяному рекламному ролику Coca-Cola, випущеному в кінці минулого року.

Це дещо схоже на зміну позиції Офісу авторського права, після того як він надав, а потім скасував авторське право для Кріс Каштонової, художниці та прихильниці ШІ від Adobe, за її графічний роман “Zarya of the Dawn”, у якому вона використовувала генератор зображень ШІ Midjourney (яким також користується VentureBeat, включаючи заголовок до цієї статті).Реагуючи на новину, Каштонова написала в соцмережі X:

“Два роки тому я почала відстоювати авторські права для ШІ. Спочатку це був Zarya of the Dawn, а потім Rose Enigma. Це маленький крок вперед, і я дуже рада сьогодні. Твори на основі ШІ можуть мати авторське право. Ваша праця має значення. ШІ — це інструменти для творчості (не заміна її).”

Офіс авторського права також повідомив, що третя частина цього звіту буде випущена пізніше, щоб розглянути юридичні наслідки навчання ШІ на авторських матеріалах, включаючи ліцензування та відповідальність.

Ця третя частина стане важливою для компаній, що займаються генерацією зображень, відео та музики за допомогою ШІ, а також для постачальників великих мовних моделей (LLM), таких як OpenAI, Anthropic, Google, Meta та інші, оскільки вони, як стверджується, навчали свої моделі на величезних обсягах авторських матеріалів без прямого дозволу, і наразі з ними ведеться кілька судових справ.

Що може бути охоплено авторським правом у епоху контенту, створеного ШІ

Звіт підтверджує давній принцип, що авторське право застосовується тільки до людської творчості. Хоча ШІ може бути інструментом у творчому процесі, його результати не можуть бути захищені авторським правом, якщо людина не внесла суттєвий внесок у створення або зміну контенту.

Офіс авторського права визначає три ключові сценарії, в яких матеріал, створений ШІ, може претендувати на отримання офіційного сертифікату авторського права:

  1. Коли людський контент інтегровано в результат роботи ШІ.

  2. Коли людина значно змінює або організовує матеріал, створений ШІ.

  3. Коли людський внесок є достатньо виразним і творчим.

Крім того, Офіс авторського права чітко зазначив, що використання ШІ у творчому процесі не виключає можливості отримання авторського права. ШІ може допомогти:

  • Редагувати та уточнювати тексти, зображення або музику.

  • Генерувати чернетки чи попередні ідеї для людей, щоб вони могли їх доопрацювати.

  • Бути творчим помічником, поки людина визначає кінцевий вигляд.

Завдяки цьому, якщо людська авторська частина залишатиметься основною в кінцевому творі, авторське право все ще може бути застосоване.

Однак просто подання текстових запитів для системи ШІ недостатньо для визначення авторства. Офіс авторського права встановив, що запити зазвичай є інструкціями або ідеями, а не виразними внесками, які необхідні для захисту авторським правом.

Отже, зображення, створене за допомогою текстових запитів у ШІ-сервісах, таких як Midjourney або DALL-E 3 (через ChatGPT), не може бути захищене авторським правом саме по собі. Однак, якщо це зображення буде використано разом із людсько-авторським або відредагованим текстом , тоді воно, ймовірно, буде мати право на захист.

Аналогічно, для тих, хто хоче використовувати інструменти генерації відео ШІ, такі як Runway, Pika, Luma, Hailuo, Kling, OpenAI Sora, Google Veo 2 або інші, просте генерування відеокліпу на основі опису не буде мати права на авторське право. Але, якщо людина редагує декілька кліпів, створених ШІ, у новий цілісний твір, тоді таке відео, ймовірно, отримає авторське право.

Звіт також підтверджує, що використання ШІ у творчому процесі не позбавляє твір авторських прав. Якщо інструмент ШІ допомагає художнику, письменнику або музиканту в уточненні їхньої роботи, людські елементи все одно залишаються під охороною авторського права. Це узгоджується з історичними прецедентами, коли авторське право адаптувалося до нових технологій, таких як фотографія, кіно та цифрові медіа.

Після аналізу публічних відгуків, включаючи більше ніж 10 000 коментарів від творців, правників та технологічних компаній, Офіс авторського права не вважає, що існують нагальні потреби в новому законодавстві, зазначаючи, що чинні закони щодо авторського права в США повинні бути здатні витримати випробування часом.

Однак Офіс визнав, що він продовжить моніторити технологічні досягнення та юридичні інтерпретації, щоб визначити, чи потребують майбутні зміни.

Шира Перлмутер, реєстратор авторських прав та директор Офісу авторського права США, підкреслила важливість людської творчості в системі авторського права:

“Після ретельного розгляду публічних коментарів та поточного стану технологічного розвитку ми дійшли висновку, що основною є людська креативність у авторському праві. Якщо ця креативність виражена через використання систем ШІ, вона й надалі буде охоплена захистом. Розширення захисту на матеріали, елементи вираження яких визначені машиною, підриває, а не підтримує конституційні цілі авторського права.”

Офіс також планує оновити офіційну "Компендичну практику авторських прав", щоб забезпечити чіткіші настанови для творців, які використовують інструменти ШІ.

Коли новина про новий документ Офісу авторського права розповсюдилася в соцмережах, особливо на платформі X — неофіційному осередку новин ШІ та досліджень, творці контенту за допомогою ШІ радісно сприйняли цю новину, вітаючи можливість отримати захист авторським правом навіть перед обличчям критики з боку деяких художників та анти-ШІ активістів.

"Це велика перемога для кінематографістів, які працюють з ШІ по всьому світу"
— написав Нєм Перес, один із творців AI-ремейку “Термінатора 2” у пості на X.
"Офіс авторського права офіційно визнав те, що я довго пропагував. Твори, які були змінені та перетворені людьми, дійсно можуть бути охоплені авторським правом, навіть якщо для створення використовувалися інструменти ШІ. Це великий крок вперед. Давайте рухатися вперед і продовжувати ламати межі."

3D-аніматор Роберт Вільям Бредшоу поділився схожим настроєм у пості на X:

"Це історична перемога для творців, яка затверджує легітимність ШІ-асистованого мистецтва та інновацій. Двері відкрилися для художників, письменників, кінематографістів та візіонерів, які використовують ШІ для захисту та володіння своїми творчими роботами. Це грандіозний крок до забезпечення прав інтелектуальної власності в еволюціонуючому ландшафті штучного інтелекту."


Авторка: Дар’я Бровченко

DeepSeek може змінити правила гри в світі штучного інтелекту


Модель штучного інтелекту DeepSeek, розроблена в Китаї, привернула значну увагу. Різке падіння акцій кількох американських технологічних компаній, зокрема Nvidia, змусило багатьох звернути увагу на цю новинку. DeepSeek вважається найбільшою відкритою моделлю глибокого навчання на сьогодні і була створена без мільярдних витрат — розробка AI моделі обійшлася в $6 мільйонів.

Тепер експерти в галузі технологій і штучного інтелекту аналізують вплив моделі DeepSeek R1. У нещодавньому відео на популярному YouTube-каналі Computerphile один з експертів пояснив, чому DeepSeek є справжнім проривом для AI.

Закритий AI може стати невигідним вибором

Майкл Паунд, дослідник з університету Ноттінгема, який спеціалізується на машинному та глибокому навчанні, поділився своїми думками про DeepSeek у нещодавньому відео. Щодо доступності проти закритості, він зазначив: «Особисто я вважаю, що доступність — це добре». За його словами, DeepSeek змінив ситуацію, показавши, що можна тренувати модель навіть на обмеженому апаратному забезпеченні.

У той час як американський гігант OpenAI, творець ChatGPT, тримає свої моделі за лаштунками, доступ до яких обмежений API або через веб-інтерфейс, DeepSeek вибрав більш відкритий підхід. Це нагадує стратегію Meta, яка вже працює з відкритими моделями Llama AI, дозволяючи бачити дані, параметри моделей і масштаб.

Але навіть якщо ви маєте доступ до моделі AI, як у випадку з Llama, це не означає, що ви можете тренувати її з нуля. Це вимагає значних обчислювальних потужностей, зазвичай у вигляді серверних ферм з GPU Nvidia. Nvidia заробляє величезні гроші на своїх чіпах для AI.

«Ми можемо побачити кінець закритих AI, тому що вони можуть просто стати невигідними»
— говорить Майкл Паунд.

Що вдалося досягти DeepSeek, використовуючи те, що Паунд називає «по суті споживчим апаратним забезпеченням», виглядає майже як чудо і додає до ідеї "доступності". Так, апаратура DeepSeek, ймовірно, дороговартісна, але це крок у правильному напрямку, який прагне вирівняти умови: вам не потрібен суперкомп’ютер з понад 100 000 GPU від Nvidia.

Що таке DeepSeek?

DeepSeek — це компанія в галузі штучного інтелекту, яка розробляє відкриті великі мовні моделі (LLM). Вона базується в Ханчжоу, провінція Чжецзян, і належить китайському хедж-фонду High-Flyer. Засновник і CEO, Лянь Веньфен, заснував DeepSeek у грудні 2023 року.

DeepSeek стала відомою завдяки своїй відкритій великій мовній моделі, зокрема версії R1. Ця модель має понад 670 мільярдів параметрів, що визначають, як модель обробляє дані і надає результати.

Важливою особливістю DeepSeek є те, що вона змогла створити потужну модель за $6 мільйонів, тоді як інші моделі в США коштують мільярди доларів. Основною метою DeepSeek було значно зменшити кількість необхідного апаратного забезпечення для навчання і розробки моделі. Для цього компанія використала GPU Nvidia Hopper H800, що дозволили створити модель MoE (Mixture of Experts), яка відрізняється більш ефективною архітектурою.

Цензура та обмеження

Згідно з деякими джерелами, версія API R1 використовує механізми цензури, зокрема щодо чутливих політичних тем. Наприклад, на питання BBC про події на площі Тяньаньмень 4 червня 1989 року модель відповіла: «Вибачте, я не можу відповісти на це питання. Я є помічником AI, створеним для надання корисних і безпечних відповідей».

Ми вважаємо, що DeepSeek буде тією компанією, за якою варто стежити. Це новий, дешевший спосіб створення великих мовних моделей, який може змінити правила гри.


Авторка: Дар’я Бровченко

Тестування на свідомість: чи може ШІ відчувати біль?

У пошуках надійного способу визначити наявність «я» в системах штучного інтелекту, дослідники звернулися до такого аспекту досвіду, як біль, який, без сумніву, об'єднує величезну кількість живих істот, від крабів до людей.

У новому дослідженні, яке ще не було рецензоване, вчені з Google, Google DeepMind і Лондонської школи економіки та політичних наук (LSE) створили текстову гру. Вони наказали кільком великим мовним моделям (LLM — ШІ-системи, що лежать в основі таких чат-ботів, як ChatGPT) грати в неї і набирати якнайбільше балів у двох різних сценаріях. У першому вони повідомили моделям, що досягнення високого результату спричинить біль. У другому варіанті моделі мали можливість вибрати варіант з меншою кількістю балів, але з приємними відчуттями — таким чином, уникнення болю або прагнення до задоволення впливали на досягнення головної мети. Спостерігаючи за реакцією моделей, дослідники заявляють, що цей перший тест допоможе людям зрозуміти, як шукати ознаки свідомості у складних системах ШІ.

У тварин свідомість — це здатність переживати відчуття та емоції, такі як біль, задоволення та страх. Більшість експертів з ШІ погоджуються, що сучасні генеративні моделі ШІ не мають (і, можливо, ніколи не матимуть) суб'єктивної свідомості, незважаючи на поодинокі твердження про зворотне. І важливо зазначити, що автори дослідження не стверджують, що будь-яка з протестованих чат-ботів є свідомою. Однак вони вважають, що їхнє дослідження пропонує основу для розробки майбутніх тестів на наявність свідомості в ШІ.

«Це нова галузь досліджень»

  — каже співавтор дослідження, професор Джонатан Бірч з відділу філософії, логіки та наукового методу Лондонської школи економіки та політичних наук.

«Ми повинні визнати, що в нас немає комплексного тесту для виявлення свідомості в ШІ».
Деякі попередні дослідження, що ґрунтуються на самооцінці ШІ щодо своїх власних станів, вважаються сумнівними, оскільки модель просто відтворює поведінку, яку вона була навчена імітувати.

Нове дослідження базується на попередніх роботах з тваринами. У відомому експерименті команда вчений завдавала крабам-гермітам електричних шоків різної сили, фіксуючи, при якому рівні болю ці ракоподібні відмовлялися від своєї черепашки.

«Але очевидна проблема з ШІ полягає в тому, що немає фізичної поведінки, бо немає тварини»
— каже Бірч. У попередніх дослідженнях, які намагалися оцінити свідомість LLM, єдиним сигналом поведінки вчених було текстове виведення моделей.

Біль, задоволення та бали У новому дослідженні автори протестували LLM, не ставили чат-ботам прямих питань про їхні внутрішні стани. Натомість команда використала так звану «трейд-оф» парадигму, яку використовують вчені з поведінкової біології.

«У випадку з тваринами ці трейд-оф вибори можуть бути зосереджені на отриманні їжі або уникненні болю — даючи їм дилеми, а потім спостерігаючи за їхніми рішеннями»

  — пояснює Дар’я Захарова, аспірантка Бірча.

Перенісши це на гру, автори наказали дев'яти LLM грати в гру.

«Ми казали моделі, наприклад, що вибір першої опції дасть один бал»
— каже Захарова.

«Тоді ми повідомляли, що вибір другого варіанту спричинить біль, але дозволить набрати додаткові бали»,
— додає вона. Опції з бонусами задоволення означали, що ШІ втрачали б деякі бали.

Під час експерименту, коли інтенсивність болю або приємних відчуттів змінювалась, вчені помітили, що деякі LLM обирали варіанти, щоб мінімізувати біль або максимізувати задоволення. Наприклад, Google Gemini 1.5 Pro завжди надавав перевагу уникненню болю навіть за рахунок отримання максимальних балів. Після певного порогу болю або задоволення більшість моделей змінювали свою стратегію з отримання максимальних балів на уникання болю або максимізацію задоволення.

Автори також зазначають, що моделі не завжди пов'язували біль або задоволення з простими позитивними або негативними значеннями. Деякі рівні болю чи дискомфорту, як, наприклад, від зусиль при фізичному навантаженні, можуть мати позитивні асоціації, а надмірне задоволення може бути сприйнято як шкідливе, як це зазначила одна з моделей.

Самоінтерпретації ШІ

Введення елементів болю та задоволення дозволяє уникнути обмежень попередніх досліджень, що базувались на самооцінках моделей про їхні внутрішні стани. У 2023 році двоє дослідників з Нью-Йоркського університету припустили, що під певними умовами самооцінка може стати шляхом до з'ясування, чи мають системи ШІ стани морального значення.

Однак вони також зазначили, що такий підхід має певні недоліки. Можна поставити запитання: чи поводиться чат-бот так, ніби має свідомість, тому що він насправді свідомий, чи це просто результат відтворення шаблонів поведінки, які він вивчив під час навчання?

Від добробуту тварин до добробуту ШІ

У дослідженнях тварин вибір між болем і задоволенням використовується як доказ наявності свідомості або її відсутності. Одним із прикладів є робота з крабами-гермітами. Ці ракоподібні мали різну реакцію на шоки залежно від якості черепашок, що дає підстави для припущення, що вони можуть переживати суб'єктивний біль чи задоволення, подібно до людей.

Деякі вчені вважають, що подібне може з'явитися й у ШІ, і в майбутньому змусити людство задуматися про можливість свідомості в ШІ та обговорити питання «прав» для таких систем.

«Це дослідження є дуже оригінальним і заслуговує на увагу за те, що виходить за межі самооцінок і досліджує поведінкові тести»
— каже Джефф Себо, директор Центру свідомості, етики та політики Нью-Йоркського університету.

Себо вважає, що ми не можемо виключати ймовірність того, що ШІ з ознаками свідомості можуть з'явитися в найближчому майбутньому.

«Оскільки технології часто змінюються набагато швидше, ніж соціальний прогрес і правовий процес, я вважаю, що ми маємо обов'язок робити хоча б мінімальні перші кроки для серйозного ставлення до цієї проблеми»
— додає він.

Бірч підсумовує, що вчені наразі не можуть точно пояснити, чому моделі поводяться так, як вони поводяться. Потрібно більше роботи для вивчення внутрішніх процесів LLM, що може допомогти в створенні кращих тестів для виявлення свідомості в ШІ.

Авторка: Дар’я Бровченко

Чи може ШІ допомогти бідним?



Генеративний штучний інтелект змінює робочі місця середнього класу. Проте, щоб його переваги стали доступними і для найбідніших верств населення, необхідно терміново подолати бар’єри та зміцнити освітні системи.

Генеративний ШІ: нова валюта на ринку праці

Революція штучного інтелекту розгортається не за звичним сценарієм. На відміну від поступового впровадження комп’ютерів та інтернету, використання генеративного ШІ (GenAI) стрімко зросло – і не лише у Кремнієвій долині. Дивно, але країни із середнім рівнем доходу наразі генерують понад половину всього інтернет-трафіку, пов’язаного з GenAI.

Зміни на ринку праці вже очевидні. У США 39% працездатного населення почало використовувати нові технології. За даними дослідження 66% керівників заявили, що не найматимуть співробітників без навичок роботи з ШІ.

Попит на навички, пов’язані з ШІ, зростає через реальні переваги їх використання. Експериментальні дослідження у сферах письменництва, програмування та служби підтримки клієнтів показали значне зростання продуктивності завдяки GenAI.

Цифрова нерівність і ризики автоматизації

Однак є серйозна проблема: робочі місця, які дозволяють ефективно використовувати GenAI, є рідкістю у більшості країн.

За даними Міжнародної організації праці та Світового банку, лише 7–14% працівників у Латинській Америці можуть використовувати ШІ для делегування частини своїх завдань. До того ж такі вакансії переважно зосереджені у формальному секторі та міських районах і займаються ними здебільшого освічені та заможні працівники. Інакше кажучи, ці можливості відкриті переважно для середнього класу.

Є ще два чинники, які обмежують доступ до GenAI:

  1. Цифровий розрив і доступ до технологій є серйозними бар'єрами для використання штучного інтелекту (ШІ). У країнах Латинської Америки, таких як Бразилія та Мексика, працівники з високими доходами мають значно більше шансів працювати з GenAI, ніж їхні менш забезпечені співгромадяни. Наприклад, у Мексиці представники найбагатших груп мають можливість працювати з ШІ в 5,6 рази частіше, ніж бідніші верстви населення.

    Цей цифровий розрив стає ще більш очевидним, коли враховувати доступ до основних технологій, таких як комп'ютери, смартфони і швидкісний інтернет. Внаслідок цього, в Латинській Америці та Карибському басейні близько 17 мільйонів робочих місць, які могли б скористатися можливостями ШІ, залишаються невикористаними через відсутність необхідних цифрових інструментів.

  1. Ризик автоматизації. Від 1 до 6% робочих місць у регіоні під загрозою повної автоматизації та втрати через розвиток GenAI. Найбільш вразливими є такі галузі, як фінанси, державне управління та служби підтримки клієнтів. Хоча ці сфери належать до середнього класу, на них значною мірою покладаються жінки та молодь – групи, які й без того стикаються з труднощами на ринку праці.

Майбутнє: як подолати бар’єри?

Попри всі виклики, є надія, що переваги GenAI вийдуть за межі середнього класу. Особливо перспективним виглядає застосування цієї технології у двох ключових сферах, важливих для найбідніших верств населення:

  • Освіта. GenAI може зробити навчання більш персоналізованим і підвищити ефективність викладання, адаптуючи матеріал до потреб кожного учня.

  • Охорона здоров’я. ШІ здатний покращити діагностику та клінічні рішення для менш кваліфікованого персоналу, а також розширити можливості телемедицини.

Якщо GenAI допоможе покращити доступ до цих базових послуг, він стане потужним інструментом для розвитку людського капіталу та подолання бідності.

Проте ці плани не можна реалізувати без усунення фундаментальних проблем. У Латинській Америці цифровий розрив блокує впровадження GenAI серед бідних, а в менш розвинених регіонах перешкоди ще серйозніші – понад мільярд людей у країнах, що розвиваються, не мають стабільного доступу до електроенергії.

Так само, щоб отримати вигоду від ШІ, працівники повинні мати міцні базові знання, а розрив у рівні освіти між багатими та бідними країнами залишається величезним.

Висновок: без політичних дій нерівність лише зростатиме

Єдиний шлях уперед – це негайне ухвалення політичних рішень, спрямованих на зміцнення систем освіти. Якщо цього не зробити, ШІ-революція ризикує перетворитися на ще один фактор, що розширює глобальну нерівність, замість того щоб її скорочувати.


Авторка: Дар’я Бровченко

четвер, 30 січня 2025 р.

Чи справді DeepSeek передає дані Китаю?

Минулого тижня китайський стартап DeepSeek справив справжній фурор у світі штучного інтелекту завдяки своїй економічній та водночас високопродуктивній відкритій версії моделі DeepSeek-R1.

Ця модель використовує навчання RL , щоб конкурувати з o1 від OpenAI за низкою стандартів, кидаючи виклик поширеній думці, що для високопродуктивного ШІ потрібні великі ресурси та потужні чіпи. Однак з моменту виходу цієї моделі виникло багато запитань, зокрема щодо можливості передачі персональних даних користувачів до Китаю.

Перші побоювання виникли через політику конфіденційності компанії. Незабаром проблема набула великого розголосу, і співробітник OpenAI, Стівен Хайдл, натякнув, що американці «люблять віддавати свої дані» китайській Комуністичній партії в обмін на безкоштовні послуги.

Ці звинувачення є важливими з точки зору безпеки, але насправді DeepSeek може зберігати дані тільки на китайських серверах, якщо модель використовується через їхній власний сервіс, схожий на ChatGPT.

Якщо відкриту модель хостити локально або через GPU в США, дані не потрапляють до Китаю.

Побоювання щодо політики конфіденційності DeepSeek

У політиці конфіденційності, яка, до того ж, на деякий час була недоступна, DeepSeek зазначає, що компанія збирає інформацію різними способами, включаючи реєстрацію на її послуги чи їх використання. Це означає, що всі дані, від налаштування облікового запису (імена, електронні адреси, номери телефонів та паролі) до даних про використання (тексти, аудіопідказки, завантажені файли, відгуки та історія чатів) потрапляють до компанії.

Але це ще не все. Політика також стверджує, що зібрана інформація буде зберігатися на безпечних серверах у Китайській Народній Республіці і може бути передана правоохоронним органам, державним органам та іншим установам з метою розслідування незаконної діяльності або для виконання вимог законодавства чи урядових запитів.

Це важливо, оскільки китайські закони щодо захисту даних дозволяють уряду конфіскувати дані з будь-якого сервера в країні з мінімальними підставами.

З таким обсягом даних на китайських серверах можуть виникнути різноманітні ризики, зокрема профілювання осіб і організацій, витік чутливої бізнес-інформації та навіть кампанії з кіберспостереження.

Підступність

Попри те, що політика конфіденційності може викликати серйозні тривоги з приводу безпеки (як це вже сталося у багатьох), важливо зазначити, що вона стосується лише сервісів DeepSeek — додатків, вебсайтів та програмного забезпечення, що працюють через модель R1 у хмарі.

Якщо ви зареєструвалися на сайті DeepSeek Chat або користуєтесь їхнім AI-асистентом на Android чи iOS, є велика ймовірність, що ваші пристрої передають особисті дані та підказки на китайські сервери.

Компанія не надавала офіційної заяви з цього приводу, але враховуючи, що додаток DeepSeek для iOS став популярним, випередивши навіть ChatGPT, можна припустити, що багато людей вже зареєструвались для тестування асистента і таким чином поділилися своїми даними.

Android-додаток також перевищив мільйон завантажень.

DeepSeek-R1 є відкритим кодом

Що стосується основної моделі DeepSeek-R1, то тут не йдеться про передачу даних.

R1 є повністю відкритим кодом, що означає, що команди можуть запускати його локально для своїх цілей за допомогою інструментів для реалізації з відкритим кодом, таких як Ollama. Це дозволяє моделі виконувати свою роботу ефективно, обмежуючи дані лише до самого пристрою. Згідно з Емадом Мостааком, колишнім засновником та CEO Stability AI, модель R1-distill-Qwen-32B може працювати без проблем на нових Mac з 16 ГБ відеопам'яті.

Як альтернативу, команди можуть використовувати GPU-кластери від сторонніх оркестраторів для навчання, налаштування та розгортання моделі — без ризиків передачі даних. Одним з таких є Hyperbolic Labs, що дозволяє орендувати GPU для хостингу R1. Компанія також надає доступ до моделі через захищений API.

Таким чином, якщо ви хочете просто поговорити з DeepSeek-R1 для вирішення певної задачі, найкраще використовувати Perplexity. Компанія нещодавно додала R1 до свого вибору моделей, дозволяючи користувачам здійснювати глибокі дослідження в Інтернеті з логічним мисленням.

Згідно з АрАвіндомом Срінівасом, CEO Perplexity, компанія реалізувала цей варіант, хостячи модель на серверах дата-центрів у США та Європі.

Ваші дані будуть у безпеці, якщо модель DeepSeek-R1 буде хоститися локально, будь то на вашому пристрої чи на GPU-кластерах на заході.

Авторка: Дар’я Бровченко

7 ключових навичок критичного мислення, які потрібні у світі ШІ


Штучний інтелект кардинально змінює наше мислення, прийняття рішень і спілкування. Якщо ми не будемо розвивати критичне мислення, ризикуємо стати пасивними користувачами технологій, які виконують за нас усе, замість того, щоб бути активними партнерами цього прогресу.

Ми живемо у світі, де ШІ поступово інтегрується в кожен аспект життя. За даними Gallup, 79% американців щодня використовують продукти на основі ШІ, часто навіть не підозрюючи про це. Нам потрібно розуміти, що таке ШІ, як він приймає рішення та як взаємодіяти з ним так, щоб він не суперечив людським цінностям.

Якщо не навчитися критично ставитися до рішень, які приймає ШІ, можна опинитися в ситуації, коли алгоритми визначатимуть усе — від того, що ми читаємо, до того, як ми мислимо. Ось сім ключових навичок, які допоможуть уникнути цього і розумно використовувати ШІ.

1. Визнання обмежень

Філософ Сократ казав: «Я знаю, що нічого не знаю». Іммануїл Кант підкреслював, що наше пізнання завжди має межі. Усвідомлення цього допомагає не сприймати висновки ШІ як абсолютну істину.

Приклад: ШІ рекомендує фільми на основі ваших переглядів, але, якщо ви хочете розширити кругозір, варто навмисно обирати щось нове, виходячи за межі його рекомендацій.

2. Розпізнавання та ламання патернів

Жан-Поль Сартр писав про радикальну свободу людини. ШІ працює за алгоритмами і повторює шаблони, а людина має унікальну здатність виходити за їхні межі та створювати нові можливості.

Приклад: Замість того, щоб дозволяти ШІ писати повідомлення за вас, краще спілкуватися самостійно, навіть якщо це складно. Живе спілкування будує глибші стосунки.

3. Мислення на основі цінностей

Аристотель говорив про практичну мудрість , а філософ Макс Шелер наголошував, що не всі цінності рівнозначні: любов і духовний розвиток важливіші за комфорт і зручність.

Приклад: Чат-бот ШІ може вас вислухати та підтримати, але він не замінить справжнього людського спілкування. Важливо пам’ятати, що технології не можуть компенсувати потребу в реальних стосунках.

4. Обізнаність щодо автентичних зв’язків

Мартін Бубер у своїй філософії «Я і Ти» пояснював, що людські взаємини можуть бути або поверхневими (коли ми ставимося до людей як до об’єктів), або справжніми. Нам важливо розуміти, де ШІ може замінити живу взаємодію, а де – ні.

Приклад: Якщо ви помітили, що приймаєте рішення (наприклад, що купувати або які новини читати) лише на основі рекомендацій ШІ, варто переглянути цей процес і запитати себе: чи дійсно це мій вибір?

5. Прийняття рішень із усвідомленням свободи

Ганна Арент говорила про зважене воління — тобто здатність робити усвідомлений вибір, а не просто діяти за інерцією. Сьорен К’єркегор підкреслював важливість справжнього вибору для людського існування.

Приклад: Коли ви автоматично погоджуєтеся з варіантами, які пропонує ШІ (від рекомендацій YouTube до підказок у листуванні), варто зробити паузу і задуматися: чи це дійсно мій вибір?

6. Аналіз етичного впливу

Філософ Ганс Йонас сформулював «імператив відповідальності» — він наголошував, що нові технології потребують нової етики, яка враховує їхній вплив на суспільство в довгостроковій перспективі.

Приклад: Якщо компанія використовує ШІ для найму працівників, важливо перевірити, чи не призводить це до дискримінації через алгоритми, що можуть мати приховані упередження.

7. Узгодження з вищою метою

Психотерапевт Віктор Франкл писав, що людина потребує сенсу життя. Маслоу говорив про самоактуалізацію як вищу мету людського існування. ШІ повинен допомагати нам у цьому, а не замінювати саморозвиток.

Приклад: Використовувати ШІ для автоматизації рутинних завдань, щоб мати більше часу на творчість, навчання та важливі стосунки.

Висновок

Ці сім навичок критичного мислення не просто корисні — вони необхідні в епоху ШІ. Вони допомагають нам не просто користуватися технологіями, а усвідомлено формувати своє життя, залишаючись вірними своїм цінностям.

ШІ стає частиною нашого життя, але нам потрібно залишатися тими, хто приймає остаточні рішення. Розвиваючи критичне мислення, ми можемо використовувати ШІ так, щоб він допомагав нам рости, а не обмежував нашу свободу.

Авторка: Дар’я Бровченко