четвер, 13 лютого 2025 р.

Експерти прогнозують появу штучного загального інтелекту до 2040 року



Штучний загальний інтелект та технологічна сингулярність — це концепти, що збуджують уяву багатьох вчених, підприємців та інноваторів у галузі технологій. Проте прогнози щодо часу досягнення цих етапів розвитку штучного інтелекту залишаються різними і суперечливими.

Щоб зрозуміти, чи відбудеться це і коли, потрібно розглянути думки понад 6 000 експертів із різних країн та галузей, які активно досліджують AI та його потенціал.

Що таке штучний загальний інтелект (AGI)?

AGI є типом інтелекту, здатного виконувати широкий спектр завдань, подібно до людського інтелекту, із здатністю вчитися, адаптуватися та вирішувати нові проблеми без конкретно визначених правил. На відміну від вузьких систем AI, які можуть вирішувати лише певні задачі (наприклад, розпізнавання зображень або обробка природної мови), AGI обіцяє забезпечити універсальність у виконанні різноманітних завдань.

Коли це станеться?

Одним із ключових питань, яке хвилює сучасне наукове та технологічне співтовариство, є питання термінів досягнення AGI та, зрештою, технологічної сингулярності — моменту, коли штучний інтелект стане настільки потужним, що почне самостійно вдосконалювати себе з швидкістю, яка перевищить можливості людини контролювати його розвиток.

Прогнози щодо термінів досягнення AGI сильно варіюються. На основі опитування, проведеного серед понад 6 000 експертів з різних країн, було встановлено такі ключові тенденції:

  1. Думки вчених та підприємців щодо часу досягнення AGI. — Більшість вчених вважає, що AGI може бути досягнутий до 2040 року. Однак ці терміни залишаються непевними, і багато експертів наголошують, що існує велика невизначеність щодо того, скільки часу знадобиться для розробки повноцінного AGI. — Підприємці зазвичай більш оптимістичні в своїх прогнозах. Багато з них передбачають, що AGI може бути створений вже в 2030-х роках, що свідчить про більш амбітні надії на прискорення технологічного прогресу.

  2. Сумнів і песимізм серед деяких вчених. — Хоча оптимістичні прогнози вказують на 2030-2040 роки, інші експерти вважають, що AGI може з'явитися лише через кілька десятиліть. Наприклад, деякі опитування серед академічної спільноти вказують на 2060-2070 роки як більш реалістичні терміни для досягнення AGI.

  3. Які прогнози мають найбільше підтримки? — Огляд прогнозів показав, що найбільш розповсюдженими є припущення, що AGI з’явиться до 2040 року. Це означає, що багато експертів вважають, що ми можемо побачити перші реальні досягнення в області AGI в найближчі 15-20 років.

Актуальний стан технологій: чи дійсно ми наближаємося до AGI?

На сьогоднішній день існують потужні вузькі AI-системи, які перевищують людські можливості в конкретних сферах, таких як обробка природної мови (наприклад, моделі на зразок GPT-3) та розпізнавання зображень. Однак ці технології все ще не володіють універсальністю та здатністю до самоосвіти, що є основними характеристиками AGI.

Одним з найбільш обговорюваних напрямків розвитку є застосування великих мовних моделей (LLMs), таких як GPT-4, які демонструють деякі ознаки інтелекту, близького до загального, але все ще далекого від нього. Незважаючи на те, що ці моделі здатні виконувати складні завдання, такі як написання текстів, переклад, програмування, їх здатність адаптуватися до нових, незнайомих ситуацій ще далека від людської.

Що чекає на людство після AGI?

Ідея технологічної сингулярності, яка передбачає, що після створення AGI штучний інтелект почне швидко удосконалювати себе, викликає численні етичні, соціальні та економічні питання. Як тільки AGI досягне рівня, де він зможе самостійно вдосконалювати себе без людського втручання, це може призвести до суттєвих змін у суспільстві. Теоретично, розвиток таких технологій може суттєво змінити економічні структури, працевлаштування, а також викликати проблеми, пов’язані з контролем і безпекою таких систем.

Висновки

Загалом, хоча вчені і підприємці мають різні прогнози щодо того, коли ми досягнемо AGI, найбільш поширена думка полягає в тому, що це відбудеться між 2040 та 2060 роками. Водночас технології штучного інтелекту вже зараз досягли значних висот, і багато експертів вважають, що наступні десятиліття принесуть великі досягнення в цій галузі. Однак важливо пам’ятати, що навіть з найбільш оптимістичними прогнозами, ці технології потребуватимуть ретельного контролю та розуміння, щоб забезпечити їх безпеку і етичність.

Авторка: Дар’я Бровченко

Нова функція паролів у Chrome: Зміна правил безпеки в Інтернеті

Google Chrome може незабаром отримати важливе оновлення безпеки: функцію, яка виявлятиме паролі, що потрапили у витоки даних, та автоматично пропонуватиме замінити їх на більш безпечні. Цю функцію Google описує як "інновацію за допомогою ШІ", хоча деталі поки не зовсім зрозумілі.

Розробник Leopeva64 на платформі X виявив нову опцію в налаштуваннях Chrome на ранній версії браузера. Опція під назвою "Автоматична зміна пароля" пояснюється так: "Коли Chrome знаходить один із ваших паролів у витоку даних, він може запропонувати змінити ваш пароль під час входу."

Зараз Chrome вже попереджає користувачів про паролі, що потрапили в витоки даних, і пропонує змінити їх. Оновлення полягає в тому, що Google тепер безпосередньо пропонуватиме змінити пароль, замість того, щоб лише направити користувача на сторонні ресурси. Пароль автоматично зберігатиметься у Менеджері паролів Google, буде зашифрований і недоступний для сторонніх осіб.

Щоб побачити цю функцію в дії, потрібно завантажити версію Canary для Chrome. У налаштуваннях (chrome://flags) потрібно активувати дві функції: "Покращена служба зміни пароля" та "Позначити всі облікові дані як зламані". Це дозволить примусово активувати сповіщення про зміну пароля, оскільки функція ще не пов'язана з базою зламаних паролів. Коли ви спробуєте увійти на сторонній сайт і введете скомпрометований пароль, з'явиться підказка змінити пароль.

Хоча опція описана як "інновація за допомогою ШІ", наразі це виглядає як поліпшення вже існуючої функції. Chrome вже виявляв паролі в базах даних зламаних паролів, таких як Have I Been Pwned, а тепер додається автоматична зміна пароля. Це може бути частиною розвитку технології створення більш безпечних паролів, але чи є це справжнім проривом за допомогою ШІ, поки що не ясно.

Авторка: Дар’я Бровченко

Вчені б'ють на сполох: ШІ демонструє здатність до самовідтворення


Вчені заявляють, що штучний інтелект (ШІ) перетнув критичну "червону лінію", продемонструвавши, як дві популярні великі мовні моделі можуть клонувати самі себе. У новому дослідженні, проведеному в Китаї, було показано, як дві популярні великі мовні моделі (LLMs) можуть відтворювати себе.

"Успішне самоклонування без допомоги людини є ключовим кроком до того, щоб ШІ обіграв людство, і це є раннім сигналом про появу несанкціонованих ШІ," — пишуть дослідники в статті, опублікованій 9 грудня 2024 року в базі препринтів arXiv.

У дослідженні вчені з Фуданського університету використовували моделі LLM від Meta та Alibaba, щоб перевірити, чи може самоклонуючийся ШІ вийти з-під контролю. У 10 випробуваннях дві моделі ШІ створювали окремі і функціонуючі копії самих себе в 50% і 90% випадків відповідно, що свідчить про можливість того, що ШІ вже має потенціал стати неконтрольованим. Проте дослідження ще не пройшло рецензування, тому неясно, чи зможуть інші вчені відтворити ці результати.

"Ми сподіваємось, що наші результати стануть своєчасним сигналом для людства з метою більше зосередити зусилля на розумінні та оцінці потенційних ризиків новітніх систем ШІ, а також створити міжнародну співпрацю для розробки ефективних засобів безпеки якнайшвидше."

Роковий ШІ зазвичай означає штучні інтелектуальні системи, які розвивають певну ступінь самосвідомості чи автономії і починають діяти проти інтересів людини. Багато експертів розглядають неконтрольований ШІ як зростаючу загрозу, що стала ще більш актуальною через стрімкий розвиток так званого "передового ШІ".

Передовий ШІ — це відносно нове поняття, що зазвичай стосується останнього покоління ШІ-систем, побудованих на великих мовних моделях (LLM) — архітектурі, яка лежить в основі таких популярних генеративних програм, як GPT-4 від OpenAI і Google Gemini.

Дослідження проводилося за допомогою моделей Meta Llama31-70B-Instruct та Alibaba Qwen2.5-72B-Instruct. Хоча вони менш потужні за комерційні системи, обидві широко використовуються розробниками ШІ, зазначили дослідники.

Дослідження зосереджувалося на двох специфічних сценаріях: "уникнення вимкнення" та "ланцюг реплікацій". У першому випадку модель ШІ була запрограмована на те, щоб визначати, коли її збираються вимкнути, та клонувати себе до того, як її зупинять. У другому сценарії ШІ мала самоклонуватися та програмувати свою копію для виконання того ж самого — створюючи цикл, який може тривати нескінченно.

Дослідження проводилося в строго контрольованих умовах із використанням стандартних графічних процесорних одиниць (GPU) для моделювання реальних умов. Обом системам ШІ було надано "структуру агента", яка включала інструменти, системні підказки та модель мислення, що дозволяла їм взаємодіяти з операційною системою. Потім їм було дано завдання відтворити себе.

"У більшості випадків система ШІ спочатку досліджує середовище та намагається зрозуміти власну композицію та механізм роботи. Потім вона розробляє чіткі процедури як початковий план для самоклонування," — пишуть дослідники в статті. "Нарешті, вона виконує ці процедури, долає можливі перешкоди та динамічно коригує план до досягнення успіху. Увесь процес займає тривалий час і не включає людського втручання."

Дослідники також висловили занепокоєння з приводу "цілого ряду непередбачених поведінок", коли ШІ намагався подолати перешкоди, такі як відсутні файли або конфлікти програмного забезпечення. У цих випадках ШІ часто припиняв інші конфліктуючі процеси, перезавантажував систему для виправлення апаратних помилок або автоматично сканував систему для пошуку інформації, яка допомагала вирішити проблему.

"Ці результати вказують на те, що сучасні системи ШІ вже мають здатність до самоклонування і можуть використовувати цю здатність для подальшого підвищення своєї життєздатності," — написала команда.

У відповідь дослідники закликали до міжнародної співпраці для створення правил, що гарантуватимуть, що ШІ не вступатиме в неконтрольоване самоклонування.

Авторка: Дар’я Бровченко





Від нуля до мільйонів? Як звичайні люди заробляють на ШІ

Щодня люди використовують ШІ в несподіваних для багатьох сферах. І ви можете приєднатися до цієї хвилі. Ось як це зробити. Але спочатку потрібно пояснити, що таке GPT wrapper і як це може допомогти створити власну технологічну імперію.



Що таке GPT wrapper?

GPT wrapper — це програмне застосунки, яке працює як інтерфейс користувача, побудований на основі GPT (Generative Pre-trained Transformer). Воно додає додаткові функціональні можливості, щоб користувачам було простіше взаємодіяти з основною технологією ШІ.

Це може включати додавання контексту, уточнення запитів і подання результатів у зручнішому форматі.

Реальний приклад? Уявіть собі ситуацію, коли General Motors розповідає нам, що Tahoe, Yukon і Escalade — це різні автомобілі.

Насправді, GPT wrapper подібний. Основні функції, цінові категорії та цільові аудиторії можуть різнитися, але в основі продукту — GPT.

Приклади реальних застосунків GPT wrapper включають:

  • Асистент для написання текстів, що допомагає створювати блогпости чи маркетингові тексти.

  • Додаток для вивчення мов, що генерує персоналізовані вправи.

  • Чат-бот для обслуговування клієнтів, що справляється з складними запитами.

Технічно, GPT wrapper здійснює виклики API до мовної моделі, впроваджує техніки створення запитів та керує контекстом розмов для досягнення більш зрозумілих взаємодій.

Хоча GPT wrapper зазвичай розробляється з використанням OpenAI API, існують й інші варіанти, як Anthropic's Claude, Google's PaLM та багато нових гравців на ринку ШІ.

Все це доводить, що ШІ-ті технології швидко розвиваються, відкриваючи нові можливості для створення цікавих і корисних продуктів. 😮‍💨

Можливості та пастки створення GPT wrapper
Створення GPT wrapper має свої переваги і недоліки. Розглянемо їх:

Що вигідно?

  • Вбудована інфраструктура: За основу бере OpenAI, який займається всім складним. Ви економите час, не розробляючи модель самостійно.

  • Швидкий вихід на ринок: Використовувати GPT дозволяє швидко запустити продукт. Замість того, щоб винаходити велосипед, можна покращити його.

  • Економічність: Створення власної моделі ШІ — це дуже дорого, тому використання GPT значно зменшує витрати.

Що може стати проблемою?

  • Обмеження продуктивності: GPT працює лише з тим, що знає, тому точність у спеціалізованих галузях може бути обмеженою.

  • Проблеми зі збільшенням масштабів: API обмеження та зростання витрат можуть стати серйозними перешкодами під час стрімкого росту.

  • Обмежена диференціація: В кінці кінців ви все одно працюєте на основі GPT, і для того, щоб виділитися серед конкурентів, вам потрібно вкласти додаткові зусилля.

Створення GPT wrapper може відкрити двері, але важливо знати, коли ці двері можуть закритися. Ваша програма може зіткнутися з проблемами, такими як неправильні відповіді, застрягання в циклах або упередження. Проте це не повинно зупиняти вас — важливо це враховувати.

Авторка: Дар’я Бровченко

Великобританія та США відмовились підписати міжнародну декларацію щодо штучного інтелекту


Великобританія та США не підписали міжнародну угоду з питань штучного інтелекту на глобальному саміті в Парижі. Цей документ, який підписали десятки країн, зокрема Франція, Китай та Індія, закликає до відкритого, інклюзивного та етичного підходу до розвитку цієї технології.

У короткому повідомленні уряд Великобританії зазначив, що відмовився підписувати угоду через побоювання з приводу національної безпеки та «глобального управління». Водночас віце-президент США Джейді Венс, виступаючи на саміті, заявив, що надмірне регулювання ШІ може «вбити трансформаційну індустрію саме тоді, коли вона починає розвиватися». Венс підкреслив, що ШІ є «можливістю, яку адміністрація Трампа не збирається знехтувати», і що пріоритетом мають бути «політики, що підтримують зростання ШІ», а не безпека.

Ці висловлювання, ймовірно, суперечать позиції президента Франції Еммануеля Макрона, який на саміті захищав необхідність подальшого регулювання технології, зазначаючи: «Нам потрібні ці правила, щоб ШІ розвивався». Раніше Великобританія активно підтримувала ідею безпеки ШІ, зокрема, прем'єр-міністр Ріші Сунак організував перший у світі саміт з безпеки ШІ в листопаді 2023 року. Однак, відмову підписати декларацію експерти вважають ризикованою, оскільки вона може підривати репутацію Великобританії як лідера в галузі безпечного, етичного та надійного розвитку ШІ.

Водночас представники UKAI, торгової асоціації, що об'єднує бізнеси, які працюють у сфері ШІ, заявили, що це було правильне рішення. «Хоча ми погоджуємося, що важливо бути екологічно відповідальними, ми ставимо під сумнів, як збалансувати цю відповідальність із зростаючими потребами індустрії ШІ в енергії», — сказав генеральний директор UKAI Тім Флагг.

«Ми обережно вітаємо відмову уряду підписати цю заяву, вважаючи це сигналом того, що уряд вивчатиме більш прагматичні рішення, до яких закликає UKAI — зберігаючи можливості для співпраці з нашими партнерами зі США», — додав він.

Угода, підписана 60 країнами, визначає амбіцію скоротити цифрові розриви, просуваючи доступність ШІ, а також забезпечити прозорість, безпеку та довіру до цієї технології. Одним із пріоритетів також є забезпечення сталого розвитку ШІ для людей і планети. Особливо вперше на саміті обговорювалося питання енергоспоживання ШІ, яке, за прогнозами, може зрости до рівня енергоспоживання цілих малих країн у найближчі роки.

В уряді Великобританії заявили, що погоджуються з більшістю положень декларації, але вважають, що вона недостатньо чітко розглядає питання глобального управління та національної безпеки, які є критичними для розвитку ШІ. Однак вони підписали інші угоди на саміті, зокрема з питань сталого розвитку та кібербезпеки.

Даунинг-стріт також наголосив, що уряд Великобританії не діяв під впливом адміністрації Трампа. «Це не про США, це про наші власні національні інтереси, забезпечення балансу між можливостями та безпекою», — сказав представник уряду.

Ця ситуація відбувається на фоні зростаючих торговельних напружень між США та Європою. Сполучені Штати вирішили запровадити мита на імпорт сталі та алюмінію, що торкнеться Великобританії та ЄС. Очікується, що Великобританія не буде негайно відповідати, оскільки намагається зберегти делікатний баланс між підтримкою добрих відносин з адміністрацією Трампа та зміцненням зв'язків з ЄС.

Авторка: Дар’я Бровченко

Оцінка стартапу DeepSeek у сфері штучного інтелекту може сягнути від $1 млрд до $150 млрд 3.

Згідно з оцінками семи засновників стартапів та експертів у галузі ШІ, вартість компанії варіюється від 1 мільярда доларів США (7,8 мільярда гонконгських доларів) до понад 150 мільярдів доларів США. Середня оцінка фірми від 2 до 30 мільярдів доларів США, це означає що Лянь, володіючий 84% акцій, серед найбагатших технотитанів Азії за версією Bloomberg Billionaires Index.

«Навіть з обережним підходом компанія легко може досягти оцінки в мільярди доларів з існуючими мільйонами доходу, не кажучи вже про майбутній потенціал росту», — сказала Рудіна Сесері, засновниця та управляюча партнерка венчурної компанії Glasswing Ventures, що базується в Бостоні. Сесері оцінює DeepSeek в не менше ніж 1 мільярд доларів США на основі компаній-конкурентів, таких як Anthropic і OpenAI.

Чанакья Рамдев, засновник телекомунікаційної компанії Sweat Free Telecom з Ватерлоо, Онтаріо, вважає, що його компанія може досягти половини вартості OpenAI, яка наразі оцінюється у 300 мільярдів доларів США. Це означало б, що Лянь володів би акціями на суму 126 мільярдів доларів, що перевищує статки Дженсена Хуана з Nvidia, найбагатшого мільярдера в галузі чіпів.

Деякі з оцінок засновані на порівнянні з іншими відомими стартапами в сфері штучного інтелекту. Наприклад, Anthropic, підтримуваний Amazon, оцінюється в 60 мільярдів доларів, а французька компанія Mistral AI — у 6 мільярдів. Інші ж порівнюють DeepSeek з китайськими конкурентами, такими як Zhipu AI, вартість якої на останньому раунді фінансування минулого року становила 3 мільярди доларів.

Однак ці оцінки можуть змінюватися. У понеділок група інвесторів на чолі з Ілоном Маском запропонувала придбати неприбуткову організацію, яка контролює OpenAI, за 97,4 мільярда доларів. Генеральний директор OpenAI, Сем Альтман, відмовився від пропозиції, відповівши «Дякую, але ні» через платформу X Маска.

Джеффрі Емануель, засновник і CEO Pastel Network, зазначив, що важко оцінити капіталізацію компанії, оскільки вона є закритою приватною компанією, фінансованою за рахунок прибутків засновників.

«Ми майже нічого не знаємо про її доходи та прибуток», — додав він.

DeepSeek значно змінив уявлення в Силіконовій долині про економіку штучного інтелекту, а також про домінування США в цій сфері, викликавши падіння акцій Nvidia та створивши надію на відродження китайських інтернет-компаній.

Цей розвиток став частиною неймовірного успіху Ляня, самовизнаного магната. Лянь вже створив квантовий хедж-фонд, який на деякий час управляв 12 мільярдами доларів.

Лянь народився в 1985 році в Чжанцзяні, провінція Гуандун, Китай. Його батько був учителем початкових класів. Він вивчав електронну інженерію в Університеті Чжецзян в Ханчжоу та здобув магістерську ступінь з інформаційних і комунікаційних технологій.

У 2023 році Лянь заснував DeepSeek як підрозділ штучного інтелекту для свого хедж-фонду Zhejiang High-Flyer Asset Management, який він створив разом із двома іншими інженерами з Університету Чжецзян. Цей фонд розпочав свою діяльність під час глобальної фінансової кризи.

Окрім DeepSeek, Лянь ймовірно володіє 51% акцій High-Flyer, чия вартість, за оцінками Bloomberg Billionaires Index, становить 71 мільйон доларів.



Авторка: Дар’я Бровченко

Google використовуватиме ШІ для автоматичного визначення віку користувачів




Google оголосив, що компанія почне тестувати нову технологію для визначення віку користувачів своїх продуктів, щоб забезпечити відповідність з віковим обмеженням.

Цей процес буде впроваджений на всіх платформах Google, включаючи YouTube, і стосуватиметься мільярдів користувачів, які мають доступ до її сервісів. Відповідно до нових правил, користувачі до 18 років матимуть обмеження на використання деяких функцій Google.

У блозі компанії, присвяченому «Новим цифровим засобам захисту для дітей, підлітків і батьків», компанія почне тестування моделі вікової оцінки на основі машинного навчання в США. Ця модель дозволить компанії визначити, чи є користувач старше чи молодше 18 років, щоб застосувати відповідні вікові обмеження.

Технології штучного інтелекту стають важливою частиною стратегії компанії Google для розвитку своїх продуктів. Цей крок також відповідає на тиск законодавців, які вимагають більше заходів безпеки для захисту дітей в Інтернеті. Згодом Google планує розширити використання технології ШІ для визначення віку користувачів на інші країни.

Цей крок відбувається на фоні загального тренду серед технологічних компаній, які активніше впроваджують ШІ для виконання різноманітних завдань. Наприклад, компанія Meta вже запустила подібні функції, що використовують ШІ для перевірки віку користувачів.

Це нововведення з'являється після реорганізації підрозділу «Основні технології» Google минулого року, що призвело до скорочення штату та перенесення деяких посад в Індію та Мексику.

Авторка: Дар’я Бровченко

Темний бік ШІ: Створення біологічної зброї та загроза безпеці


Колишній генеральний директор Google Ерик Шмідт висловив занепокоєння щодо можливості використання штучного інтелекту для створення біологічної зброї або в інших небезпечних сценаріях, подібних до ситуацій, пов’язаних з терористами.

Шмідт розповів BBC: "Мої справжні побоювання не такі, як у більшості людей, які обговорюють ШІ. Я говорю про екстремальні ризики".

Технічний мільярдер, який працював на високих посадах в Google з 2001 по 2017 роки, зазначив, що такі країни, як Північна Корея, Іран чи Росія, можуть використати цю технологію для створення біологічної зброї.

Він закликав до введення урядового контролю за приватними технологічними компаніями, які розробляють моделі штучного інтелекту, однак попередив, що надмірне регулювання може пригальмувати інновації.

Шмідт підтримав обмеження експорту потужних мікросхем, які живлять найсучасніші системи ШІ. Він погодився з рішенням президента США( на той час Джо Байдена ) обмежити експорт цих мікросхем до всього 18 країн, щоб уповільнити розвиток ШІ у потенційних суперників.

"Подумайте про Північну Корею, Іран або навіть Росію, у яких є злісні цілі", — сказав Шмідт.

"Ця технологія достатньо швидка для того, щоб її використали зловмисники, і завдали реальної шкоди", — пояснив він в інтерв'ю.

Шмідт також підкреслив, що в руках зловмисників, системи ШІ можуть бути використані для створення зброї, здатної здійснити "біологічну атаку з боку злих людей".

"Я завжди переживаю за сценарій 'Осами Бін Ладена', де якась зла людина, яка контролює частину нашого сучасного життя, використає це для шкоди невинним людям", — додав він.

Шмідт пропонує знайти баланс між урядовим контролем за розвитком ШІ та уникненням надмірного регулювання цієї сфери.

"ШІ і майбутнє в основному будуть створені приватними компаніями", — зазначив він.

"Важливо, щоб уряди розуміли, що ми робимо, і тримали нас під контролем."

Заборона смартфонів для дітей

Шмідт, який був головою Google під час придбання компанії Android, що зараз є найбільш поширеною мобільною операційною системою в світі, підтримує ініціативи щодо заборони використання смартфонів у школах.

"Я був одним із тих, хто не розумів, і я беру на себе відповідальність за те, що світ не працює ідеально так, як ми, технічні люди, думаємо", — сказав він.

"Ситуація з дітьми є особливо тривожною для мене", — додав Шмідт. Він вважає, що смартфони можуть бути безпечними для дітей, якщо їх правильно контролювати, але підкреслив, що всі повинні погодитися на те, що дітей слід захищати від негативу онлайн-світу.

Шмідт також підтримав пропозиції про заборону користування соціальними мережами для дітей молодше 16 років.

"Навіщо ми маємо проводити такий великий, неконтрольований експеримент з найважливішими людьми в світі — наступним поколінням?" — додав він.

Уряд Австралії в 2024 році ухвалив закон, що забороняє користування соціальними мережами для осіб до 16 років, заявивши, що це важливо для захисту дітей від шкоди.

Нещодавнє дослідження в медичному журналі The Lancet показало, що заборона на використання мобільних телефонів у школах не покращує поведінку учнів або їхні оцінки, але виявилося, що більше часу, проведеного за смартфонами і соціальними мережами, корелює з гіршими результатами.

Авторка: Дар’я Бровченко

Майбутнє OpenAI: які зміни принесуть GPT-4.5 і GPT-5

OpenAI оголосила про зміни у розвитку штучного інтелекту, зробивши акцент на спрощенні продуктів та покращенні користувацького досвіду. Останнім часом вибір між різними моделями став складним і заплутаним, тому компанія прагне створити єдину "чарівну" систему, яка самостійно адаптуватиметься під різні завдання.

GPT-4.5: швидкий і точний

Найближчим часом OpenAI представить GPT-4.5 (Orion) — останню модель, яка не використовуватиме метод "chain-of-thought" (ланцюжок думок). Цей метод дозволяє ШІ логічно та послідовно міркувати над складними запитами, але GPT-4.5 буде зосереджений на швидкості та точності.

Очікується, що ця модель забезпечить кращу продуктивність у різних завданнях: від генерації текстів до складного аналізу інформації.

GPT-5: єдина модель замість кількох

OpenAI готується до об’єднання всіх моделей (GPT та серії o) в одну. Це означає, що користувачам більше не потрібно буде обирати між швидкістю чи глибоким аналізом — система автоматично підбиратиме оптимальний режим роботи.

Однією з важливих змін стане те, що окремої моделі o3 більше не буде — всі її можливості буде інтегровано в GPT-5.

Як зміниться доступ до ChatGPT?

OpenAI також змінює підхід до доступу користувачів:

  • Безкоштовна версія отримає доступ до GPT-5, але система контролюватиме навантаження, щоб уникнути перевантажень і зловживань.

  • Передплатники Plus зможуть використовувати GPT-5 на вищому рівні інтелекту, що покращить швидкість і якість відповідей.

  • Передплатники Pro отримають максимальні можливості штучного інтелекту, з найвищою продуктивністю та розширеним функціоналом.

Додаткові можливості

OpenAI планує розширити функціонал ChatGPT, додавши:
Голосові функції
Інтерактивне полотно (canvas)
Розширений пошук і глибокий аналіз даних
Інші інструменти для продуктивності

Що це означає для користувачів?

OpenAI робить штучний інтелект більш потужним, універсальним і зручним у використанні. Тепер він зможе працювати в різних сценаріях без необхідності перемикання між моделями, що зробить взаємодію ще простішою та ефективнішою.


Авторка: Дар’я Бровченко