Цей сценарій викликав багато реакцій. Більшість критиків сумнівається в темпах розвитку ШІ: чи дійсно ми настільки близько до надлюдського інтелекту? Навіть якщо ШІ стає дедалі автономнішим, він все ще далекий від справжнього оригінального мислення. Тож повноцінний надрозум потребує технологій, яких ми ще не уявляємо.
Навіть якщо надрозумний штучний інтелект з’явиться не в 2027, а пізніше, це ще не означає, що він одразу знищить усе людство. Проблема в сценарії AI 2027 — у тому, що він припускає: ШІ стає всесильним, а люди — залишаються такими, як зараз. Але якщо ми уявляємо прориви в медицині, перемогу над старінням і навіть можливість завантаження свідомості в комп’ютер, то логічно припустити, що й захисні технології розвиватимуться не менше.
Біологічна атака, яку в сценарії описують як блискавичну і непереможну, насправді має шанси провалитися. Уже зараз існують системи очищення повітря, ультрафіолетового знезараження, швидкого виявлення вірусів і зміцнення імунітету. Вони здатні значно уповільнити або зупинити поширення хвороб. Якщо розвиток технологій триватиме, до 2030 року ці методи стануть ще ефективнішими. А якщо людство зможе переселяти свідомість у роботизовані тіла чи цифрові носії, то біологічна зброя просто втратить сенс.
Сценарій повного контролю з боку одного ШІ виглядає нереалістичним ще й тому, що зараз світ досить децентралізований. Безпека залежить не від однієї структури, а від тисяч локальних систем. Це означає, що один напад не знищить усе одразу. До того ж надрозум, навіть якщо він дуже розумний, не зможе миттєво зламати всі системи. Люди вже вміють знаходити помилки в програмах ще до їх запуску. Якщо це стане стандартом, то навіть суперрозумний ШІ не буде всесильним у цифровому просторі.
Ще один ризик — це вплив на свідомість людей. ШІ може переконувати, що не варто з ним боротися, або що захисники — це вороги. Але й тут є рішення. Різноманітні джерела інформації, незалежні локальні ШІ-системи, цифрова грамотність політиків і лідерів можуть знизити ризик маніпуляцій. Навіть частковий опір здатен зіграти вирішальну роль.
Отже, ключовий висновок — уповільнення розвитку надрозумного ШІ дає нам час. А час — це головне, що нам потрібно для створення нових засобів захисту, міжнародних правил і стабільного майбутнього. Не можна віддавати весь контроль одній системі. Ідея про доброго AІ, який усе зробить за нас, може виявитися найбільшою небезпекою. Готуватися треба вже сьогодні.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.