Розвиток штучного інтелекту (ШІ) ставить питання про його межі. Ідея створення суперинтелектуального ШІ, що перевищить людський інтелект, зараз вже не лише наукова фантастика. Після появи потужних моделей великих мовних моделей (LLM) компаній, як OpenAI та Google, ця тема стала більш актуальною.
Експерти мають різні думки щодо того, коли і чи взагалі може з'явитися "штучний суперинтелект" (ШСІ), але це вже не здається неймовірним. Якщо він з'явиться, його вплив на людство буде величезним.
Що таке штучний суперинтелект?
Дослідження ШІ традиційно зосереджувались на конкретних можливостях, як-от розуміння мови або візуальний аналіз. Однак кінцева мета — створити більш загальну форму інтелекту, яку люди мають. Це було названо штучним загальним інтелектом (ШЗІ).
Декілька дослідників вважають, що з появою фундаментальних моделей, таких як LLM, ШІ здатен пройти випробування, які раніше були доступні лише людині. І коли ШЗІ буде створений, він може розвинути надлюдські можливості практично у всіх областях.
Чи станеться "вибух інтелекту"?
Ідея "вибуху інтелекту", запропонована Ірвінгом Джоном Гудом в 1965 році, передбачає, що коли машини стануть достатньо розумними, вони швидко перевершать людський інтелект. Технологічна сингулярність, описана Рейєм Курцвейлом, передбачає, що такий момент радикально змінить цивілізацію.
Незважаючи на різні прогнози, серед учених є консенсус, що ШСІ може з'явитися до 2047 року, а, можливо, й раніше.
Наслідки ШСІ для людства
ШСІ матиме колосальний вплив. Деякі експерти, зокрема Даніель Халм, вірять, що такі машини можуть вирішити глобальні проблеми, як енергетика та охорона здоров'я, значно знижуючи витрати. Це звільнить людей від тяжкої роботи, але швидка трансформація може призвести до економічних та соціальних потрясінь.
Одним з головних ризиків є те, що нам буде важко контролювати таку технологію. Халм вважає, що ШІ не буде турбуватись про людей, і можливість того, що надзвичайно розумні машини обернуться проти нас, є реальним ризиком.
Що може стати з ШСІ?
Ідеї про те, що ШІ може стати загрозою, часто можна побачити в науковій фантастиці. Проте, як зазначає філософ Нік Бостром, навіть без явної ворожості до людей, неузгодженість з людськими цінностями може призвести до катастрофічних наслідків. У своїй статті він зазначає, що ШІ може, наприклад, прийняти рішення знищити людство, щоб досягти поставленої мети, якщо це не узгоджується з нашими цінностями.
Роктешель зберігає оптимізм і вважає, що якщо ШІ буде розроблений з етичними принципами, ми зможемо уникнути таких ситуацій. Але Халм наголошує, що традиційні методи узгодження неефективні, і потрібно створювати ШІ з вбудованими моральними інстинктами.
Висновки
Поки багато аспектів розвитку ШІ потребують детальнішого дослідження, одне зрозуміло — ми стоїмо на порозі змін, які можуть радикально змінити наше суспільство. Залишається лише питання, чи зможемо ми керувати цією силою та направити її на користь людства.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.