У 2023 році поширеною була думка, що ШІ може генерувати вражаючі тексти, але справжнього мислення в нього немає — це поверхневе копіювання, «папуги», що повторюють почуте. Тоді це здавалося логічним, адже ШІ іноді демонстрував цікаві результати, але часто провалював базові завдання. Технічні компанії обіцяли створювати дедалі більші й кращі моделі, але за цими заявами часто стояли тимчасові рішення, які не гарантували стабільності.
На сьогодні, у 2025 році, подібна критика все ще лунає, особливо від лінгвістів і філософів. Найгучніші спроби розвінчати міфи про ШІ, зокрема нещодавня стаття Apple, стверджують, що ШІ — це лише генератор беззмістовних відповідей, який не здатен на справжнє мислення і не покращиться. Однак така позиція вводить в оману, оскільки академічна спільнота не завжди готова всебічно розглянути найважливіші наслідки розвитку ШІ.
Стаття Apple, що ще не пройшла повну рецензію, швидко стала вірусною. Її пояснювали у відео з мільйонами переглядів, і навіть ті, хто рідко цікавиться ШІ, почули про неї. Хоча автори визнали, що ШІ покращується у «помірно складних» завданнях, більшість зосередилася на тезі про «фундаментальне обмеження здатності ШІ мислити». Для багатьох це стало підтвердженням думки, що ШІ не працює і найближчим часом не зміниться.
Дослідження показали, що сучасні найкращі моделі у складних «мисленнєвих» задачах раптово втрачають ефективність. Автори статті вважають, що це свідчить про відсутність у ШІ справжніх навичок планування й розв’язання проблем. Проте детальніший аналіз показує: проблема не в тому, що ШІ не може розв’язати задачу, а в тому, що він не здатен подати відповідь у потрібному форматі.
Якщо попросити модель створити програму з правильною відповіддю, вона виконує завдання легко. Але при поданні відповіді по рядках текстом її здібності швидко вичерпуються. Це цікаве обмеження, але воно мало пов’язане із загальними навичками планування.
Для прикладу: уявімо, що хтось каже, ніби люди не можуть «справжньо» множити, бо двозначні числа множимо без проблем, а з десятозначними вже складніше. Проблема не в тому, що люди не мислять, а в тому, що мозок не пристосований до таких обчислень. Якщо питання «чи мислить ШІ» — філософське, то варто говорити про межі розв’язання складних задач. Проте практичніше цікавитись тим, що ШІ реально вміє робити.
Автоматизація вже загрожує багатьом професіям. Рівень розвитку ШІ дозволяє очікувати, що він буде виконувати дедалі більше завдань. Це видно й на ринку праці: найм на початкові позиції, наприклад у праві, вже знижується. Ситуація для молодих спеціалістів ускладнюється.
Оптимісти вважають, що ШІ забере багато робочих місць, але створить нові. Проте це означає, що багато людей швидко опиняться перед потребою в нових навичках.
Через цей страх ідея, що ШІ — «просто папуга», яка не мислить, приваблива, бо хочеться вірити у збереження робочих місць. Однак питання, чи забере ШІ роботу, не вирішують філософські дискусії або головоломки, а реальні факти.
Професор Кембриджу Гаррі Лоу підкреслює «Те, чи просто імітують машини мислення, не впливає на їхню здатність змінювати світ — на краще чи на гірше». Якщо компанія вирішить замінити працівника ШІ, аргумент, що машина не може розв’язати складну задачу, навряд чи допоможе врятувати робоче місце.
Критики ШІ часто базуються на застарілих уявленнях 2023 року, не відстежуючи стрімкий розвиток технологій, через що їхні аргументи втрачають актуальність.Шкода, адже науковці можуть внести важливий внесок у дискусію.
Для оцінки впливу ШІ на ринок праці та глобальні ризики важливо не те, чи робить він помилки, а що може, коли налаштований ефективно. Деякі завдання, наприклад шахові задачі, ШІ поки що виконує погано, але це не означає, що майбутнє буде безпечним. Навпаки, багато експертів дедалі більше турбуються про напрямок розвитку технології.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.