Штучний інтелект може стати неконтрольованим і небезпечним для людства

Про ідею штучного інтелекту, який повалить людство, говорили десятиліттями, і в 2021 році вчені винесли вердикт щодо того, чи зможемо ми контролювати комп’ютерний супер-інтелект високого рівня. Відповідь? Майже точно ні.

Заковика полягає в тому, що керування супер-інтелектом, який знаходиться далеко за межами людського розуміння, вимагатиме симуляції цього інтелекту, який ми можемо аналізувати (і контролювати). Але якщо ми не можемо це зрозуміти, неможливо створити таку симуляцію.

Такі правила, як «не завдавати шкоди людям», не можуть бути встановлені, якщо ми не розуміємо, які сценарії збирається придумати штучний інтелект, вважають автори нової статті. Коли комп’ютерна система працює на рівні, що перевищує можливості наших програмістів, ми більше не можемо встановлювати обмеження.

«Супер-інтелект створює принципово іншу проблему, ніж ті, які зазвичай вивчаються під прапором «етики роботів», — пишуть дослідники.

«Це тому, що супер-інтелект є багатогранним і, отже, потенційно здатним мобілізувати різноманітні ресурси для досягнення цілей, які є потенційно незрозумілими для людей, не кажучи вже про те, що ними можна керувати».

Частина міркувань команди виникла з проблеми зупинки, висунутої Аланом Тюрінгом у 1936 році. Проблема полягає в тому, щоб дізнатися, чи досягне комп’ютерна програма висновку та відповіді (тому вона зупиняється), чи просто вічно петляє, намагаючись його знайти.

Як довів «Тюрінг» за допомогою розумної математики, хоча ми можемо знати, що для деяких конкретних програм логічно неможливо знайти спосіб, який дозволить нам знати це для кожної потенційної програми, яку можна коли-небудь написати. Це повертає нас до штучного інтелекту, який у супер інтелектуальному стані міг би утримувати всі можливі комп’ютерні програми у своїй пам’яті одночасно.

Наприклад, будь-яка програма, написана для того, щоб зупинити штучний інтелект від заподіяння шкоди людям і руйнування світу, може прийти до висновку (і зупинитися) чи ні – для нас математично неможливо бути абсолютно впевненими в будь-якому випадку, а це означає, що це неможливо стримувати.

«По суті, це робить алгоритм стримування непридатним для використання», — сказав комп’ютерний науковець Іяд Рахван з Інституту людського розвитку Макса Планка в Німеччині в 2021 році.

Альтернативою навчанню штучного інтелекту етики та вказівкам йому не руйнувати світ – те, у чому жоден алгоритм не може бути абсолютно впевнений, – кажуть дослідники, – це обмежити можливості супер-інтелекту. Він може бути відключений від частин Інтернету або, наприклад, від певних мереж.

Дослідження також відхилило цю ідею, припустивши, що вона обмежить охоплення штучного інтелекту; Аргумент полягає в тому, що якщо ми не збираємося використовувати його для вирішення проблем, які виходять за рамки людського потенціалу, то навіщо взагалі його створювати?

Якщо ми збираємося просувати вперед штучний інтелект, ми можемо навіть не знати, коли прибуде супер-розум, який ми не можемо контролювати, настільки його незбагненність. Це означає, що нам потрібно почати ставити кілька серйозних питань щодо напрямків, у яких ми рухаємося.

«Супер-розумна машина, яка контролює світ, звучить як наукова фантастика», — сказав комп’ютерний науковець “Мануель Себріан” з Інституту людського розвитку Макса Планка також у 2021 році. «Але вже є машини, які виконують певні важливі завдання самостійно без повної участі програмістів. розуміння того, як вони цьому навчилися».

«Тому виникає питання, чи може це в якийсь момент стати неконтрольованим і небезпечним для людства».

Дослідження було опубліковано в Journal of Artificial Intelligence Research.

Підписатися
Сповістити про
guest
0 комментариев
Вбудовані Відгуки
Переглянути всі коментарі