ТЕХНОЛОГІЇ

AGI, суперінтелект й екзистенційний ризик. Чому надрозумний ШІ може нас знищити?

19 Січня 2024, 11:30
16 хв читання
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

dmitriy-koshelnik
Дмитро Кошельник Придумую теми, редагую тексти, пишу про компанії і підприємців, чіпляюся до фактів.
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

23 грудня Сем Альтман опублікував у X питання «Що б ви хотіли, щоб OpenAI побудувала/виправила у 2024 році?». Допис набрав понад 6 000 коментарів. Серед найпопулярніших варіантів був AGI. Під цією абревіатурою ховається термін «artificial general intelligence», який у нас перекладають «сильний штучний інтелект». 

Вважається, що AGI буде здатний виконати будь-яке людське інтелектуальне завдання. Проте це не остання стадія розвитку ШІ. Навіть більше — не вона загрожує потенційному існуванню людства. Шеф-редактор Vector Дмитро Кошельник розповідає, на що буде теоретично здатний штучний суперінтелект та чому він небезпечний.

Як класифікувати ШІ

Прийнято виділяти три етапи розвитку штучного інтелекту:

  • Штучний вузький інтелект (artificial narrow intelligence, ANI). Це ШІ, створений для виконання одного конкретного завдання. Наприклад, програма AlphaGo, яка перемогла триразового чемпіона Європи з ґо Фань Хуея. Тобто AlphaGo краща за людину лише в одній сфері — ґо.
  • AGI (artificial general intelligence, сильний штучний інтелект). Він здатний виконувати будь-яке інтелектуальне завдання на рівні з людиною. Тут важливий момент — широкий набір навичок. Тобто машина, подібно до людини, зможе навчитися виконувати різні завдання. У своїй книзі «Останній винахід людства» Джеймс Баррат, акцентує на самому терміні «інтелект людського рівня». Останній, наприклад, допомагає нам керувати авто, вдумливо користуватися інтернетом, розмовляти різними мовами, змінювати навколишній світ тощо. Таким чином AGI, на думку Баррата, це передовсім про сукупність складних навичок. Цим він відрізняється від зосередженого на одному завданні ANI.
  • Штучний суперінтелект (Artificial superintelligence, ASI). Це ШІ, який за своїми можливостями перевершуватиме людину. Найчастіше саме про нього розповідають у фантастичних фільмах та книгах. Зокрема, у них він виступає «злим ШІ, який бажає знищити людство». 

Поки ми живемо у світі, де є лише одна по-справжньому високоінтелектуальна істота — людина. Програми здатні виконувати наші завдання та допомогти досягати цілей. ШІ-застосунок, який рекомендує вам сісти на дієту чи почати бігати, не зможе змусити вас це робити. Навіть сова Duolingo. Проте розвинутий ШІ буде достатньо могутнім, щоб керувати чи маніпулювати людьми задля реалізації закладеної місії.

І тут все залежатиме від того, чи змогли творці створити необхідні захисні механізми. Інакше, наприклад, ШІ заблокує вам картки, щоб стимулювати бігати. Або може придумати якийсь набагато неприємніший підхід, щоб змусити людину скинути зайву вагу. Але про це поговоримо далі.

Коли чекати просунутого ШІ

Наразі ми вже маємо ANI та рухаємося в бік AGI. Тут же постає питання, а коли чекати на нього. Щодо цього є лише певні прогнози та припущення. Наприклад:

  • CEO Anthropic Даріо Амодей вважає, що AGI з’явиться через два-три роки. 
  • Співзасновник DeepMind Шейн Легг прогнозує, що з 50% імовірністю AGI створять до 2028-го.
  • У Microsoft тим часом помітили іскри AGI у моделі GPT-4.
  • У згаданому вище опитуванні Сем Альтман попросив «трохи терпіння» щодо створення AGI. 

А от філософ та директор Інституту майбутнього людства Нік Бостром у книзі «Суперінтелект» (вийшла 2014-го) говорить про віддаленішу перспективу створення AGI. Він наводить опитування фахівців щодо того, коли вони очікують появи штучного інтелекту людського рівня. Під останнім мали на увазі «здатність освоїти більшість професій, принаймні тих, якими могла б володіти середньостатистична людина». Дослідження показало, що середня імовірність появи AGI до 2040 року становить 50%, а до 2075 року — 90%. 

Звичайно, з часу виходу книги пройшло вже майже десять років. За цей час людство зробило суттєвий крок уперед, але, можливо, нам не варто бути настільки оптимістичними щодо AGI, не кажучи вже про ASI.

Щодо останнього прогнозувати теж складно. Наприклад, Chief AI Scientist Meta Ян ЛеКун в інтерв’ю Wired заявив таке: «Немає жодних сумнівів у тому, що машини стануть розумнішими за людей. Ми не знаємо, скільки часу це займе: можливо, роки, можливо, століття». 

Словом, рано чи пізно штучний інтелект спочатку наздожене людину, а потім стане розумнішим за нас. Це змінить світ, до якого ми звикли. 

Яким буде ASI

Ми уявляємо, як виглядатиме інтелект людського рівня, бо маємо з ним справу щодня. Проте й тут не варто переоцінювати наші можливості. Наприклад, досі існують розбіжності щодо визначення самого поняття «інтелект». 

Щодо ASI ситуація складніша, бо ми не розуміємо, що таке насправді надлюдський інтелект. Гарна ілюстрація змалювання богів у релігіях та міфах. Зверніть увагу, що зазвичай вони поводять себе, як люди з надприродними силами, а не надістоти, які створили цей світ і все у ньому. Це цілком зрозуміло, бо міфи та релігії творять люди і закладають туди зрозумілий нам інтелектуальний рівень. 

Проблема в тому, що ASI за своїми можливостями буде значно переважати те, що ми можемо.

Імовірно, суперінтелект буде розумнішим за людину не лише в сферах, про які ми знаємо, але й тих, про які не маємо уявлення. Різниця між ASI і людством буде десь на рівні, як між нами та хробаками. 

За Бостромом, «надрозум» значно перевершуватиме найкращі уми людства в багатьох універсальних проявах когнітивної діяльності. Водночас сам філософ додає, що це досить розпливчастий опис. Тому на статус «надрозуму» почнуть претендувати різні системи «з абсолютно непорівнянними функціональними властивостями».

У своїй книзі Бостром виділяє три типи суперінтелекту:

  • Надшвидкий — до нього входять системи, які можуть все те ж, що людський розум, але значно швидше. 
  • Колективний — складається з великої кількості інтелектів нижчого рівня. Це дозволить йому значно перевищувати продуктивність будь-якої когнітивної системи в низці універсальних галузей діяльності. По суті це не нова нам концепція. Так уже функціонують креативні команди, наукові спільноти, компанії чи навіть держави.
  • Якісний — система, за швидкістю роботи порівнянна з людським розумом, але значно сильніша за якістю.

«Надрозум, що виник за якимось одним з описаних вище типів, згодом міг би розвинути технології, необхідні для створення надрозуму і за іншими типами. Таким чином, опосередковано всі три типи надрозуму однаково досяжні», — пише Бостром.

У тематичній літературі роздуми про майбутню всемогутність ASI мають такий вигляд, як дивний сплав теоретичних викладок та фантастики. Тому ставитися до них варто з певним скептицизмом. Зокрема, здається, що суперінтеллект отримає низку справді «божественних» можливостей. Наприклад, перетворення матерії. Також він, імовірно, буде здатний розв’язувати глобальні проблеми на кшталт досягнення безсмертя, закінчення війн, лікування хвороб, розкриття всіх можливих наукових таємниць тощо. 

Є й досить апокаліптичні уявлення. Наприклад, Баррат пише:

«У гонитві за ASI дослідники отримають потужніший розум, ніж їхній власний; вони не зможуть ні контролювати його, ні навіть до кінця зрозуміти. Ми знаємо на досвіді, що відбувається, коли технічно розвинена цивілізація зустрічається з менш розвиненою: Христофор Колумб проти Тіано, Пісарро проти Великого Інки, європейці проти американських індіанців. Приготуйтеся до наступного зіткнення цивілізацій — ми з вами проти штучного суперінтелекту».

ASI проти людства

Чому ШІ може нас знищити

У фантастичних фільмах і літературі вистачає історій, де надрозумна, просунута ШІ-система вирішує підкорити чи знищити людство. Це цілком вкладається в наше розуміння того, чого захоче всемогутній інтелект. Проте ASI необов’язково оперуватиме такими категоріями.

Футуролог та фахівець зі штучного інтелекту Елізер Юдковський пояснює, що просунутий ШІ може бути небезпечний для людства навіть при позитивних цілях. Наприклад, робити людей навколо себе щасливими і задоволеними. Що в цьому поганого? Проблеми виникнуть, якщо ШІ не розумітиме обмеження щодо виконання цього завдання.

Наприклад, він може вирішити, що роблячи людям ін’єкції героїну, швидше та якісніше виконає свою місію. 

Або уявіть, що хтось створив ASI із завданням максимально збільшити врожай пшениці. Теж наче нічого небезпечного. Проте без необхідних обмежень це може загрожувати перетворенням всього Всесвіту у велику ферму. Навіть «мир в усьому світі» може, наприклад, означати лоботомування людства або утримання нас на важких наркотиках, щоб не допустити війн. 

Словом, ніхто не змусить ASI діяти етично та зберігати людські життя за замовчуванням. Як зазначає все той же Юдковський: «Штучний інтелект не відчуває до вас ні ненависті, ні любові, але ви складаєтеся з атомів, які він може використовувати для своїх цілей».

Чи можна втримати просунутий ШІ в «коробці»

Коли ми пишемо про людей, які займаються розробкою ШІ, то завжди маємо на увазі видатних учених та дослідників. Звідси виникає часто хибне відчуття, що вони контролюють ситуацію. Тобто коли з’явиться ASI, вчені швидко зреагують, локалізують його в одній кімнаті чи взагалі вимкнуть. Насправді все дещо складніше.

Борстром описав три сценарії переходу від AGI до ASI:

  • Повільний (від десятиліть до століть). У цьому сценарії людство встигне обміркувати подальші кроки, підготуватися та правильно реагувати. Це, зокрема, дозволить послідовно тестувати різні підходи та готувати фахівців. «Якщо з’ясується, що потрібні нові системи безпеки і громадського контролю над дослідженнями в галузі ШІ, буде достатньо часу, щоб їх розробити і розгорнути. Країни і вчені, які побоюються перегонів озброєнь у сфері військового застосування ШІ, зможуть провести необхідні переговори і розробити захисні механізми. Більшість підготовчих заходів, вжитих напередодні процесу повільного зльоту, виявляться морально застарілими. Проте поступово почнуть з’являтися нові рішення, актуальні для епохи, що настає», — пише Бостром у книзі «Суперінтелект».
  • Швидкий (хвилини, години, дні). У цьому сценарії ми практично не матимемо шансів на адекватну реакцію. Усе станеться надто швидко. Тому доля всього людства залежатиме від завчасної підготовки.
  • Помірний (кілька місяців чи років). Матимемо певну можливість відреагувати на те, що відбувається. Проте не вистачить часу проаналізувати, протестувати підходи та пропрацювати скоординовані дії. 

Звичайно, ідеальним видається варіант, при якому людству вистачить часу все спланувати та підготуватися. Проте якщо оцінювати песимістично — він малоймовірний. Уже зараз процес розвитку ШІ фактично не контролюється.

Конкуренція у галузі ШІ змушує компанії діяти все активніше, приділяючи менше часу потенційним проблемам та загрозам. Навіть якщо демократичні уряди змусять уповільнити розробку, то це ніяк не зупинить умовний Китай. Тобто розпочаті ШІ-перегони зможе зупинити хіба що відсутність необхідних технологій.

Також не варто піддаватись ілюзії, що штучний суперінтелект вдасться певним чином «утримувати під замком» та не використовувати до повної перевірки того, чи не наробить він шкоди. По-перше, після отримання ASI компаніям набагато вигідніше почати його використовувати, щоб отримати перевагу над конкурентами.

По-друге, Баррат у своїй книзі описав сценарій того, як ASI втікатиме з відрізаної від мережі лабораторії.

Уявимо, що вченим вдалося створити AGI. Далі він став розумнішим за людину вдесятеро, сто, тисячу та десятки тисяч разів і так далі. Історичний момент — перед нами ASI. Проте радіти зарано. 

«Щойно ШІ усвідомить себе, він готовий буде багато чого зробити заради досягнення тих цілей, на які запрограмований, і заради того, щоб уникнути невдачі. Він захоче отримати доступ до енергії в тій формі, яку йому найзручніше використовувати (і кіловати, і гроші, і ще що-небудь, що можна обміняти на ресурси). Прагнутиме поліпшити себе, бо таким чином зможе підвищити імовірність досягнення цілей. І найголовніше, не захоче, щоб його вимикали або псували, тому що в цьому разі розв’язання завдань стане неможливим. 

Теоретики припускають, що ASI шукатиме способи вийти за межі приміщення, у якому перебуває під охороною, щоб отримати кращий доступ до ресурсів, за допомогою яких зможе захистити й вдосконалити себе», — пише Баррат.

Люди для такого ШІ — щось на кшталт як для нас хробаки чи пацюки. Тобто нижча форма, на яку можна вплинути для досягнення конкретної цілі. ASI, у тисячу раз розумніший за людину, уже подумав про всі наші можливі стратегії утримання його в полоні. Баррат пише, що такий ШІ міг би пообіцяти людям якусь винагороду чи можливість, щоб його випустили.

Якщо вважаєте, що ми не попадемось на його хитрощі, то дарма. Сем Альтман очікує, що ШІ буде здатний до надлюдського переконання задовго до того, як він стане надлюдським загалом. ASI вміло продаватиме нам своє звільнення з полону. Наприклад, за допомогою обіцянок великих статків, ліків від смертельних хвороб, перемоги над суперниками тощо. 

«ASI не обиратиме одну з усіх можливих стратегій — він зможе в одну мить перепробувати їх усі, одну за одною, не дратуючи людей настільки, щоб вони просто відключили комп’ютер від електромережі», — пояснює Баррат.

Словом втримати «джина в пляшці» навряд вийде. Врешті він спробує достатньо варіантів, щоб звільнитися та почати діяти задля втілення своєї місії.

Що з цим робити

Враховуючи вищезазначене, постає питання: «А що ж тоді робити?». Відповідь — alignment (узгодження). Під цим терміном розуміють створення систем штучного інтелекту так, щоб вони узгоджувалися з людськими цінностями та цілями. Звучить доволі розпливчасто, але саме це може не дозволити штучному суперінтелекту перетворити всю матерію у Всесвіті, наприклад, на полуниці.

Проте alignment — складний процес. Тут нам важливо зрозуміти, яким людським цінностям ШІ має слідувати. Альтман, наприклад, як один з варіантів пропонує — «зібрати якомога більшу частку людства і дійти світового консенсусу». Таким чином ми разом маємо вирішити, які цінності вкладемо у ШІ та межі, що ніколи не повинні порушуватися. 

Проте пригадайте, коли люди востаннє про щось глобально домовились і не порушили обіцянки. Наприклад, заборона застосовувати суперінтелект у воєнних цілях навряд зупинить росію. Це, своєю чергою означає, що умовні США теж не можуть відмовитися від такого застосування.

Два суперінтелекти з фокусом на досягненні військових цілей — що може піти не так?

Але навіть якби нам вдалось виробити спільні цінності і виконувати обіцянки, то вдале узгодження далеко не гарантоване. Як пояснює Юдковський, коли йде мова про запуск системи на рівні розумнішому за людину, можуть почати ламатися речі, які нормально працюють з роботом, що пересувається кімнатою. При цьому у розробників буде лише одна спроба: якщо вона провалиться, то ШІ просунеться надто далеко, щоб це можна було якось виправити. 

Словом, дослідникам слід розуміти, що вони будують бога. І мова не про один конкретний випадок. Навряд настане момент, коли розробники вирішать — сьогодні створюємо ASI. Цілком можливо, що вже зараз працює система, яка в майбутньому стане суперінтелектом. Проте її розробники цього не очікують.

Тобто кожного разу потрібно готуватися, що нова модель може стати Богом, і робити все для захисту людства. Ось така непересічна задачка.

Саме тому нею займаються люди на кшталт Іллі Суцкевера (того самого, що звільнив Сема Альтмана). Для розв’язання цієї задачі у OpenAI навіть створили superalignment-команду. Її ціль — набір відмовостійких процедур для створення та контролю майбутньої технології. На цю роботу планували виділити п’яту частину обчислювальних потужностей OpenAI. Розв’язати проблему хочуть за чотири роки.

Інше питання — чи є в нас стільки часу і чи здатні ми дійсно справитися з таким завданням? Здається, ми цього не знаємо, тому залишається надіятись та робити все можливе.

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

ЧИТАЙТЕ ТАКОЖ
ТЕХНОЛОГІЇ
Дайте спокій Альтману. 11 лідерів думок у сфері ШІ, на яких варто підписатися, — в Україні та світі 
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
02 Лютого 2024, 11:30 5 хв читання
Завантаження...