Чи дійсно обґрунтовані 3 найбільших страхи перед ШІ?
Просунутий ШІ завоює світ, відбере роботу та буде упередженим — мабуть, три головні страхи людства в цій сфері. Business Insider поговорив з фахівцями, наскільки ці занепокоєння обґрунтовані. Переказуємо головне.
Що сталося
У свіжому пресрелізі Центру безпеки штучного інтелекту (CAIS) йдеться про те, що ШІ настільки ж небезпечний, як ядерна війна та глобальні пандемії. Пам’ятаєте, наприкінці березня Ілон Маск, Стів Возняк, Юваль Ной Харарі, Кріс Ларсен та ще понад 1000 експертів підписали спільного листа із закликом зробити принаймні піврічну паузу в розробці систем ШІ, потужніших за GPT-4 від OpenAI? Згодом до анти-ШІ маршу приєднався експерт із ШІ Еліезер Юдковський. Подібний рівень занепокоєння поділяє й CEO OpenAI Сем Альтман.
Девід Крюгер, експерт з ШІ і доцент Кембриджського університету, каже, що хоча люди й хочуть конкретних сценаріїв щодо екзистенційних ризиків ШІ, але все ще важко вказати на якийсь з них з будь-яким ступенем впевненості. Ось деякі з потенційних проблем, які турбують фахівців.
Захоплення ШІ
Одне з найпоширеніших побоювань — ШІ вийде з-під контролю свого творця. Тут мова про AGI (cильний штучний інтелект або штучний генералізований інтелект). Так називають штучний інтелект, який здатний успішно реалізувати будь-яку задачу, котру може виконати людина.
Експерти розділилися в думках щодо того, як саме визначати AGI. Проте цілому погоджуються, що потенційна технологія становить для людства небезпеку, яку необхідно досліджувати й регулювати. Крюгер каже, що найбільш очевидним її прикладом є військова конкуренція у сфері автономної зброї. Зокрема, він занепокоєний сценарієм тотальної війни з використанням передових ШІ-систем, розумніших за людей
«Думаю, цілком ймовірно, що системи вийдуть з-під контролю і в результаті можуть вбити всіх», — додає він.
Пам’ятаєте, ми розповідали, як ШІ-дрон нібито намагався атакувати свого оператора під час військових навчань?
Масове безробіття
Абхішек Гупта, засновник Монреальського інституту етики ШІ, вважає, що перспектива втрати робочих місць, спричинена ШІ, є «найреалістичнішою, найбезпосереднішою та, можливо, найневідкладнішою» екзистенціальною загрозою.
«Нам потрібно звернути увагу на відсутність мети, яку люди відчують при масовій втраті роботи. Екзистенційна частина цього питання — що люди робитимуть і де вони шукатимуть собі ціль?», — вважає він.
Керівники компаній починають відверто говорити про свої плани щодо використання ШІ. Наприклад, генеральний директор IBM Арвінд Крішна нещодавно оголосив, що компанія сповільнить найм на посади, які можна замінити ШІ.
Упередженість ШІ
Якщо ШІ використовуватимуться для ухвалення суспільно важливих рішень, систематична упередженість може стати серйозним ризиком.
Одна з проблем — навчальні дані часто базуються переважно на англомовних джерелах. Фінансування для навчання моделей ШІ з іншими мовами обмежене. Це матиме наслідки. Фактично, обмежить можливості людям, які не знають популярних мов. Та й ШІ використовуватиме їх гірше.