НОВИНИ

Чи дійсно обґрунтовані 3 найбільших страхи перед ШІ?

Аудіо версія новини

Слухати

Просунутий ШІ завоює світ, відбере роботу та буде упередженим — мабуть, три головні страхи людства в цій сфері. Business Insider поговорив з фахівцями, наскільки ці занепокоєння обґрунтовані. Переказуємо головне.

Що сталося

У свіжому пресрелізі Центру безпеки штучного інтелекту (CAIS) йдеться про те, що ШІ настільки ж небезпечний, як ядерна війна та глобальні пандемії. Пам’ятаєте, наприкінці березня Ілон Маск, Стів Возняк, Юваль Ной Харарі, Кріс Ларсен та ще понад 1000 експертів підписали спільного листа із закликом зробити принаймні піврічну паузу в розробці систем ШІ, потужніших за GPT-4 від OpenAI? Згодом до анти-ШІ маршу приєднався експерт із ШІ Еліезер Юдковський. Подібний рівень занепокоєння поділяє й CEO OpenAI Сем Альтман

Девід Крюгер, експерт з ШІ і доцент Кембриджського університету, каже, що хоча люди й хочуть конкретних сценаріїв щодо екзистенційних ризиків ШІ, але все ще важко вказати на якийсь з них з будь-яким ступенем впевненості. Ось деякі з потенційних проблем, які турбують фахівців.

Захоплення ШІ

Одне з найпоширеніших побоювань — ШІ вийде з-під контролю свого творця. Тут мова про AGI (cильний штучний інтелект або штучний генералізований інтелект). Так називають штучний інтелект, який здатний успішно реалізувати будь-яку задачу, котру може виконати людина.

Експерти розділилися в думках щодо того, як саме визначати AGI. Проте цілому погоджуються, що потенційна технологія становить для людства небезпеку, яку необхідно досліджувати й регулювати. Крюгер каже, що найбільш очевидним її прикладом є військова конкуренція у сфері автономної зброї. Зокрема, він занепокоєний сценарієм тотальної війни з використанням передових ШІ-систем, розумніших за людей

«Думаю, цілком ймовірно, що системи вийдуть з-під контролю і в результаті можуть вбити всіх», — додає він.

Пам’ятаєте, ми розповідали, як ШІ-дрон нібито намагався атакувати свого оператора під час військових навчань?

Масове безробіття

Абхішек Гупта, засновник Монреальського інституту етики ШІ, вважає, що перспектива втрати робочих місць, спричинена ШІ, є «найреалістичнішою, найбезпосереднішою та, можливо, найневідкладнішою» екзистенціальною загрозою.

«Нам потрібно звернути увагу на відсутність мети, яку люди відчують при масовій втраті роботи. Екзистенційна частина цього питання — що люди робитимуть і де вони шукатимуть собі ціль?», — вважає він.

Керівники компаній починають відверто говорити про свої плани щодо використання ШІ. Наприклад, генеральний директор IBM Арвінд Крішна нещодавно оголосив, що компанія сповільнить найм на посади, які можна замінити ШІ. 

Упередженість ШІ

Якщо ШІ використовуватимуться для ухвалення суспільно важливих рішень, систематична упередженість може стати серйозним ризиком.

Одна з проблем — навчальні дані часто базуються переважно на англомовних джерелах. Фінансування для навчання моделей ШІ з іншими мовами обмежене. Це матиме наслідки. Фактично, обмежить можливості людям, які не знають популярних мов. Та й ШІ використовуватиме їх гірше.

ЧИТАЙТЕ ТАКОЖ

Досвід і думки
Від $10 000 до $100 000: навіщо використовувати кіно як інструмент піару

14 Грудня 2025, 13:28

НОВИНИ
IMDb назвав найкращі фільми та серіали 2025 року — список

14 Грудня 2025, 09:00

НОВИНИ
Чому жінкам складніше будувати кар’єру — дослідження

13 Грудня 2025, 18:00

БІЗНЕС
5 ознак, що бізнесу потрібен автоматизований фіноблік

13 Грудня 2025, 13:28

НОВИНИ
Як ідеї стають масовими та змінюють поведінку людей — інсайти від Білла Гейтса

13 Грудня 2025, 09:00

НОВИНИ
Джефф Безос пояснив, чому успішні люди ухвалюють правильні рішення

12 Грудня 2025, 18:20

НОВИНИ
Цей цифровий паспорт відрізнить людину від ШІ

12 Грудня 2025, 16:36

НОВИНИ
Reddit подала позов на Австралію — що не так із забороною соцмереж для підлітків

12 Грудня 2025, 14:47

НОВИНИ
Що нового в моделі GPT-5.2

12 Грудня 2025, 13:58

НОВИНИ
Тепер поліція США шукає злочинців за ШІ-фотороботами — що відомо

12 Грудня 2025, 12:15